1000 resultados para cargas de Mülliken
Resumo:
La presente comunicación pretende abordar el papel que desempeña el ferrocarril en el suministro de cereales panificables en los distintos partidos judiciales de la provincia de Barcelona en la segunda mitad del XIX. Dedicaremos la primera parte de este trabajo a estimar el consumo de cereales panificables en la provincia de Barcelona en la segunda mitad del siglo XIX. A continuación estimaremos y analizaremos la producción y calcularemos que parte del consumo podía cubrir. A partir del déficit productivo calculado para los distintos partidos judiciales, en la segunda parte del trabajo analizaremos el papel desempeñado por el ferrocarril en la cobertura del consumo de cereales de la población. Comparemos el déficit productivo estimado, con las cifras disponibles sobre cargas y descargas de cereales en las distintas estaciones de tren de los partidos judiciales de la provincia de Barcelona, y valoraremos su verosimilitud. Finalmente, evaluaremos a modo de conclusión la relevancia de la aportación de este moderno medio de transporte a la alimentación de la población de la provincia de Barcelona, y en general a la estabilidad política y social y al crecimiento demográfico y económico.
Resumo:
En este trabajo se analizan las relaciones financieras entre el Estado y las Haciendas territoriales vascas desde la perspectiva de su adecuación a la ley del Concierto de 2002. Su principal conclusión es que la contribución del País Vasco a la Hacienda estatal es muy inferior a lo que debería ser de acuerdo con la legislación básica actualmente en vigor. El origen del desajuste está en las leyes quinquenales del Cupo, donde los principios y procedimientos de valoración establecidos en la ley del Concierto se concretan de una forma muy discutible. Los problemas fundamentales que se detectan son dos. Primero, la valoración de las cargas estatales no asumidas por el País Vasco que se recoge en los anexos de las leyes quinquenales está fuertemente sesgada a la baja. Y segundo, el ajuste por IVA se realiza utilizando valores desfasados de los coeficientes que recogen el peso del País Vasco en el consumo nacional y en la base del impuesto. El efecto conjunto de ambos factores ha sido el de rebajar la contribución vasca a los gastos del Estado en 2.800 millones de euros en 2002 y en casi 4.500 millones en 2007.
Resumo:
El desarrollo más reciente de los puentes arco ha llevado a una nueva tipología: los “puentes arco espaciales”. Se entiende por puente arco espacial todo puente arco en el que, por su configuración geométrica y estructural, las cargas gravitatorias generan esfuerzos no contenidos en el plano del arco. Por un lado, aparecen para satisfacer las necesidades funcionales cuando estructuras en arco resultan las más adecuadas para sostener tableros curvos y evitar así apoyos intermedios. Desde un punto de vista estético, surgen como demanda de los nuevos puentes en entornos urbanos, buscando, no sólo una forma cuidada, sino persiguiendo convertirse en emblemas de la ciudad a partir de la originalidad y la innovación. Su proyecto y construcción es posible gracias a las grandes posibilidades que ofrecen los nuevos métodos de cálculo y dibujo por ordenador, en los que, a través del incremento de memoria y rapidez, cada vez se emplean programas más completos y nuevas modelizaciones, más cercanas a la realidad. No menos importante es el desarrollo de los medios auxiliares de construcción y de las herramientas de CAD/CAM, que convierte en construibles por control numérico formas de manufactura impensables. Ello trasciende en infinitas posibilidades de diseño y estructura. Sin embargo, el diseño y construcción de estas nuevas tipologías no ha estado acompañado por el avance en el estado del conocimiento fundamentado en la investigación, ya que se han desarrollado pocos estudios que explican parcialmente la respuesta estructural de estos puentes. Existe, por lo tanto, la necesidad de profundizar en el estado del conocimiento y clarificar su respuesta estructural, así como de plantear, finalmente, criterios de diseño que sirvan de apoyo en las fases de concepción y de proyecto a estas nuevas tipologías.
Resumo:
L’adaptació a l’entrenament aeròbic prolongat provoca a nivell cardíac modificacions estructurals i electrocardiogràfiques que es poden considerar parafisiològiques. Una planificació incorrecta de las càrregues de treball i factors externs estressants poden provocar una desadaptació a l’entrenament i de forma crònica en la Síndrome de Sobreentrenament. Aquesta síndrome es reflex d’un desequilibri del sistema autònom, podent presentar en les seves formes més desenvolupades manifestacions cardiovasculars greus. No es disposen actualment d’un marcador diagnòstic definitiu, sent la anamnesis dirigida el “gold standard”. El tractament consisteix en un descans actiu la durada del qual dependrà de la gravetat clínica.
Resumo:
En este trabajo se estudian los determinantes macroeconómicos de la informalidad laboral en Colombia. Teniendo en cuenta varias definiciones de informalidad, se encuentra que este fenómeno tiene una relación inversa con el nivel de educación de la población ocupada y el grado de desarrollo industrial de las ciudades. También se observa que un sector público muy grande genera un efecto positivo sobre la informalidad, lo cual indica que existen posibles ineficiencias estatales o cargas institucionales que afectan la decisión de formalizarse. Así mismo se evidencia que existe un importante efecto local en la informalidad asociado con la estructura productiva e integración comercial, que dependen de la ubicación geográfica de las ciudades.
Resumo:
Actualmente existen muchas aplicaciones paralelas/distribuidas en las cuales SPMD es el paradigma más usado. Obtener un buen rendimiento en una aplicación paralela de este tipo es uno de los principales desafíos dada la gran cantidad de aplicaciones existentes. Este objetivo no es fácil de resolver ya que existe una gran variedad de configuraciones de hardware, y también la naturaleza de los problemas pueden ser variados así como la forma de implementarlos. En consecuencia, si no se considera adecuadamente la combinación "software/hardware" pueden aparecer problemas inherentes a una aplicación iterativa sin una jerarquía de control definida de acuerdo a este paradigma. En SPMD todos los procesos ejecutan el mismo código pero computan una sección diferente de los datos de entrada. Una solución a un posible problema del rendimiento es proponer una estrategia de balance de carga para homogeneizar el cómputo entre los diferentes procesos. En este trabajo analizamos el benchmark CG con cargas heterogéneas con la finalidad de detectar los posibles problemas de rendimiento en una aplicación real. Un factor que determina el rendimiento en esta aplicación es la cantidad de elementos nonzero contenida en la sección de matriz asignada a cada proceso. Determinamos que es posible definir una estrategia de balance de carga que puede ser implementada de forma dinámica y demostramos experimentalmente que el rendimiento de la aplicación puede mejorarse de forma significativa con dicha estrategia.
Resumo:
Performance prediction and application behavior modeling have been the subject of exten- sive research that aim to estimate applications performance with an acceptable precision. A novel approach to predict the performance of parallel applications is based in the con- cept of Parallel Application Signatures that consists in extract an application most relevant parts (phases) and the number of times they repeat (weights). Executing these phases in a target machine and multiplying its exeuction time by its weight an estimation of the application total execution time can be made. One of the problems is that the performance of an application depends on the program workload. Every type of workload affects differently how an application performs in a given system and so affects the signature execution time. Since the workloads used in most scientific parallel applications have dimensions and data ranges well known and the behavior of these applications are mostly deterministic, a model of how the programs workload affect its performance can be obtained. We create a new methodology to model how a program’s workload affect the parallel application signature. Using regression analysis we are able to generalize each phase time execution and weight function to predict an application performance in a target system for any type of workload within predefined range. We validate our methodology using a synthetic program, benchmarks applications and well known real scientific applications.
Resumo:
El consumo energético es un aspecto cada vez más importante en el diseño de microprocesadores. Este trabajo experimenta con una técnica de control del consumo, el escalado dinámico de tensión y frecuencia (DVFS, siglas en inglés), para determinar cuan efectiva es la misma en la ejecución de programas con diferentes cargas de trabajo, intensivas en cómputo o memoria. Además, se ha extendido la experimentación a varios núcleos de ejecución, permitiendo comprobar en que medida las características de la ejecución en una arquitectura multicore afecta al desempeño de dicha técnica.
Resumo:
En aquest treball s'estudien els mecanismes necessaris que ofereixin, a les aplicacions i al sistema, informació relacionada amb l'execució de les tasques, els recursos que es consumeixen, les càrregues dels iguals, etc. Una de les utilitats que presenta consisteix en la possibilitat de detectar tasques que tenen problemes o que saturen un membre del grup i actuar en conseqüència, eliminant o aturant durant un temps una tasca, delegant-ne l'execució a un altre membre del grup amb més disponibilitat, etc.
Resumo:
Objetivos: 1.-Identificar los factores clínicos y microbiológicos que ayuden a predecir la aparición de exacerbaciones en la EPOC. 2.-Diagnóstico y cuantificación de las especies bacterianas aisladas en esputo (fase de exacerbación y estable) .3.- Tipificación genotípica secuencial de las cepas de H. influenzae y P. aeruginosa. 4.- Impacto del tratamiento antibiótico en la aparición de resistencias en estos patógenos. 5.- Diseño: Estudio prospectivo (3 años). Ámbito del estudio: Hospital Universitario de tercer nivel. Pacientes con EPOC grave atendidos en la Consulta Monográfica de EPOC del Servicio de Neumología. Métodos microbiológicos: Cuantificación de la carga bacteriana en muestras respiratorias en fase estable y en exacerbación. Estudio de la sensibilidad “in vitro”. Tipificación molecular (PFGE y MLST) de H. influenzae y P. aeruginosa. Estudio de los genes de virulencia de H. influenzae mediante PCR. Resultados: Desde Febrero de 2010 a Julio de 2011 se han incluido 77 pacientes. Los microorganismos más frecuentemente aislados en fase de exacerbación fueron: P. aeruginosa (29.3%), H. influenzae (15.92%), M. catarrhalis (12.74%), S. pneumoniae (10.19%) y S. aureus (5.10%). En los 88 episodios por P. aeruginosa se detectaron 38 genotipos diferentes. En los 41 episodios por H. influenzae se detectaron 39 genotipos diferentes. El 10% de los episodios fueron polimicrobianos. Los episodios de EAEPOC y de fase estable tuvieron una distribución de microorganismos similar. Sin embargo, cuando se cuantificaron las cargas bacterianas fueron mayores en EAEPOC (intervalo 4x107 -2x108) que en fase estable (intervalo 2x105 -4x107). Conclusiones: El genotipo de las cepas de P. aeruginosa y H. influenzae aisladas en EAEPOC difieren de un paciente a otro, sin embargo la mayoría de los episodios de cada paciente están causados por un genotipo único.
Resumo:
El rápido crecimiento del los sistemas multicore y los diversos enfoques que estos han tomado, permiten que procesos complejos que antes solo eran posibles de ejecutar en supercomputadores, hoy puedan ser ejecutados en soluciones de bajo coste también denominadas "hardware de comodidad". Dichas soluciones pueden ser implementadas usando los procesadores de mayor demanda en el mercado de consumo masivo (Intel y AMD). Al escalar dichas soluciones a requerimientos de cálculo científico se hace indispensable contar con métodos para medir el rendimiento que los mismos ofrecen y la manera como los mismos se comportan ante diferentes cargas de trabajo. Debido a la gran cantidad de tipos de cargas existentes en el mercado, e incluso dentro de la computación científica, se hace necesario establecer medidas "típicas" que puedan servir como soporte en los procesos de evaluación y adquisición de soluciones, teniendo un alto grado de certeza de funcionamiento. En la presente investigación se propone un enfoque práctico para dicha evaluación y se presentan los resultados de las pruebas ejecutadas sobre equipos de arquitecturas multicore AMD e Intel.
Resumo:
En aquest treball, prenent com a marc teòric de referència la deconstrucció de la dicotomia públic/privat realitzada per la teoría feminista en aquestes últimes dècades, i les anàlisis jurídicfeministes del dret, posem de manifest com el Dret de la Unió Europea sobre la conciliació de la vida familiar i laboral està articulat acord amb aquesta dicotomia, i en conseqüència, no té en compte els interessos de les dones en tot el seu abast, ja que potencia la seva participació en el treball remunerat però sense resoldre el problema de les desigualtats entre homes i dones en relació amb les càrregues familiars i domèstiques.
Resumo:
Disseny i implementació d'una base de dades com a part de la plataforma tecnològica d'un projecte de gran abast consistent en la gestió de càrregues i descàrregues d'aplicacions per a smartphones.
Resumo:
RESUMO Objetivou-se, neste artigo, disponibilizar uma medida quantitativa de condições favoráveis e desfavoráveis à criatividade no ambiente de trabalho, concebida como um processo de produção de ideias novas e de valor para determinado contexto. Decidiu-se, inicialmente, aprimorar um instrumento já validado com fins semelhantes. A aplicação de survey para validação da nova medida, composta de 63 itens, foi feita em uma amostra de 409 analistas de uma empresa brasileira de pesquisa. Foram realizadas as análises semântica e dos juízes, com posterior análise fatorial e de confiabilidade dos itens. Obtiveram-se duas escalas distintas: uma que continha seis fatores que manifestam condições facilitadoras e três que retratam barreiras à expressão da criatividade no ambiente de trabalho. O instrumento foi denominado de Indicadores de Condições para Criar no Ambiente de Trabalho (ICCAT) e mostra-se como uma medida robusta e atualizada, com a redução de 97 para 60 itens, com cargas fatoriais elevadas, bem como índices de confiabilidade mais altos que a medida anterior. O índice de variância total explicada foi superior a 50%. Sugerem-se novas aplicações, a fim de verificar se a estrutura fatorial se confirma. Destaca-se a relevância de se disponibilizar tal medida para aplicação em pesquisas futuras, bem como para diagnósticos organizacionais.
Resumo:
Els monopols es defineixen, teòricament, com càrregues que generen camps amb divergència diferent de cero. Malgrat això, les entitats amb comportament mimètic al dels monopols magnètics, segueix sent compatible amb ∇·B=0, han estat detectades experimentalment en gels d’espín (‘spin-ices’). Aquesta aparent contradicció pot generar confusió i, per tant, requereix explicació. D’altra banda, s’estudien propietats duals del materials amb càrregues magnètiques efectives tals com la ‘magnetricity’ en els ‘spinices’ (conductivitat de les càrregues magnètiques davant un camp magnètic extern). Com una conseqüència de la magnetricitat, l’apantallament del camp magnètic en materials amb càrregues magnètiques és analitzat. Estudio la propagació d’ones electromagnètiques transversals en medis materials infinits i en plasmes magnètics diluïts davant la presència de camps elèctrics externs constants. Aquesta propagació és dual a la propagació d’ones en plasmes de càrregues elèctriques davant la presència de camps magnètics externs, constants. Finalment, estudio el frenat elèctric d’un conductor de càrregues magnètiques amb un efecte dual al frenat magnètic en conductors elèctrics.