852 resultados para Difference Between Generation X and Y Employees


Relevância:

100.00% 100.00%

Publicador:

Resumo:

The Climatological Database for the World's Oceans: 1750-1854 (CLIWOC) project, which concluded in 2004, abstracted more than 280,000 daily weather observations from ships' logbooks from British, Dutch, French, and Spanish naval vessels engaged in imperial business in the eighteenth and nineteenth centuries. These data, now compiled into a database, provide valuable information for the reconstruction of oceanic wind field patterns for this key period that precedes the time in which anthropogenic influences on climate became evident. These reconstructions, in turn, provide evidence for such phenomena as the El Niño-Southern Oscillation and the North Atlantic Oscillation. Of equal importance is the finding that the CLIWOC database the first coordinated attempt to harness the scientific potential of this resource represents less than 10 percent of the volume of data currently known to reside in this important but hitherto neglected source.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Heart valve prostheses are used to replace native heart valves which that are damaged because of congenital diseases or due to ageing. Biological prostheses made of bovine pericardium are similar to native valves and do not require any anticoagulation treatment, but are less durable than mechanical prostheses and usually fail by tearing. Researches are oriented in improving the resistance and durability of biological heart valve prostheses in order to increase their life expectancy. To understand the mechanical behaviour of bovine pericardium and relate it to its microstructure (mainly collagen fibres concentration and orientation) uniaxial tensile tests have been performed on a model material made of collagen fibres. Small Angle Light Scattering (SALS) has been also used to characterize the microstructure without damaging the material. Results with the model material allowed us to obtain the orientation of the fibres, relating the microstructure to mechanical performance

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Se muestra la necesidad de la creación de un estándar que facilite el intercambio de datos entre empresas productoras de vídeo y cadenas de distribución. Se muestra un posible modelo en la forma de transmisión, modelo de datos y procesado de datos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La discontinuidad de Mohorovičić, más conocida simplemente como “Moho” constituye la superficie de separación entre los materiales rocosos menos densos de la corteza y los materiales rocosos más densos del manto, suponiendo estas capas de densidad constante del orden de 2.67 y 3.27 g/cm3, y es un contorno básico para cualquier estudio geofísico de la corteza terrestre. Los estudios sísmicos y gravimétricos realizados demuestran que la profundidad del Moho es del orden de 30-40 km por debajo de la Península Ibérica y 5-15 km bajo las zonas marinas. Además las distintas técnicas existentes muestran gran correlación en los resultados. Haciendo la suposición de que el campo de gravedad de la Península Ibérica (como le ocurre al 90% de la Tierra) está isostáticamente compensado por la variable profundidad del Moho, suponiendo un contraste de densidad constante entre la corteza y el manto y siguiendo el modelo isostático de Vening Meinesz (1931), se formula el problema isostático inverso para obtener tal profundidad a partir de la anomalía Bouguer de la gravedad calculada gracias a la gravedad observada en la superficie terrestre. La particularidad de este modelo es la compensación isostática regional de la que parte la teoría, que se asemeja a la realidad en mayor medida que otros modelos existentes, como el de Airy-Heiskanen, que ha sido históricamente el más utilizado en trabajos semejantes. Además, su solución está relacionada con el campo de gravedad global para toda la Tierra, por lo que los actuales modelos gravitacionales, la mayoría derivados de observaciones satelitales, deberían ser importantes fuentes de información para nuestra solución. El objetivo de esta tesis es el estudio con detalle de este método, desarrollado por Helmut Moritz en 1990, que desde entonces ha tenido poca evolución y seguidores y que nunca se ha puesto en práctica en la Península Ibérica. Después de tratar su teoría, desarrollo y aspectos computacionales, se está en posición de obtener un modelo digital del Moho para esta zona a fin de poder utilizarse para el estudio de la distribución de masas bajo la superficie terrestre. A partir de los datos del Moho obtenidos por métodos alternativos se hará una comparación. La precisión de ninguno de estos métodos es extremadamente alta (+5 km aproximadamente). No obstante, en aquellas zonas donde exista una discrepancia de datos significaría un área descompensada, con posibles movimientos tectónicos o alto grado de riesgo sísmico, lo que le da a este estudio un valor añadido. ABSTRACT The Mohorovičić discontinuity, simply known as “Moho” constitutes the division between the rocky and less thick materials of the mantle and the heavier ones in the crust, assuming densities of the orders of 2.67 y 3.27 g/cm3 respectively. It is also a basic contour for every geophysical kind of studies about the terrestrial crust. The seismic and previous gravimetric observations done in the study area show that the Moho depth is of the order of 30-40 km beneath the ground and 5-15 km under the ocean basin. Besides, the different techniques show a good correlation in their results. Assuming that the Iberian Peninsula gravity field (as it happens for the 90% of the Earth) is isostatically compensated according to the variable Moho depth, supposing a constant density contrast between crust and mantle, and following the isostatic Vening Meinesz model (1931), the inverse isostatic problem can be formulated from Bouguer gravity anomaly data obtained thanks to the observed gravity at the surface of the Earth. The main difference between this model and other existing ones, such as Airy- Heiskanen’s (pure local compensation and mostly used in these kinds of works) is the approaching to a regional isostatic compensation, much more in accordance with reality. Besides, its solution is related to the global gravity field, and the current gravitational models -mostly satellite derived- should be important data sources in such solution. The aim of this thesis is to study with detail this method, developed by Helmut Moritz in 1990, which hardly ever has it put into practice. Moreover, it has never been used in Iberia. After studying its theory, development and computational aspects, we are able to get a Digital Moho Model of the Iberian Peninsula, in order to study the masses distribution beneath the Earth’s surface. With the depth Moho information obtained from alternative methods, a comparison will be done. Both methods give results with the same order of accuracy, which is not quite high (+ 5 km approximately). Nevertheless, the areas in which a higher difference is observed would mean a disturbance of the compensation, which could show an unbalanced area with possible tectonic movements or potential seismic risk. It will give us an important additive value, which could be used in, at first, non related fields, such as density discrepancies or natural disasters contingency plans.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tiny increases in the transmittance of optical materials within a CPV module can have an important impact on the economy of a plant. This is certainly true in systems comprising multi-junction solar cells, whose high performance, based on a balanced photocurrent generation among the series-connected junctions, is very sensitive to spectrum variations. Every efficiency point gained causes not only an increase in the kilowatts hour produced, but a higher benefit on it, since the difference between electricity tariff and Levelized Cost of Electricity (LCOE) rises. This work studies the impact on the LCOE of a plant based on modules comprising PMMA lenses of two different types, standard UV blocking grade which is normally used for outdoor applications at high DNI climate and a specialty stabilized UV-enhanced transmittance acrylic (see Figure 1). Energy production will be compared for these two systems throughout the year at different sites to analyze when (season, time of the day) and where the usage of the enhanced PMMA is justified.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Relación entre los cambios de las variable hematolóicas y la capacidad aeróbica

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Due to the necessity to undertake activities, every year people increase their standards of travelling (distance and time). Urban sprawl development plays an important role in these "enlargements". Thus, governments invest money in an exhaustiva search for solutions to high levels of congestion and car-trips. The complex relationship between urban environment and travel behaviour has been studied in a number of cases. Thus, the objective of this paper is to answer the important question of which land-use attributes influence which dimensions of travel behaviour, and to verify to what extent specific urban planning measures affect the individual decision process, by exhaustiva statistical and systematic tests. This paper found that a crucial issue in the analysis of the relationship between the built environment and travel behaviour is the definition of indicators. As such, we recommend a feasible list of indicators to analyze this relationship.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A methodology is described for understanding the interaction of karstic aquifers with allogenic rivers, where little information is available. This methodology includes conventional hydrogen- ology methods tracer tests and measurements of flow into, out of and circulating within the karstic system. The method is designed to un- derstand the hydrogeological behaviour of a river in sufficient detail, given a short study pe- riod. The methodology is applied to a karstic system in Spain, obtaining useful, quantitative results for a hydrological year, such as an esti- mate of the water balance, differentiation be- tween autogenic and allogenic natural recharge, relationship and connection between the river and the aquifer, and measurements of infiltration capacity in watercourses under different hydro- logical situations. The paper deals with a useful example that could be applied to other rivers and aquifers where few data are available. It can be applied to aquifers under a natural regime and Mediterranean climate.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A través de los años las estructuras de hormigón armado han ido aumentando su cuota de mercado, sustituyendo a las estructuras de fábrica de piedra o ladrillo y restándole participación a las estructuras metálicas. Uno de los primeros problemas que surgieron al ejecutar las estructuras de hormigón armado, era cómo conectar una fase de una estructura de este tipo a una fase posterior o a una modificación posterior. Hasta los años 80-90 las conexiones de una fase de una estructura de hormigón armado, con otra posterior se hacían dejando en la primera fase placas de acero con garrotas embebidas en el hormigón fresco o barras grifadas recubiertas de poliestireno expandido. Una vez endurecido el hormigón se podían conectar nuevas barras, para la siguiente fase mediante soldadura a la placa de la superficie o enderezando las barras grifadas, para embeberlas en el hormigón fresco de la fase siguiente. Estos sistemas requerían conocer la existencia y alcance de la fase posterior antes de hormigonar la fase previa. Además requerían un replanteo muy exacto y complejo de los elementos de conexión. Otro problema existente en las estructuras de hormigón era la adherencia de un hormigón fresco a un hormigón endurecido previamente, ya que la superficie de contacto de ambos hormigones suponía un punto débil, con una adherencia baja. A partir de los años 80, la industria química de la construcción experimentó un gran avance en el desarrollo de productos capaces de generar una buena adherencia sobre el hormigón endurecido. Este avance tecnológico tenía aplicación tanto en la adherencia del hormigón fresco sobre el hormigón endurecido, como en la adherencia de barras post-instaladas en agujeros de hormigón endurecido. Este sistema se denominó “anclajes adherentes de barras de acero en hormigón endurecido”. La forma genérica de ejecutarlos es hacer una perforación cilíndrica en el soporte de hormigón, con una herramienta especifica como un taladro, limpiar la perforación, llenarla del material adherente y finalmente introducir la barra de acero. Los anclajes adherentes se dividen en anclajes cementosos y anclajes químicos, siendo estos últimos los más habituales, fiables, resistentes y fáciles de ejecutar. El uso del anclaje adherente de barras de acero en hormigón endurecido se ha extendido por todo el espectro productivo, siendo muy habitual tanto en construcción de obras de hormigón armado de obra civil y edificación, como en obras industriales, instalaciones o fijación de elementos. La ejecución de un anclaje de una barra de acero en hormigón endurecido depende de numerosas variables, que en su conjunto, o de forma aislada pueden afectar de forma notable a la resistencia del anclaje. Nos referimos a variables de los anclajes, que a menudo no se consideran tales como la dirección de la perforación, la máquina de perforación y el útil de perforación utilizado, la diferencia de diámetros entre el diámetro del taladro y la barra, el tipo de material de anclaje, la limpieza del taladro, la humedad del soporte, la altura del taladro, etc. La utilización en los últimos años de los hormigones Autocompactables, añade una variable adicional, que hasta ahora apenas ha sido estudiada. En línea con lo apuntado, la presente tesis doctoral tiene como objetivo principal el estudio de las condiciones de ejecución en la resistencia de los anclajes en hormigón convencional y autocompactable. Esta investigación se centra principalmente en la evaluación de la influencia de una serie de variables sobre la resistencia de los anclajes, tanto en hormigón convencional como en un hormigón autocompactable. Para este estudio ha sido necesaria la fabricación de dos soportes de hormigón sobre los cuales desarrollar los ensayos. Uno de los bloques se ha fabricado con hormigón convencional y el otro con hormigón autocompactable. En cada pieza de hormigón se han realizado 174 anclajes con barras de acero, variando los parámetros a estudiar, para obtener resultados de todas las variables consideradas. Los ensayos a realizar en ambos bloques son exactamente iguales, para poder comparar la diferencia entre un anclaje en un soporte de hormigón con vibrado convencional (HVC) y un hormigón autocompactante (HAC). De cada tipo de ensayo deseado se harán dos repeticiones en la misma pieza. El ensayo de arrancamiento de las barras se realizara con un gato hidráulico hueco, con un sistema de instrumentación de lectura y registro de datos en tiempo real. El análisis de los resultados, realizado con una potente herramienta estadística, ha permitido determinar y evaluar numéricamente la influencia de los variables consideradas en la resistencia de los anclajes realizados. Así mismo ha permitido diferenciar los resultados obtenidos en los hormigones convencionales y autocompactantes, tanto desde el punto de vista de la resistencia mecánica, como de las deformaciones sufridas en el arrancamiento. Se define la resistencia mecánica de un anclaje, como la fuerza desarrollada en la dirección de la barra, para hacer su arrancamiento del soporte. De la misma forma se considera desplazamiento, a la separación entre un punto fijo de la barra y otro del soporte, en la dirección de la barra. Dichos puntos se determinan cuando se ha terminado el anclaje, en la intersección de la superficie plana del soporte, con la barra. Las conclusiones obtenidas han permitido establecer qué variables afectan a la ejecución de los anclajes y en qué cuantía lo hacen, así como determinar la diferencia entre los anclajes en hormigón vibrado convencional y hormigón autocompactante, con resultados muy interesantes, que permiten valorar la influencia de dichas variables. Dentro de las conclusiones podemos destacar tres grupos, que denominaremos como de alta influencia, baja influencia y sin influencia. En todos los casos hay que hacer el estudio en términos de carga y de desplazamiento. Podemos considerar como de alta influencia, en términos de carga las variables de máquina de perforación y el material de anclaje. En términos de desplazamiento podemos considerar de alta influencia además de la máquina de perforación y el material de anclaje, el diámetro del taladro, así como la limpieza y humedad del soporte. Podemos considerar de baja influencia, en términos de carga las variables de tipo de hormigón, dirección de perforación, limpieza y humedad del soporte. En términos de desplazamiento podemos considerar de baja influencia el tipo de hormigón y la dirección de perforación. Podemos considerar en el apartado de “sin influencia”, en términos de carga las variables de diámetro de perforación y altura del taladro. En términos de desplazamiento podemos considerar como “sin influencia” la variable de altura del taladro. Podemos afirmar que las diferencias entre los valores de carga aumentan de forma muy importante en términos de desplazamiento. ABSTRACT Over the years the concrete structures have been increasing their market share, replacing the masonry structures of stone or brick and subtracting as well the participation of the metallic structures. One of the first problems encountered in the implementing of the reinforced concrete structures was connecting a phase structure of this type at a later stage or a subsequent amendment. Until the 80s and 90s the connections of one phase of a reinforced concrete structure with a subsequent first phase were done by leaving the steel plates embedded in the fresh concrete using hooks or bent bars coated with expanded polystyrene. Once the concrete had hardened new bars could be connected to the next stage by welding them to the surface plate or by straightening the bent bars to embed them in the fresh concrete of the next phase. These systems required a previous knowledge of the existence and scope of the subsequent phase before concreting the previous one. They also required a very precise and complex rethinking of the connecting elements. Another existing problem in the concrete structures was the adhesion of a fresh concrete to a previously hardened concrete, since the contact surface of both concretes leaded to a weak point with low adherence. Since the 80s, the chemicals construction industry experienced a breakthrough in the development of products that generate a good grip on the concrete. This technological advance had its application both in the grip on one hardened fresh concrete and in the adhesion of bar post-installed in holes of hardened concrete. This system was termed as adherent anchors of steel bars in hardened concrete. The generic way of executing this system is by firstly drilling a cylindrical hole in the concrete support using a specific tool such as a drill. Then, cleaning the bore and filling it with bonding material to lastly, introduce the steel bar. These adherent anchors are divided into cement and chemical anchors, the latter being the most common, reliable, durable and easy to run. The use of adhesive anchor of steel bars in hardened concrete has spread across the production spectrum turning itself into a very common solution in both construction of reinforced concrete civil engineering and construction, and industrial works, installations and fixing elements as well. The execution of an anchor of a steel bar in hardened concrete depends on numerous variables which together or as a single solution may significantly affect the strength of the anchor. We are referring to variables of anchors which are often not considered, such as the diameter difference between the rod and the bore, the drilling system, cleansing of the drill, type of anchor material, the moisture of the substrate, the direction of the drill, the drill’s height, etc. During recent years, the emergence of self-compacting concrete adds an additional variable which has hardly been studied so far. According to mentioned this thesis aims to study the main performance conditions in the resistance of conventional and self-compacting concrete anchors. This research is primarily focused on the evaluation of the influence of several variables on the strength of the anchoring, both in conventional concrete and self-compacting concrete. In order to complete this study it has been required the manufacture of two concrete supports on which to develop the tests. One of the blocks has been manufactured with conventional concrete and the other with self-compacting concrete. A total of 174 steel bar anchors have been made in each one of the concrete pieces varying the studied parameters in order to obtain results for all variables considered. The tests to be performed on both blocks are exactly the same in order to compare the difference between an anchor on a stand with vibrated concrete (HVC) and a self-compacting concrete (SCC). Each type of test required two repetitions in the same piece. The pulling test of the bars was made with a hollow jack and with an instrumentation system for reading and recording data in real time. The use of a powerful statistical tool in the analysis of the results allowed to numerically determine and evaluate the influence of the variables considered in the resistance of the anchors made. It has likewise enabled to differentiate the results obtained in the self-compacting and conventional concretes, from both the outlook of the mechanical strength and the deformations undergone by uprooting. The mechanical strength of an anchor is defined as the strength undergone in a direction of the bar to uproot it from the support. Likewise, the movement is defined as the separation between a fixed point of the bar and a fixed point from the support considering the direction of the bar. These points are only determined once the anchor is finished, with the bar, at the intersection in the flat surface of the support. The conclusions obtained have established which variables affect the execution of the anchors and in what quantity. They have also permitted to determine the difference between the anchors in vibrated concrete and selfcompacting concrete with very interesting results that also allow to assess the influence of these mentioned variables. Three groups are highlighted among the conclusions called high influence, low influence and no influence. In every case is necessary to perform the study in terms of loading and movement. In terms of loading, there are considered as high influence two variables: drilling machinery and anchorage material. In terms of movement, there are considered as high influence the drilling diameter and the cleaning and moisture of the support, besides the drilling machinery and the anchorage material. Variables such as type of concrete, drilling direction and cleaning and moisture of the support are considered of low influence in terms of load. In terms of movement, the type of concrete and the direction of the drilling are considered variables of low influence. Within the no influence section in terms of loading, there are included the diameter of the drilling and the height of the drill. In terms of loading, the height of the drill is considered as a no influence variable. We can affirm that the differences among the loading values increase significantly in terms of movement.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El mercado ibérico de futuros de energía eléctrica gestionado por OMIP (“Operador do Mercado Ibérico de Energia, Pólo Português”, con sede en Lisboa), también conocido como el mercado ibérico de derivados de energía, comenzó a funcionar el 3 de julio de 2006. Se analiza la eficiencia de este mercado organizado, por lo que se estudia la precisión con la que sus precios de futuros predicen el precio de contado. En dicho mercado coexisten dos modos de negociación: el mercado continuo (modo por defecto) y la contratación mediante subasta. En la negociación en continuo, las órdenes anónimas de compra y de venta interactúan de manera inmediata e individual con órdenes contrarias, dando lugar a operaciones con un número indeterminado de precios para cada contrato. En la negociación a través de subasta, un precio único de equilibrio maximiza el volumen negociado, liquidándose todas las operaciones a ese precio. Adicionalmente, los miembros negociadores de OMIP pueden liquidar operaciones “Over-The-Counter” (OTC) a través de la cámara de compensación de OMIP (OMIClear). Las cinco mayores empresas españolas de distribución de energía eléctrica tenían la obligación de comprar electricidad hasta julio de 2009 en subastas en OMIP, para cubrir parte de sus suministros regulados. De igual manera, el suministrador de último recurso portugués mantuvo tal obligación hasta julio de 2010. Los precios de equilibrio de esas subastas no han resultado óptimos a efectos retributivos de tales suministros regulados dado que dichos precios tienden a situarse ligeramente sesgados al alza. La prima de riesgo ex-post, definida como la diferencia entre los precios a plazo y de contado en el periodo de entrega, se emplea para medir su eficiencia de precio. El mercado de contado, gestionado por OMIE (“Operador de Mercado Ibérico de la Energía”, conocido tradicionalmente como “OMEL”), tiene su sede en Madrid. Durante los dos primeros años del mercado de futuros, la prima de riesgo media tiende a resultar positiva, al igual que en otros mercados europeos de energía eléctrica y gas natural. En ese periodo, la prima de riesgo ex-post tiende a ser negativa en los mercados de petróleo y carbón. Los mercados de energía tienden a mostrar niveles limitados de eficiencia de mercado. La eficiencia de precio del mercado de futuros aumenta con el desarrollo de otros mecanismos coexistentes dentro del mercado ibérico de electricidad (conocido como “MIBEL”) –es decir, el mercado dominante OTC, las subastas de centrales virtuales de generación conocidas en España como Emisiones Primarias de Energía, y las subastas para cubrir parte de los suministros de último recurso conocidas en España como subastas CESUR– y con una mayor integración de los mercados regionales europeos de energía eléctrica. Se construye un modelo de regresión para analizar la evolución de los volúmenes negociados en el mercado continuo durante sus cuatro primeros años como una función de doce indicadores potenciales de liquidez. Los únicos indicadores significativos son los volúmenes negociados en las subastas obligatorias gestionadas por OMIP, los volúmenes negociados en el mercado OTC y los volúmenes OTC compensados por OMIClear. El número de creadores de mercado, la incorporación de agentes financieros y compañías de generación pertenecientes a grupos integrados con suministradores de último recurso, y los volúmenes OTC compensados por OMIClear muestran una fuerte correlación con los volúmenes negociados en el mercado continuo. La liquidez de OMIP está aún lejos de los niveles alcanzados por los mercados europeos más maduros (localizados en los países nórdicos (Nasdaq OMX Commodities) y Alemania (EEX)). El operador de mercado y su cámara de compensación podrían desarrollar acciones eficientes de marketing para atraer nuevos agentes activos en el mercado de contado (p.ej. industrias consumidoras intensivas de energía, suministradores, pequeños productores, compañías energéticas internacionales y empresas de energías renovables) y agentes financieros, captar volúmenes del opaco OTC, y mejorar el funcionamiento de los productos existentes aún no líquidos. Resultaría de gran utilidad para tales acciones un diálogo activo con todos los agentes (participantes en el mercado, operador de mercado de contado, y autoridades supervisoras). Durante sus primeros cinco años y medio, el mercado continuo presenta un crecimento de liquidez estable. Se mide el desempeño de sus funciones de cobertura mediante la ratio de posición neta obtenida al dividir la posición abierta final de un contrato de derivados mensual entre su volumen acumulado en la cámara de compensación. Los futuros carga base muestran la ratio más baja debido a su buena liquidez. Los futuros carga punta muestran una mayor ratio al producirse su menor liquidez a través de contadas subastas fijadas por regulación portuguesa. Las permutas carga base liquidadas en la cámara de compensación ubicada en Madrid –MEFF Power, activa desde el 21 de marzo de 2011– muestran inicialmente valores altos debido a bajos volúmenes registrados, dado que esta cámara se emplea principalmente para vencimientos pequeños (diario y semanal). Dicha ratio puede ser una poderosa herramienta de supervisión para los reguladores energéticos cuando accedan a todas las transacciones de derivados en virtud del Reglamento Europeo sobre Integridad y Transparencia de los Mercados de Energía (“REMIT”), en vigor desde el 28 de diciembre de 2011. La prima de riesgo ex-post tiende a ser positiva en todos los mecanismos (futuros en OMIP, mercado OTC y subastas CESUR) y disminuye debido a la curvas de aprendizaje y al efecto, desde el año 2011, del precio fijo para la retribución de la generación con carbón autóctono. Se realiza una comparativa con los costes a plazo de generación con gas natural (diferencial “clean spark spread”) obtenido como la diferencia entre el precio del futuro eléctrico y el coste a plazo de generación con ciclo combinado internalizando los costes de emisión de CO2. Los futuros eléctricos tienen una elevada correlación con los precios de gas europeos. Los diferenciales de contratos con vencimiento inmediato tienden a ser positivos. Los mayores diferenciales se dan para los contratos mensuales, seguidos de los trimestrales y anuales. Los generadores eléctricos con gas pueden maximizar beneficios con contratos de menor vencimiento. Los informes de monitorización por el operador de mercado que proporcionan transparencia post-operacional, el acceso a datos OTC por el regulador energético, y la valoración del riesgo regulatorio pueden contribuir a ganancias de eficiencia. Estas recomendaciones son también válidas para un potencial mercado ibérico de futuros de gas, una vez que el hub ibérico de gas –actualmente en fase de diseño, con reuniones mensuales de los agentes desde enero de 2013 en el grupo de trabajo liderado por el regulador energético español– esté operativo. El hub ibérico de gas proporcionará transparencia al atraer más agentes y mejorar la competencia, incrementando su eficiencia, dado que en el mercado OTC actual no se revela precio alguno de gas. ABSTRACT The Iberian Power Futures Market, managed by OMIP (“Operador do Mercado Ibérico de Energia, Pólo Português”, located in Lisbon), also known as the Iberian Energy Derivatives Market, started operations on 3 July 2006. The market efficiency, regarding how well the future price predicts the spot price, is analysed for this energy derivatives exchange. There are two trading modes coexisting within OMIP: the continuous market (default mode) and the call auction. In the continuous trading, anonymous buy and sell orders interact immediately and individually with opposite side orders, generating trades with an undetermined number of prices for each contract. In the call auction trading, a single price auction maximizes the traded volume, being all trades settled at the same price (equilibrium price). Additionally, OMIP trading members may settle Over-the-Counter (OTC) trades through OMIP clearing house (OMIClear). The five largest Spanish distribution companies have been obliged to purchase in auctions managed by OMIP until July 2009, in order to partly cover their portfolios of end users’ regulated supplies. Likewise, the Portuguese last resort supplier kept that obligation until July 2010. The auction equilibrium prices are not optimal for remuneration purposes of regulated supplies as such prices seem to be slightly upward biased. The ex-post forward risk premium, defined as the difference between the forward and spot prices in the delivery period, is used to measure its price efficiency. The spot market, managed by OMIE (Market Operator of the Iberian Energy Market, Spanish Pool, known traditionally as “OMEL”), is located in Madrid. During the first two years of the futures market, the average forward risk premium tends to be positive, as it occurs with other European power and natural gas markets. In that period, the ex-post forward risk premium tends to be negative in oil and coal markets. Energy markets tend to show limited levels of market efficiency. The price efficiency of the Iberian Power Futures Market improves with the market development of all the coexistent forward contracting mechanisms within the Iberian Electricity Market (known as “MIBEL”) – namely, the dominant OTC market, the Virtual Power Plant Auctions known in Spain as Energy Primary Emissions, and the auctions catering for part of the last resort supplies known in Spain as CESUR auctions – and with further integration of European Regional Electricity Markets. A regression model tracking the evolution of the traded volumes in the continuous market during its first four years is built as a function of twelve potential liquidity drivers. The only significant drivers are the traded volumes in OMIP compulsory auctions, the traded volumes in the OTC market, and the OTC cleared volumes by OMIClear. The amount of market makers, the enrolment of financial members and generation companies belonging to the integrated group of last resort suppliers, and the OTC cleared volume by OMIClear show strong correlation with the traded volumes in the continuous market. OMIP liquidity is still far from the levels reached by the most mature European markets (located in the Nordic countries (Nasdaq OMX Commodities) and Germany (EEX)). The market operator and its clearing house could develop efficient marketing actions to attract new entrants active in the spot market (e.g. energy intensive industries, suppliers, small producers, international energy companies and renewable generation companies) and financial agents as well as volumes from the opaque OTC market, and to improve the performance of existing illiquid products. An active dialogue with all the stakeholders (market participants, spot market operator, and supervisory authorities) will help to implement such actions. During its firs five and a half years, the continuous market shows steady liquidity growth. The hedging performance is measured through a net position ratio obtained from the final open interest of a month derivatives contract divided by its accumulated cleared volume. The base load futures in the Iberian energy derivatives exchange show the lowest ratios due to good liquidity. The peak futures show bigger ratios as their reduced liquidity is produced by auctions fixed by Portuguese regulation. The base load swaps settled in the clearing house located in Spain – MEFF Power, operating since 21 March 2011, with a new denomination (BME Clearing) since 9 September 2013 – show initially large values due to low registered volumes, as this clearing house is mainly used for short maturity (daily and weekly swaps). The net position ratio can be a powerful oversight tool for energy regulators when accessing to all the derivatives transactions as envisaged by European regulation on Energy Market Integrity and Transparency (“REMIT”), in force since 28 December 2011. The ex-post forward risk premium tends to be positive in all existing mechanisms (OMIP futures, OTC market and CESUR auctions) and diminishes due to the learning curve and the effect – since year 2011 – of the fixed price retributing the indigenous coal fired generation. Comparison with the forward generation costs from natural gas (“clean spark spread”) – obtained as the difference between the power futures price and the forward generation cost with a gas fired combined cycle plant taking into account the CO2 emission rates – is also performed. The power futures are strongly correlated with European gas prices. The clean spark spreads built with prompt contracts tend to be positive. The biggest clean spark spreads are for the month contract, followed by the quarter contract and then by the year contract. Therefore, gas fired generation companies can maximize profits trading with contracts of shorter maturity. Market monitoring reports by the market operator providing post-trade transparency, OTC data access by the energy regulator, and assessment of the regulatory risk can contribute to efficiency gains. The same recommendations are also valid for a potential Iberian gas futures market, once an Iberian gas hub – currently in a design phase, with monthly meetings amongst the stakeholders in a Working Group led by the Spanish energy regulatory authority since January 2013 – is operating. The Iberian gas hub would bring transparency attracting more shippers and improving competition and thus its efficiency, as no gas price is currently disclosed in the existing OTC market.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The present study aimed to investigate the relationships between macronutrient intake and serum lipid profile in adolescents from eight European cities participating in the HELENA (Healthy Lifestyle in Europe by Nutrition in Adolescence) cross-sectional study (2006–7), and to assess the role of body fat-related variables in these associations. Weight, height, waist circumference, skinfold thicknesses, total choles- terol, HDL-cholesterol (HDL-C), LDL-cholesterol, TAG, apoB and apoA1 were measured in 454 adolescents (44 % boys) aged 12·5–17·5 years. Macronutrient intake (g/4180 kJ per d (1000 kcal per d)) was assessed using two non-consecutive 24 h dietary recalls. Associations were evaluated by multi-level analysis and adjusted for sex, age, maternal education, centre, sum of four skinfolds, moderate-to-vigorous.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

¿La gente utiliza la bicicleta porque les gusta? ¿O es el propio hecho de usarla la razón por la que les gusta hacerlo? ¿O es una combinación de las dos? Este tipo de preguntas reflejan un problema que se puede llamar ‘el círculo de la consideración de la bicicleta’: para poder considerar el uso de la bicicleta en el conjunto de posibles opciones a escoger, un individuo tiene que tener creencias positivas sobre ella, sobre todo en el caso de ‘contextos de bajo uso’. Pero parece poco probable que se formen creencias positivas cuando hay bajos niveles de familiaridad al modo, es decir, con un bajo conocimiento de sus características, su funcionamiento y del imaginario asociado; al mismo tiempo, la familiaridad irá alcanzando niveles más altos conforme aumente el tiempo y la intensidad con la que se utilice la bicicleta a lo largo de la vida de los individuos. El problema parece un circulo recursivo huevo-gallina, ya que es difícil que alguien considere el usar la bicicleta en lugares donde su uso es una práctica poco extendida. En estos lugares, y dentro del conglomerado actual de tecnologías, infraestructuras, reglas, prácticas de los usuarios y preferencias culturales que se han desarrollado alrededor del automóvil (el actual "sistema socio-técnico de la movilidad urbana", Urry 2004; Geels 2005, 2012) usar la bicicleta es considerado por la mayoría como algo difícil, inseguro, y anormal. Como consecuencia, los procesos de aumento de familiaridad con la bicicleta permanecen inactivos. La tesis asume la familiaridad como una fuente de información e influencia sobre las creencias positivas sobre la bicicleta. En ‘contextos de bajo uso’, sin familiaridad al uso de la bicicleta, estas creencias sólo pueden surgir de ciertos rasgos personales (afecto, valores, identidades, voluntad, etc.). Tal como han evidenciado investigaciones recientes, en estos contextos la posibilidad de considerar el uso de la bicicleta (y su eventual adopción), se circunscribe principalmente a los ‘entusiastas’, a los que están dispuestos a “ir contra corriente” (Horton & Parkin 2012), limitando el alcance de las políticas de promoción. La investigación llevada a cabo en esta tesis ofrece un nuevo enfoque al problema del ‘círculo de la consideración de la bicicleta’. Para ello, plantea un modelo en el que se introduce a la familiaridad como un constructo que media entre el comportamiento final –qué modo de transporte elige el individuo– y el conjunto de constructos psicosociales que preceden la elección modal (creencias y actitudes). La familiaridad al uso de la bicicleta se concibe como una medida de la intensidad relativa del uso de una bicicleta, real y percibida (basándose en Diana & Mokhtarian 2009) que puede formarse de manera distinta según sus fines (utilitarios o no utilitarios). El constructo familiaridad con el modo bicicleta está relacionado con la cantidad de tiempo, la intensidad y la regularidad con la que un individuo ha hecho uso de la bicicleta a lo largo de su vida. La familiaridad se concibe así como una condición que permite definir adecuadamente el contexto en el que se toman las decisiones modales de los individuos, en línea con investigaciones que postulan patrones de causalidad alternativos entre los procesos cognitivos de elección y los comportamientos modales (Tardif 1977; Dobson et al. 1978; Golob et al. 1979; Golob 2001; Schwanen et al. 2012; Diana et al. 2009; Vij & Walker 2014). De este modo se plantea que el esquema unidireccional actitudesconductas podría no ser completamente valido en el caso de la consideración de la bicicleta, explorando la hipótesis que sean las propias conductas a influenciar la formación de las actitudes. En esta tesis, el constructo de familiaridad se articula teórica y metodológicamente, y se emplea un instrumento de diseño transversal para contrastarlo. Los resultados de una encuesta telefónica a una muestra representativa de 736 personas en la ciudad española de Vitoria-Gasteiz proveen evidencias que sugieren –aunque de forma preliminar– que la familiaridad juega un papel de mediadora en la relación entre la utilización de la bicicleta y la formación de las creencias y actitudes hacia el su uso. La tesis emplea mediciones para cada individuo con respecto tanto a su consideración como a su familiaridad al uso de la bicicleta. Éstas mediciones se definen haciendo uso del análisis factorial exploratorio (AFE). Por un lado, el AFE arroja una estructura del constructo ‘consideración’ formada por cuatro factores, tres de ellos asociados con elementos positivos y uno con elementos negativos: (1) de cómo el uso de la bicicleta se considera verde e inteligente (G&S); (2) sobre su carácter agradable y adecuado (P&S); (3) sobre su eficacia como modo de transporte para ir al trabajo (E); y (4) sobre los principales inconvenientes de su uso, es decir, las dificultades implícitas (sudoración y estar expuestos a las inclemencias del tiempo) y la sensación de inseguridad que genera (sentirse en riesgo de accidentes y estresarse por el tráfico) (D&T). Por otro lado, la familiaridad al uso de la bicicleta se mide en dos distintas variables ordinales (según se base en el uso utilitario o no utilitario). Como resultado, se puede hablar de que cada individuo se encuentra en una de las siguientes cuatro etapas en orden creciente hacia una familiaridad completa al modo: no familiarizados; apenas familiarizados; moderadamente familiarizados; totalmente familiarizados. El análisis de los datos de los cuatro grupos de sujetos de la muestra, –definidos de acuerdo con cada una de las cuatro etapas de familiaridad definidas– ha evidenciado la existencia de diferencias intergrupo estadísticamente significativas, especialmente para la medida relacionada con el uso utilitario. Asimismo, las personas en los niveles inferiores de familiaridad tienen una consideración menor de los aspectos positivos de la bicicleta y por el contrario presentan preocupaciones mayores hacia las características negativas respecto a aquellas personas que están más familiarizados en el uso utilitario. El uso, aunque esporádico, de una bicicleta para fines utilitarios (ir de compras, hacer recados, etc.), a diferencia de no usarla en absoluto, aparece asociado a unas puntuaciones significativamente más altas en los tres factores positivos (G&S, E, P&S), mientras que parece estar asociado a puntuaciones significativamente más bajas en el factor relacionado con las características negativas (D&U). Aparecen resultados similares cuando se compara un uso moderado, con uno esporádico, sobre todo con respecto a la consideración de las características negativas. Los resultados de esta tesis están en línea con la literatura anterior que se ha basado en variables similares (por ejemplo, de Geus et al. 2008; Stinson & Bhat 2003, 2004; Hunt & Abraham 2006; y van Bekkum et al. 2011a, entre otros), pero en este estudio las diferencias se observan en un contexto de bajo uso y se derivan de un análisis de toda la población de personas que se desplazan a su lugar de trabajo o estudio, lo cual eleva la fiabilidad de los resultados. La posibilidad de que unos niveles más altos de uso de la bicicleta para fines utilitarios puedan llevar a niveles más positivos de su consideración abre el camino a implicaciones teóricas y de políticas que se discuten en la tesis. Con estos resultados se argumenta que el enfoque convencional basado en el cambio de actitudes puede no ser el único y prioritario para lograr cambios a la hora de fomentar el uso de la bicicleta. Los resultados apuntan al potencial de otros esquemas de causalidad, basados en patrones de influencia más descentrados y distribuidos, y que adopten una mirada más positiva hacia los hábitos de transporte, conceptualizándolos como “inteligencia encarnada y pre-reflexiva” (Schwanen et al. 2012). Tales esquemas conducen a un enfoque más práctico para la promoción del uso de la bicicleta, con estrategias que podrían basarse en acciones de ‘degustación’ de su uso o de mayor ‘exposición’ a su uso. Is the fact that people like cycling the reason for them to cycle? Or is the fact that they do cycle the reason for them to like cycling? Or is a combination of the two? This kind of questions reflect a problem that can be called ‘the cycle of cycling consideration’: in order to consider cycling in the set of possible options to be chosen, an individual needs to have positive beliefs about it, especially in the case of ‘low-cycling contexts’. However, positive beliefs seem unlikely to be formed with low levels of mode familiarity, say, with a low acquaintance with mode features, functioning and images; at the same time, higher levels of familiarity are likely to be reached if cycling is practised over relative threshold levels of intensities and extensively across individual life courses. The problem looks like a chicken-egg recursive cycle, since the latter condition is hardly met in places where cycling is little practised. In fact, inside the current conglomerate of technologies, infrastructures, regulations, user practices, cultural preferences that have grown around the automobile (the current “socio-technical system of urban mobility”, Urry 2004; Geels 2005, 2012) cycling is commonly considered as difficult, unsafe, and abnormal. Consequently, the processes of familiarity forming remain disabled, and, as a result, beliefs cannot rely on mode familiarity as a source of information and influence. Without cycling familiarity, origins of positive beliefs are supposed to rely only on personal traits (affect, values, identities, willingness, etc.), which, in low-cycling contexts, confine the possibility of cycling consideration (and eventual adoption) mainly to ‘cycling enthusiasts’ who are willing to “go against the grain” (Horton & Parkin 2012), as it results from previous research. New research conducted by author provides theoretical insights for a different approach of the cycling consideration problem in which the presence of the new construct of cycling familiarity is hypothesised in the relationship between mode choice behaviour and the set of psychosocial constructs that are supposed to precede it (beliefs and attitudes). Cycling familiarity is conceived as a measure of the real and the perceived relative intensity of use of a bicycle (building upon Diana & Mokhtarian 2009) which may be differently formed for utilitarian or non-utilitarian purposes. The construct is assumed to be related to the amount of time, the intensity and the regularity an individual spends in using a bicycle for the two distinct categories of purposes, gaining in this way a certain level of acquaintance with the mode. Familiarity with a mode of transport is conceived as an enabling condition to properly define the decision-making context in which individual travel mode choices are taken, in line with rather disperse research efforts postulating inverse relationships between mode behaviours and mode choices (Tardiff 1977; Dobson et al. 1978; Golob et al. 1979; Golob 2001; Schwanen et al. 2012; Diana et al. 2009; Vij & Walker 2014). The new construct is built theoretically and methodologically, and a cross-sectional design instrument is employed. Results from a telephone survey in a representative sample of 736 commuters in the Spanish city of Vitoria-Gasteiz, provide suggestive –although preliminary– evidence on the role of mode familiarity as a mediator in the relationship between cycling use and the formation of beliefs and attitudes toward cycling. Measures of both cycling consideration and cycling familiarity are defined making use of exploratory factor analysis. On the one hand, four distinct cycling consideration measures are created, based on attitude expressions on four underlying factors relating to the cycling commuting behaviour: on how cycling commuting is considered green and smart (G&S); on its pleasant and suited character (P&S); on its efficiency as a mode of transport for commuting (E); and on the main drawbacks of its use, namely the difficulties implied (sweating and being exposed to adverse weather conditions) and the sense of unsafety it generates (feeling at risk of accidents and getting stressed by traffic) (D&U). On the other hand, dimensions of cycling familiarity are measured on two distinct ordinal variables (whether based on the utilitarian or non-utilitarian use) comprising four stages to a complete mode familiarity: not familiar; barely familiar; moderately familiar; fully familiar. For each of the four stages of cycling familiarity defined, statistical significant differences are found, especially for the measure related to the utilitarian use. Consistently, people at the lower levels of cycling familiarity have a lower consideration of the positive aspects of cycling and conversely they exhibit higher concerns towards the negative characteristics than those individuals that are more familiar in utilitarian cycling. Using a bicycle occasionally for practical purposes, as opposed to not using it at all, seems associated to significant higher scores in the three positive factors (G&S, E, P&S) while it appears to be associated to significant lower scores in the factor relating with the negative characteristics of cycling commuting (D&U). A same pattern also occurs with a moderate use, as opposed to an occasional one, especially for the consideration of the negative characteristics. The results are in line with previous literature based on similar variables (e.g. de Geus et al. 2008; Stinson & Bhat 2003, 2004; Hunt & Abraham 2006; and van Bekkum et al. 2011a, among others), but in this study the differences are observed in a low-cycling context and derive from an analysis of the entire population of commuters, which rises the reliability of results.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

One of the core objectives of urban planning practice is to provide spatial equity in terms of opportunities and use of public space and facilities. Accessibility is the element that serves this purpose as a concept linking the reciprocal relationship between transport and land use, thus shaping individual potential mobility to reach the desired destinations. Accessibility concepts are increasingly acknowledged as fundamental to understand the functioning of cities and urban regions. Indeed, by introducing them in planning practice, better solutions can be achieved in terms of spatial equity. The COST Action TU1002 "Accessibility instruments for planning practice" was specifically designed to address the gap between scientific research in measuring and modelling accessibility, and the current use of indicators of accessibility in urban planning practice. This paper shows the full process of introducing an easily understandable measure of accessibility to planning practitioners in Madrid, which is one of the case studies of the above-mentioned COST action. Changes in accessibility after the opening of a new metro line using contour measures were analyzed and then presented to a selection of urban planners and practitioners in Madrid as part of a workshop to evaluate the usefulness of this tool for planning practice. Isochrone maps were confirmed as an effective tool, as their utility can be supplemented by other indicators, and being GIS-based, it can be easily computed (when compared with transport models) and integrated with other datasets.