281 resultados para Enginyeria de costes


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Wireless communication is the transfer of information from one place to another without using wires. From the earliest times, humans have felt the need to develop techniques of remote communication. From this need arose the smoke signals, communication by sun reflection in mirrors and so on. But today the telecommunications electronic devices such as telephone, television, radio or computer. Radio and television are used for one-way communication. Telephone and computer are used for two-way communication. In wireless networks there is almost unlimited mobility, we can access the network almost anywhere or anytime. In wired networks we have the restriction of using the services in fixed area services. The demand of the wireless is increasing very fast; everybody wants broadband services anywhere anytime. WiMAX (Worldwide Interoperability for Microwave Access) is a broadband wireless technology based on IEEE 802.16-2004 and IEEE 802.16e-2005 that appears to solve this demand. WIMAX is a system that allows wireless data transmission in areas of up to 48 km of radius. It is designed as a wireless alternative to ADSL and a way to connect nodes in wireless metropolitan areas network. Unlike wireless systems that are limited in most cases, about 100 meter, providing greater coverage and more bandwidth. WIMAX promises to achieve high data transmission rates over large areas with a great amount of users. This alternative to the networks of broadband access common as DSL o Wi-Fi, can give broadband access to places quickly to rural areas and developing areas around the world. This paper is a study of WIMAX technology and market situation. First, the paper is responsible for explaining the technical aspects of WIMAX. For this gives an overview of WIMAX standards, physical layer, MAC layer and WiMAX, Technology and Market Beijing University of Post and Telecommunications 2 WIMAX network architecture. Second, the paper address the issue of market in which provides an overview of development and deployment of WIMAX to end the future development trend of WIMAX is addressed. RESUMEN: Por comunicaciones inalámbricas se entiende la transferencia de información desde un lugar a otro sin la necesidad de un soporte físico como es por ejemplo el cable. Por lo que remontándose a los principios de la existencia del ser humano, nos damos cuenta de que el ser humano siempre ha sentido la necesidad de desarrollar técnicas para lograr comunicarse a distancia con sus semejantes. De dicha necesidad, surgieron técnicas tan ancestrales como puede ser la comunicación mediante señales de humo o por reflexión de los rayos solares en espejos entre otras. La curiosidad del ser humano y la necesidad de comunicarse a distancia fue la que llevó a Alexander Graham Bell a inventar el teléfono en 1876. La aparición de un dispositivo que permitía comunicarse a distancia permitiendo escuchar la voz de aquella persona con la que se quería hablar, supuso una revolución no solo en el panorama tecnológico, si no también en el panorama social. Pues a parte de permitir comunicaciones a larga distancia, solventó el problema de la comunicación en “tiempo real”. A raíz de este invento, la tecnología en materia de comunicación ha ido avanzando significativamente, más concretamente en lo referido a las comunicaciones inalámbricas. En 1973 se realizó la primera llamada desde un terminal móvil aunque no fue hasta 1983 cuando se empezó a comercializar dicho terminal, lo que supuso un cambio de hábitos y costumbres para la sociedad. Desde la aparición del primer móvil el crecimiento del mercado ha sido exponencial, lo que ha repercutido en una demanda impensable de nuevas aplicaciones integradas en dichos dispositivos móviles que satisfagan las necesidades que día a día autogenera la sociedad. Tras conseguir realizar llamadas a larga distancia de forma inalámbrica, el siguiente paso fue la creación de los SMS (Short Message System) lo que supuso una nueva revolución además de abaratar costes al usuario a la hora de comunicarse. Pero el gran reto para la industria de las comunicaciones móviles surgió con la aparición de internet. Todo el mundo sentía la necesidad de poder conectarse a esa gran base de datos que es internet en cualquier parte y en cualquier momento. Las primeras conexiones a internet desde dispositivos móviles se realizaron a través de la tecnología WAP (Wireless Application Protocol) hasta la aparición de la tecnología GPRS que permitía la conexión mediante protocolo TCP/IP. A partir de estas conexiones han surgido otras tecnologías, como EDGE, HSDPA, etc., que permitían y permiten la conexión a internet desde dispositivos móviles. Hoy en día la demanda de servicios de red inalámbrica crece de forma rápida y exponencial, todo el mundo quiere servicios de banda ancha en cualquier lugar y en cualquier momento. En este documento se analiza la tecnología WiMAX ( Worldwide Interoperability for Microwave Access) que es una tecnología de banda ancha basada en el estándar IEEE 802.16 creada para brindar servicios a la demanda emergente en la banda ancha desde un punto de vista tecnológico, donde se da una visión de la parte técnica de la tecnología; y desde el punto de vista del mercado, donde se analiza el despliegue y desarrollo de la tecnología desde el punto de vista de negocio. WiMAX es una tecnología que permite la transmisión inalámbrica de datos en áreas de hasta 48Km de radio y que está diseñada como alternativa inalámbrica para ADSL y para conectar nodos de red inalámbrica en áreas metropolitanas. A diferencia de los sistemas inalámbricos existentes que están limitados en su mayoría a unos cientos de metros, WiMAX ofrece una mayor cobertura y un mayor ancho de banda que permita dar soporte a nuevas aplicaciones, además de alcanzar altas tasas de transmisión de datos en grandes áreas con una gran cantidad de usuarios. Se trata de una alternativa a las redes de acceso de banda ancha como DSL o Wi-Fi, que puede dar acceso de banda ancha a lugares tales como zonas rurales o zonas en vías de desarrollo por todo el mundo con rapidez. Existen dos tecnologías de WiMAX, WiMAX fijo (basado en el estándar IEEE 802.16d-2004) y WiMAX móvil (basado en el estándar IEEE 802.16e-2005). La tecnología fija está diseñada para comunicaciones punto a multipunto, mientras que la fija lo está para comunicaciones multipunto a multipunto. WiMAX móvil se basa en la tecnología OFDM que ofrece ventajas en términos de latencia, eficiencia en el uso del espectro y soporte avanzado para antenas. La modulación OFDM es muy robusta frente al multitrayecto, que es muy habitual en los canales de radiodifusión, frente al desvanecimiento debido a las condiciones meteorológicas y frente a las interferencias de RF. Una vez creada la tecnología WiMAX, poseedora de las características idóneas para solventar la demanda del mercado, ha de darse el siguiente paso, hay que convencer a la industria de las telecomunicaciones de que dicha tecnología realmente es la solución para que apoyen su implantación en el mercado de la banda ancha para las redes inalámbricas. Es aquí donde entra en juego el estudio del mercado que se realiza en este documento. WiMAX se enfrenta a un mercado exigente en el que a parte de tener que dar soporte a la demanda técnica, ha de ofrecer una rentabilidad económica a la industria de las comunicaciones móviles y más concretamente a las operadoras móviles que son quienes dentro del sector de las telecomunicaciones finalmente han de confiar en la tecnología para dar soporte a sus usuarios ya que estos al fin y al cabo lo único que quieren es que su dispositivo móvil satisfaga sus necesidades independientemente de la tecnología que utilicen para tener acceso a la red inalámbrica de banda ancha. Quizás el mayor problema al que se ha enfrentado WiMAX haya sido la situación económica en la que se encuentra el mundo. WiMAX a comenzado su andadura en uno de los peores momentos, pero aun así se presenta como una tecnología capaz de ayudar al mundo a salir hacia delante en estos tiempos tan duros. Finalmente se analiza uno de los debates existentes hoy en día en el sector de las comunicaciones móviles, WiMAX vs. LTE. Como se puede observar en el documento realmente una tecnología no saldrá victoriosa frente a la otra, si no que ambas tecnologías podrán coexistir y trabajar de forma conjunta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la actualidad, el interés por las plantas de potencia de ciclo combinado de gas y vapor ha experimentado un notable aumento debido a su alto rendimiento, bajo coste de generación y rápida construcción. El objetivo fundamental de la tesis es profundizar en el conocimiento de esta tecnología, insuficientemente conocida hasta el momento debido al gran número de grados de libertad que existen en el diseño de este tipo de instalaciones. El estudio se realizó en varias fases. La primera consistió en analizar y estudiar las distintas tecnologías que se pueden emplear en este tipo de centrales, algunas muy recientes o en fase de investigación, como las turbinas de gas de geometría variable, las turbinas de gas refrigeradas con agua o vapor del ciclo de vapor o las calderas de paso único que trabajan con agua en condiciones supercríticas. Posteriormente se elaboraron los modelos matemáticos que permiten la simulación termodinámica de cada uno de los componentes que integran las plantas, tanto en el punto de diseño como a cargas parciales. Al mismo tiempo, se desarrolló una metodología novedosa que permite resolver el sistema de ecuaciones que resulta de la simulación de cualquier configuración posible de ciclo combinado. De esa forma se puede conocer el comportamiento de cualquier planta en cualquier punto de funcionamiento. Por último se desarrolló un modelo de atribución de costes para este tipo de centrales. Con dicho modelo, los estudios se pueden realizar no sólo desde un punto de vista termodinámico sino también termoeconómico, con lo que se pueden encontrar soluciones de compromiso entre rendimiento y coste, asignar costes de producción, determinar curvas de oferta, beneficios económicos de la planta y delimitar el rango de potencias donde la planta es rentable. El programa informático, desarrollado en paralelo con los modelos de simulación, se ha empleado para obtener resultados de forma intensiva. El estudio de los resultados permite profundizar ampliamente en el conocimiento de la tecnología y, así, desarrollar una metodología de diseño de este tipo de plantas bajo un criterio termoeconómico. ABSTRACT The growing energy demand and the need of shrinking costs have led to the design of high efficiency and quick installation power plants. The success of combined cycle gas turbine power plants lies on their high efficiency, low cost and short construction lead time. The main objective of the work is to study in detail this technology, which is not thoroughly known owing to the great number of degrees of freedom that exist in the design of this kind of power plants. The study is divided into three parts. Firstly, the different technologies and components that could be used in any configuration of a combined cycle gas turbine power plant are studied. Some of them could be of recent technology, such as the variable inlet guide vane compressors, the H-technology for gas turbine cooling or the once-through heat recovery steam generators, used with water at supercritical conditions. Secondly, a mathematical model has been developed to simulate at full and part load the components of the power plant. At the same time, a new methodology is proposed in order to solve the equation system resulting for any possible power plant configuration. Therefore, any combined cycle gas turbine could be simulated at any part load condition. Finally a themoeconomic model is proposed. This model allows studying the power plant not only from a thermodynamic point of view but also from a thermoeconomic one. Likewise, it allows determining the generating costs or the cash flow, thus achieving a trade off between efficiency and cost. Likewise, the model calculates the part load range where the power plant is profitable. Once the thermodynamic and thermoeconomic models are developed, they are intensively used in order to gain knowledge in the combined cycle gas turbine technology and, in this way, to propose a methodology aimed at the design of this kind of power plants from a thermoeconomic point of view.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La crisis afecta a todos los sectores, es un terremoto en cadena que se inicio en el sector inmobiliario y se ha ido introduciendo en el resto. Todo esto ha dado lugar a una caída brusca de la demanda de los servicios relacionados con la construcción, con un posicionamiento en “espera” de los Promotores e Inversores, que aún tienen liquidez para invertir, buscando oportunidades que lógicamente se tienen que producir en un entorno escasamente fiable como el actual. Aquellos Inversores que vean oportunidades, se aseguraran de que los productos que van a realizar, tengan una demanda suficiente, sus costes estén en consonancia con el mercado, pero sin que aquello perjudique al resultado final, es decir manteniendo la calidad propuesta al inicio del proceso con los costes previstos, dando lugar a un control exhaustivo del producto a realizar, lo cual obligará a una gran profesionalidad por parte de los agentes implicados. Para todo esto habrá que contar con Empresas especializadas, que aporten garantías en este proceso y aseguren tanto al promotor como al Inversor en todo momento donde y en que se invierten sus recursos. La Dirección Integrada de Proyecto (“Project Management “) aplicada al proceso constructivo es una Técnica Metodológica que ayuda a organizar, controlar y gestionar los recursos de los promotores dentro del proceso edificatorio. Cuando los recursos están limitados (que normalmente es la mayoría de las situaciones) gestionarlos de una manera eficiente se convierte en algo muy importante. Bien, pues nos encontramos con que en esta situación actual, los recursos no solo están limitados, si no que son limitados, por lo que un control y un exhaustivo seguimiento de los mismos se convierte no solo en importante si no en fundamental.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En los últimos años se ha incrementado la competencia a nivel mundial en los mercados, creando un entorno más turbulento, cambiable y más interrelacionado que tiene consecuencias directas en las operaciones de las compañías y la organización de la producción de las mismas y ha sido clave en el incremento del comercio internacional en productos intermedios o acabados que son diseñados, producidos y ensamblados en diferentes localizaciones a lo largo de diferentes países debido principalmente a los siguientes motivos: • La globalización económica ha posibilitado a las compañías tener más facilidad de acceso a potenciales mercados, a la adquisición de capacidades, conocimientos y tecnología en países extranjeros y a la realización de alianzas estratégicas internacionales con terceros. • El desarrollo de las tecnologías de la información. • La reducción de los costes de transporte. • La liberalización de los mercados de capitales. • La harmonización de factores institucionales, la integración económica, social y política regional tales como la Unión Europea, Mercosur, La Comunidad Andina, Comunidad Sudamericana de Naciones, el incremento de tratados de libre comercio tales como el tratado de libre comercio de America del Norte, Área de libre comercio, Asociación de naciones del sudeste Asiático-China, Espacio económico Europeo etc. que implican la reducción, la eliminación de las barreras y la desregulación del comercio internacional. • El desarrollo económico de los países emergentes (Brasil, China, India y Rusia). • El uso de economías de escala que desencadena la especialización de los países en ciertos productos y servicios

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La pataca (Helianthus tuberosus L.) es una especie de cultivo con un alto potencial en la producción de hidratos de carbono de reserva en forma de polifructanos, especialmente inulina, que se acumulan temporalmente en los tallos en forma de polisacáridos para translocarse posteriormente a los tubérculos, donde son almacenados. Aunque tradicionalmente el producto de interés del cultivo son los tubérculos, que acumulan gran cantidad de hidratos de carbono fermentables (HCF) cuando se recogen al final del ciclo de desarrollo, en este trabajo se pretende evaluar el potencial de la pataca como productor de HCF a partir de los tallos cosechados en el momento de máximo contenido en HCF, mediante un sistema de cultivo plurianual. Se han realizado los siguientes estudios: i) Determinación del momento óptimo de cosecha en ensayos con 12 clones ii) Potencial del cultivo plurianual de la pataca en términos de producción anual de biomasa aérea y de HCF en cosechas sucesivas, iii) Ensayos de conservación de la biomasa aérea, iv) Estimación de los costes de las dos modalidades de cultivo de pataca para producción de HCF y v) Estimación de la sostenibilidad energética de la producción de bioetanol mediante la utilización de los subproductos. Para la determinación del momento óptimo de la cosecha de la biomasa aérea se ensayaron 12 clones de diferente precocidad en Madrid; 4 tempranos (Huertos de Moya, C-17, Columbia y D-19) y 8 tardíos (Boniches, China, K-8, Salmantina, Nahodka, C-13, INIA y Violeta de Rennes). El máximo contenido en HCF tuvo lugar en el estado fenológico de botón floral-flor que además coincidió con la máxima producción de biomasa aérea. De acuerdo con los resultados obtenidos, la cosecha de los clones tempranos se debería realizar en el mes de julio y en los clones tardíos en septiembre, siendo éstos últimos más productivos. La producción media más representativa entre los 12 clones, obtenida en el estado fenológico de botón floral fue de 23,40 t ms/ha (clon INIA), con un contenido medio en HCF de 30,30 % lo que supondría una producción potencial media de 7,06 t HCF/ha. La producción máxima en HCF se obtuvo en el clon Boniches con 7,61 t/ha y 22,81 t ms/ha de biomasa aérea. En el sistema de cultivo plurianual la cantidad de tallos por unidad de superficie aumenta cada año debido a la cantidad de tubérculos que van quedando en el terreno, sobre todo a partir del 3er año, lo que produce la disminución del peso unitario de los tallos, con el consiguiente riesgo de encamado. El aclareo de los tallos nacidos a principios de primavera mediante herbicidas tipo Glifosato o mediante una labor de rotocultor rebaja la densidad final de tallos y mejora los rendimientos del cultivo. En las experiencias de conservación de la biomasa aérea se obtuvo una buena conservación por un período de 6 meses de los HCF contenidos en los tallos secos empacados y almacenados bajo cubierta. Considerando que el rendimiento práctico de la fermentación alcohólica es de 0,5 l de etanol por cada kg de azúcar, la producción potencial de etanol para una cosecha de tallos de 7,06 t de HCF/ha sería de 3.530 l/ha. El bagazo producido en la extracción de los HCF de la biomasa aérea supondría 11,91 t/ha lo que utilizado para fines térmicos supone más de 3 veces la energía primaria requerida en el proceso de producción de etanol, considerando un poder calorífico inferior de 3.832,6 kcal/kg. Para una producción de HCF a partir de la biomasa aérea de 7,06 t/ha y en tubérculos al final del ciclo de 12,11 t/ha, los costes de producción estimados para cada uno de ellos fueron de 184,69 €/t para los HCF procedentes de la biomasa aérea y 311,30 €/t para los de tubérculos. Como resultado de este trabajo se puede concluir que la producción de HCF a partir de la biomasa aérea de pataca en cultivo plurianual, es viable desde un punto de vista técnico, con reducción de los costes de producción respecto al sistema tradicional de cosecha de tubérculos. Entre las ventajas técnicas de esta modalidad de cultivo, cabe destacar: la reducción de operaciones de cultivo, la facilidad y menor coste de la cosecha, y la posibilidad de conservación de los HCF en la biomasa cosechada sin mermas durante varios meses. Estas ventajas, compensan con creces el menor rendimiento por unidad de superficie que se obtiene con este sistema de cultivo frente al de cosecha de los tubérculos. Jerusalem artichoke (Helianthus tuberosus L.) (JA) is a crop with a high potential for the production of carbohydrates in the form of polyfructans, especially inulin, which are temporarily accumulated in the stems in the form of polysaccharides. Subsequently they are translocated to the tubers, where they are finally accumulated. In this work the potential of Jerusalem artichoke for fermentable carbohydrates from stems that are harvested at their peak of carbohydrates accumulation is assessed as compared to the traditional cultivation system that aims at the production of tubers harvested at the end of the growth cycle. Tubers are storage organs of polyfructans, namely fermentable carbohydrates. Studies addressed in this work were: i) Determination of the optimum period of time for stem harvesting as a function of clone precocity in a 12-clone field experiment; ii) Study of the potential of JA poly-annual crop regarding the annual yield of aerial biomass and fermentable carbohydrates (HCF) over the years; iii) Tests of storage of the aerial biomass, iv) Comparative analysis of the two JA cultivation systems for HCF production: the poly-annual system for aerial biomass harvesting versus the annual cultivation system for tubers and v) Estimation of the energy sustainability of the bioethanol production by using by-products of the production chain. In order to determine the best period of time for aerial biomass harvesting twelve JA clones of different precocity were tested in Madrid: four early clones (Huertos de Moya, C-17, Columbia and D-19) and eight late clones (Boniches, China, K-8 , Salmantina, Nahodka, C-13, INIA and Violeta de Rennes). Best time was between the phenological stages of floral buds (closed capitula) and blossom (opened capitula), period in which the peak of biomass production coincides with the peak of HCF accumulation in the stems. According to the results, the early clones should be harvested in July and the late ones in September, being the late clones more productive. The clone named INIA was the one that exhibited more steady yields in biomass over the 12 clones experimented. The average potential biomass production of this clone was 23.40 t dm/ha when harvested at the floral buds phenological stage; mean HCF content is 30.30%, representing 7.06 t HCF/ha yield. However, the highest HCF production was obtained for the clone Boniches, 7.61 t HCF/ha from a production of 22.81 t aerial biomass/ha. In the poly-annual cultivation system the number of stems per unit area increases over the years due to the increase in the number of tubers that are left under ground; this effect is particularly important after the 3rd year of the poly-annual crop and results in a decrease of the stems unit weight and a risk of lodging. Thinning of JA shoots in early spring, by means of an herbicide treatment based on glyphosate or by means of one pass with a rotary tiller, results in a decrease of the crop stem density and in higher crop yields. Tests of biomass storing showed that the method of keeping dried stems packed and stored under cover results in a good preservation of HCF for a period of six months at least. Assuming that the fermentation yield is 0.5 L ethanol per kg sugars and a HCF stem production of 7.06 t HCF/ha, the potential for bioethanol is estimated at 3530 L/ha. The use of bagasse -by-product of the process of HCF extraction from the JA stems- for thermal purposes would represent over 3 times the primary energy required for the industrial ethanol production process, assuming 11.91 t/ha bagasse and 3832.6 kcal/kg heating value. HCF production costs of 7.06 t HCF/ha yield from aerial biomass and HCF production costs of 12.11 t HCF/ha from tubers were estimated at 184.69 €/t HCF and 311.30 €/t HCF, respectively. It can be concluded that the production of HCF from JA stems, following a poly-annual cultivation system, can be feasible from a technical standpoint and lead to lower production costs as compared to the traditional annual cultivation system for the production of HCF from tubers. Among the technical advantages of the poly-annual cultivation system it is worth mentioning the reduction in crop operations, the ease and efficiency of harvesting operations and the possibility of HCF preservation without incurring in HCF losses during the storage period, which can last several months. These advantages might compensate the lower yield of HCF per unit area that is obtained in the poly-annual crop system, which aims at stems harvesting, versus the annual one, which involves tubers harvesting.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este proyecto aborda el estudio geotécnico de un edificio destinado a ser un centro cívico situado en una parcela del término municipal de Coslada. El edificio se compone de tres plantas y un sótano, con una superficie de 3173m2. Con el fin de clasificar y caracterizar los materiales del terreno que soporta el edificio, se analiza el marco geológico regional y local de la zona. En el proyecto se presentan los resultados obtenidos en la campaña de reconocimiento de campo y en los ensayos realizados en laboratorio, necesarios para describir las propiedades geotécnicas del terreno. Se estudia la capacidad de carga del terreno para asegurar una correcta cimentación y se dan unas recomendaciones referentes a la excavación del sótano y su sostenimiento. Para ello se siguen la normativa propuesta en el Código Técnico de la Edificación. Por último, se estiman los costes producidos por la campaña de reconocimiento de campo, los ensayos de laboratorio y la redacción del presente proyecto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El principal objetivo de este proyecto consiste en diseñar una nueva instalación de trituración de caliza en una fábrica de cemento, de manera que esté en disposición de obtener las correspondientes autorizaciones administrativas para su puesta en marcha. Dicha fábrica cuenta con un horno para la producción de clínker gris con una capacidad de 3.400 tjd, además de las correspondientes instalaciones de molienda, almacenamiento, expedición y servicios auxiliares. La nueva instalación tiene como objetivo la trituración de caliza, con un caudal de 800 t/h y una granulometría final de O- 15 mm., para la alimentación al molino de crudo. Con la nueva instalación se buscan varios fines: Disminuir la granulometría del material triturado a un tamaño 0-15 mm., para que aumente la producción del molino de crudo. Aumentar la capacidad de trituración de 500 t/h a 800 tjh. para mejorar los costes operativos. Disminuir las emisiones de polvo por debajo de 50 mg/Nm3. Reducción del consumo energético en kW /t. en la producción de caliza, al utilizar maquinaria de nueva generación.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El tema sobre el que trata este proyecto es un estudio para la instalación de un suelo radiante y unas placas solares para producir A.C.S. en una vivienda unifamiliar situada en Ciudad Rodrigo, en la provincia de Salamanca. Debido a la nueva normativa del CTE, se debe instalar una forma de energía alternativa en las edificaciones de construcción reciente, eligiendo para este caso específico los paneles solares térmicos. Se va a desarrollar el estudio de las instalaciones del suelo radiante y de los paneles solares., calculando la carga térmica necesaria de la vivienda, la demanda de A.C.S. y la energía necesaria para obtenerla. Además se calculará la energía obtenida por las placas y el ahorro aportado por estas. Se valorarán, los diferentes costes de ambas instalaciones para elaborar un presupuesto aproximado, teniendo en cuenta el coste de los materiales empleados. También, se obtendrá el ahorro obtenido con los paneles solares y el tiempo necesario para amortizar la inversión.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las FPAA´s son dispositivos analógicos programables. Estos dispositivos se basan en el uso de condensadores conmutados junto con amplificadores operacionales. Este tipo de tecnología presenta una serie de ventajas, ya que combinan las ventajas de dispositivos digitales, como la reprogramación en función de las variables del entorno que los rodean, con la diferencia de ser dispositivos analógicos, permitiendo la realización de una amplia gama de diseños analógicos en un solo chip. En este proyecto se ha realizado un estudio sobre el funcionamiento de los condensadores conmutados y su uso en el dispositivo AN221E04 del fabricante Anadigm. Una vez descrita la arquitectura del AN221E04 y explicadas las bases del funcionamiento de los condensadores conmutados, utilizando como ejemplo los modelos facilitados por Anadigm, se desarrolla un modelo de amplificador de instrumentación teórico y se describe la metodología para su implementación en un AN221E04 con el software Anadigm Designer 2. Una vez implementado este modelo de amplificador de instrumentación se han efectuado una serie de pruebas con el objetivo de estudiar la capacidad de estos dispositivos. Dichas pruebas ponen de manifiesto que las FPAA´s tienen una serie de ventajas a tener en cuenta a la hora de realizar diseños analógicos. La precisión obtenida por el modelo de amplificador de instrumentación realizado es más que aceptable, llegando a obtener errores de ganancia inferiores al 1% con ganancias de 200V/V sin tener la necesidad de realizar grandes ajustes. En las conclusiones de este estudio se exponen tanto ventajas como inconvenientes de la utilización de FPAA´s en diseños analógicos. La principal ventaja de este uso es el ahorro de costes, ya que una vez desarrollada una plataforma de diseño, la capacidad de reconfiguración permite utilizar dicha plataforma para un amplio abanico de aplicaciones, reduciendo el número de componentes y simplificando las etapas de diseño. Como desventaja, las FPAA´s tienen una serie de limitaciones qué hay que tener en cuenta en ciertos casos pudiendo hacer irrealizable un diseño concreto; como puede ser el valor máximo o mínimo de ganancia. The FPAA's are programmable analog devices. These devices rely on the use of switched capacitors together with operational amplifiers. This type of technology has a number of advantages, because they combine the advantages of digital devices such as the reprogramming function of the variables of the surrounding environment, with the difference being analog devices, allowing the realization of a wide range of designs analog on a single chip. This project has conducted a study on the operation of the switched capacitor and its use in the device AN221E04 from Anadigm. Having described the architecture of AN221E04 and explained the basis for the operation of the switched capacitor, using the example models provided by Anadigm is developing an instrumentation amplifier theory model and describes the methodology for implementation in a AN221E04 with the Anadigm Designer 2 software. Once implemented this instrumentation amplifier model, have made a series of tests in order to study the ability of these devices. These tests show that the FPAA's have a number of advantages to take into account when making analog designs. The accuracy obtained by the instrumentation amplifier model is made more than acceptable, earning gain errors of less than 1% with gains of 200V / V without the need for major adjustments. The conclusions of this study are presented both advantages and disadvantages of using FPAA's in analog designs. The main advantage of this application is the cost savings, because once developed a platform for design, reconfiguration capability allows you to use this platform for a wide range of applications, reducing component count and simplifying design stages. As a disadvantage, the FPAA's have a number of limitations which must be taken into account in certain cases may make impossible a specific design, such as the maximum or minimum gain, or the magnitude of the possible settings.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este proyecto está orientado al diseño y el acondicionamiento de una sala de cine siguiendo las normas establecidas por el SMPTE. El primer paso a realizar será el diseño de la sala en el cual habrá que tener en cuenta la distribución de los asientos dentro de la misma, el dimensionado de la pantalla que servirá para establecer la forma y dimensiones del recinto, así como la correcta ubicación del proyector. Posteriormente se realizará el acondicionamiento acústico del cine, con la elección de los diferentes materiales que permitan la obtención de un tiempo de reverberación óptimo. A continuación se procederá a la selección de los equipos electroacústicos más adecuados y a su colocación a lo largo de la sala para posteriormente realizar un estudio de todos los parámetros de esta para garantizar la perfecta escucha dentro de la misma. Se elegirán, al igual que se ha hecho con los elementos electroacústicos, los equipos de video específicos, teniendo en cuenta el sistema de proyección 3D utilizado y se procederá a su instalación dentro de la sala. Se indicará de forma independiente cual será el esquema de conexionado correspondiente a cada una de las partes, tanto de audio como de video. Todos los equipos y parámetros ajustables de la sala, tanto de audio como de video, se realizaran siguiendo las recomendaciones establecidas por el SMPTE para una correcta visión y escucha, así como también el diseño de la sala. Para llevar a cabo todo lo anteriormente descrito se utilizara el programa de simulación EASE 4.3 con él que se ajustaran los parámetros más significativos para verificar que la sala cumple con las condiciones de escucha que determina la norma. Todo esto irá acompañado de un presupuesto detallado de cada uno de los equipos y materiales utilizados, así como de los costes derivados de la mano de obra. Se adjuntarán también los planos de la sala donde se indicarán todas las medidas establecidas a lo largo del proyecto. Para la realización de estos se utilizara el programa de diseño Google SkechUp. Por último se facilitarán las hojas de características de cada uno de los equipos instalados en la sala para conocer sus especificaciones y modo de funcionamiento. Abstract This project is orientated at designing and conditioning a cinema according to standards set by the SMPTE. First of all, the cinema hall needs to be designed, taking into consideration seat distribution and screen dimension, in order to establish the shape and dimensions of the room and the correct location for the projector. Later the acoustic conditioning of the cinema is covered, with the choice of appropriate materials in order to permit an optimum reverberation time. The next step is the selection of the most appropriate electro-acoustic equipment and its positioning throughout the room. A study is then carried out of all the parameters to ensure perfect hearing in the cinema. Then the specific video equipment is chosen, bearing in mind the 3D projection system used and is installed in the theatre. A wiring diagram is indicated for each element used, for both audio and video. All equipment and adjustable parameters of the room, both audio and video, are made according to the recommendations established by the SMPTE for correct viewing and listening, as is the design of the cinema. To carry out the steps described above the EASE 4.3 simulation program is used. This program adjusts all significant parameters to verify that the room complies with the listening conditions determined by the standard. A detailed budget is included for all equipment and materials used, as well as the labour costs. Plans of the room, showing all measurements taken during the project are indicated. This is done using the Google SkechUp program. Finally data sheets are provided for each piece of equipment installed in the room detailing specifications and operating mode.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo del presente proyecto es la generación de energía eléctrica a partir de energía solar. Por ello se pretende realizar el pre-diseño de una instalación solar fotovoltaica de 200 kW de potencia conectada a la red nacional en la localidad de Trigueros (Huelva). El proyecto define las condiciones técnicas de la instalación a partir de la radiación solar registrada en la localización elegida. Además de incluir el estudio económico que indica la viabilidad del mismo. Como puntos a destacar en el proyecto, se puede tomar los datos obtenidos de generación eléctrica, los costes de ejecución de obra y por último la rentabilidad a medio plazo. Es necesaria una inversión inicial. Es importante la realización de este tipo de proyectos si queremos conseguir un sistema energético sostenible. Así como políticas que promuevan la eficiencia y el ahorro energético. No obstante, se debe seguir investigando para mejorar el aprovechamiento de la energía solar y del resto de energías renovables.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El transporte marítimo, responsable de la canalización del 90% de los flujos comerciales internacionales, se organiza en torno a los puertos. Éstos, que resultan plataformas indispensables para el desarrollo de la economía, compiten entre sí para maximizar el tráfico atraído hacia sus instalaciones. El papel estratégico de los puertos tiene un expreso reconocimiento en el contexto de la Unión Europea, tanto desde la óptica del comercio como bajo el prisma del transporte. No en vano, por los puertos europeos transita más del 90 % del comercio de la Unión con terceros países y aproximadamente, el 40 % del tráfico intracomunitario. Los puertos españoles configuran un eje neurálgico en el desarrollo del transporte marítimo a nivel internacional y una plataforma logística para todo el sur de Europa. Sus más de siete mil novecientos kilómetros de costa y un emplazamiento geográfico estratégico, confirman al territorio nacional como un punto de especial interés por sus establecimientos portuarios. La actividad del Sistema Portuario Español con una cifra de negocio de más de 1000 millones de euros, representa anualmente un 20 % del Producto Interior Bruto específico del sector transporte, aporta un 1.1% al Producto Interior Bruto Nacional y genera 145.000 empleos directos e indirectos. Debido a la actual coyuntura económica ahora, más que nunca, la competencia interportuaria se ha intensificado y sólo aquellos puertos que sean capaces de adaptarse a las nuevas necesidades y que puedan prestar unos servicios portuarios de calidad, fiables y a precios competitivos estarán en condiciones de mantener sus tráficos. La entrada en vigor de la Ley 33/2010, de 5 de agosto, de modificación de la Ley 48/2003, de 26 de noviembre, de régimen económico y de prestación de servicios en los puertos de interés general, marca como uno de sus objetivos principales el fomento de la eficiencia y la competitividad de nuestros puertos a través de la promoción de la competencia. La Ley avanza en la liberalización de los servicios portuarios, en particular, destaca el servicio portuario de manipulación de mercancías en donde se introducen algunas modificaciones con las que pretende dotar de transparencia, así como normalizar el acceso a la profesión y a la formación. Surge por tanto, la conveniencia de investigar las condiciones de prestación de los servicios portuarios, su impacto en la competitividad del sistema portuario y sobre cada uno de los agentes que forman parte de la cadena global del transporte marítimo. En primer lugar, la Autoridad Portuaria, como organismo público que tiene entre sus competencias la gestión y control de los servicios portuarios para lograr que se desarrollen en condiciones óptimas de eficacia, economía, productividad y seguridad. Al analizar el sector mediante el modelo de “Cinco Fuerzas de Porter” descubrimos que el creciente poder de los proveedores de servicios portuarios, especialmente el de manipulación de mercancías y el proceso de descentralización en la gestión de los puertos de interés general está restando atractivo y competitividad al sector. Además según la encuesta realizada a los representantes de las Autoridades Portuarias, existe prácticamente unanimidad acerca de la importancia de los servicios portuarios en la competitividad del puerto y la falta de transparencia existente, particularmente en el servicio de manipulación de mercancías. Por otro lado, pone de manifiesto los aspectos considerados más importantes, que son el coste y la fiabilidad en la prestación del servicio. A continuación se investiga la repercusión del coste de los servicios portuarios en el precio final del producto, es decir, cómo inciden éstos en la competitividad del tejido empresarial al que sirven los puertos y su impacto en el consumidor final. Concluyendo que el coste de los servicios portuarios tiene de media un peso del 12 % frente al coste global del transporte marítimo y aproximadamente un 0.5% respecto al precio del producto. Posteriormente se realiza una exhaustiva investigación de las principales empresas prestadoras de servicios portuarios en España, se sintetizan los principales datos y se realiza un análisis de la estructura y evolución del sector. Se observa una tendencia a la integración en grandes grupos empresariales vinculados al sector marítimo y a la concentración sectorial. Siendo conscientes de la importancia de la optimización de los servicios portuarios para las empresas operadoras de terminales y navieras, se ha procedido a contrastar la hipótesis inicial de que el servicio de manipulación de mercancías es el responsable de la mayor parte (65 %) del coste del paso de la mercancía por el puerto. Por tanto, a la vista de los resultados obtenidos, por la importancia manifestada tanto por parte de las Autoridades Portuarias como por las empresas operadoras de terminales, a partir de éste punto se particulariza la investigación para el servicio portuario de manipulación de mercancías. Se selecciona una muestra significativa de empresas estibadoras, se procede a homogeneizar sus cuentas de pérdidas y ganancias y sus balances. Posteriormente se calcula y analiza un elevado número de ratios económico-financieros que tendremos en cuenta a la hora de evaluar una solicitud para el otorgamiento de una licencia para la prestación del servicio de manipulación de mercancías. Asimismo se ha procedido a realizar una cuenta de pérdidas y ganancias y un balance modelo, tanto para la empresa media, construida a partir de los ratios medios, como para una empresa ideal desde el punto de vista empresarial, construida a partir de los mejores ratios obtenidos. Ante la necesidad detectada en el estado del arte de la falta de mecanismos para dotar de transparencia al sector, mediante esta estructura la Autoridad Portuaria dispondrá de una herramienta que le permita objetivizar el proceso de toma de decisiones a la hora de establecer sus condiciones en los Pliegos de Prescripciones Particulares y otorgar las licencias, así como evaluar la rentabilidad de la empresa a lo largo del periodo de prestación del servicio. Por un lado, una empresa prestadora de servicios portuarios, debe obtener una rentabilidad acorde con las expectativas de sus accionistas y como mínimo superior al coste de capital de la misma. Al mismo tiempo, la Administración que tutela la prestación del servicio, la Autoridad Portuaria, debe verificar la viabilidad de la propuesta, pues ello será garantía de éxito de la empresa y por tanto de continuidad de prestación del servicio en el puerto pero también debe asegurar una competitividad en costes. Al proceder a la extracción de conclusiones a partir de los ratios económico-financieros obtenidos para las empresas estibadoras (Ratio medio Beneficios/Ventas=4.68%) se pone de manifiesto que claramente el problema de ineficiencia y sobrecostes no está siendo provocado por unos elevados márgenes de rentabilidad de éstas. Por tanto, se analizan otros agentes integrantes en el proceso y se detecta la particular situación de la mano de obra del estibador portuario. Se investigan las ventajosas condiciones laborales que disfrutan y se proponen una serie de medidas que producirían una mejora en la competitividad del servicio que conllevarían una reducción de un 30 % sobre los costes totales del paso de la mercancía por el puerto. En un sector global como es el marítimo, con un escenario cada vez más dinámico y competitivo, con la presente tesis doctoral se trata de asegurar que los factores clave de éxito identificados se cumplan, siendo uno de éstos el liderazgo en costes, que necesariamente se deberá equilibrar con la viabilidad económica de la empresa en la prestación del servicio de la manera más eficiente y productiva, haciendo el puerto más atractivo tanto para los clientes actuales como potenciales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La contaminación acústica se ha convertido en uno de los principales problemas en materia medioambiental de nuestra sociedad. La creciente preocupación ha propiciado la aparición de legislación, en los distintos ámbitos de la administración, cuyo objetivo consiste en gestionar y reducir la contaminación acústica y sus efectos sobre las personas y el medio ambiente. En este sentido, en relación a las infraestructuras del transporte, y de modo muy especial en los aeropuertos, el monitorado del ruido se convierte en una herramienta de suma importancia para la gestión del ruido, la planificación del territorio y la adopción de medidas correctoras (planes de acción). Los terminales de monitorado de ruido ambiental, que se utilizan fundamentalmente en los aeropuertos, realizan una medición del nivel de ruido ambiental, y evalúan la contaminación que generan las aeronaves al ambiente sonoro general. Para ello, deben ser capaces de medir la evolución temporal del ruido y discriminar aquellos eventos sonoros que se correspondan con el paso de un avión frente al ruido de fondo. Los requisitos aplicables a las unidades de medida, así como los procedimientos de medida implicados han sido descritos recientemente en normas internacionales, como la ISO 20906 o la ARP 4721. Es precisamente en el aspecto relacionado con la discriminación del origen del ruido, donde los sistemas existentes presentan las principales carencias, ya que, un sistema básico de monitorado de ruido realiza la detección de eventos a partir de las medidas de nivel sonoro, evaluando los incrementos de nivel mediante la utilización de umbrales. Dichos umbrales relacionan nivel sonoro y tiempo, de forma que se efectúa el marcado de eventos cuando el nivel de presión sonora, Lp(t), supera un valor determinado durante, al menos, un determinado intervalo temporal. Uno de los principales objetivos de esta tesis se centra en el análisis de los sistemas que existen para la discriminación de ruido de aeronaves, y en el análisis de las contribuciones de estos sistemas sobre la incertidumbre de la medida y el reporte de resultados. Para la consecución de dicho objetivo, se ha definido un modelo de incertidumbre que permite evaluar los diferentes factores de influencia y realizar una cuantificación de la incertidumbre para diferentes escenarios. Durante este proceso se han definido y analizado los conceptos de incertidumbre de detección e incertidumbre de identificación, ambos derivados del diagrama de bloques que propone la norma ISO 20906 para la discriminación del ruido producido por los aviones y el procesado de datos. Asimismo, se pretende abordar el problema de la discriminación de aeronaves con un enfoque novedoso, que permita mejorar el rendimiento de los sistemas y reducir la incertidumbre. Mediante un sistema basado en reconocimiento de patrones uniclase, se aborda esta tarea en base al análisis de la semejanza entre la señal sonora registrada y el sonido que producen los aviones, dejando al margen la magnitud del sonido. Las técnicas de reconocimiento de patrones, y reconocimiento automático de habla, han sido aplicadas previamente al reconocimiento de fuentes de ruido ambiental. Algunos de estos proyectos se han centrado en el ruido de aviones, pero la novedad en esta tesis radica en la aplicación de clasificadores uniclase en un sistema que detecta eventos sonoros gracias a la clasificación de los fragmentos que lo componen. Actualmente los sistemas de gestión de ruido aeroportuario enlazan los datos de ruido proporcionados por las estaciones de monitorado con los datos procedentes del sistema seguimiento de los vuelos de los aviones mediante radar. Este tipo de sistemas es el que ha presentado mayor aceptación y ha sido implantado en los sistemas de monitorado de ruido de los principales aeropuertos internacionales. Sin embargo, este enfoque requiere de equipamiento que permita realizar el seguimiento de la posición de avión, y, dado que únicamente utilizan los niveles sonoros medidos para enlazarlos con el avión que los origina, no será capaz de detectar errores derivados de la presencia de una fuente sonora secundaria cuando existe un avión en la zona. El sistema que se plantea con la realización de esta tesis supone un avance debido a que permite eliminar del proceso de discriminación los umbrales de nivel sonoro, analizando única y exclusivamente la semejanza entre las señales comparadas. De esta manera se pretende mejorar las tasas de error en la identificación, e incluir umbrales de semejanza que permitan eliminar los umbrales de nivel sonoro en el proceso de detección. La implementación del sistema complementando al resto de sistemas del aeropuerto, permitirá la ampliación de las capacidades en el monitorado y la reducción de los costes en las campañas de medición desatendida. Al tiempo que se introducen las técnicas de reconocimiento de patrones en los sistemas de discriminación de los monitores de ruido, se pretende sacar partido de las posibilidades abiertas para dotar al sistema de capacidades adicionales, como es el caso de la detección del ruido de reversa, que se produce tras el aterrizaje de los aviones. La reversa se activa tras el contacto con tierra por parte de los aviones, para reducir la velocidad y acortar la distancia de frenado de los aviones. Esta práctica se usa de forma habitual en los aterrizajes, especialmente en los casos en los que la salida que debe tomar el avión rumbo al terminal se encuentra demasiado próxima al punto de aterrizaje. El empuje inverso se debe a una alteración en el flujo normal de aire que atraviesa los motores, que produce un violento choque contra la carcasa del motor, originando vibraciones y flujo turbulento que se convierte en ruido. El ruido de reversa puede alcanzar unos niveles mucho mayores que el propio aterrizaje, y sus características dinámicas y espectrales lo convierten en especialmente molesto. Por este motivo la utilización injustificada (salvo por motivos de seguridad) está prohibida o es desaconsejada en un gran número de aeropuertos, a nivel internacional (especialmente durante el período nocturno). Sin embargo, las autoridades aeroportuarias carecen de herramientas eficientes y fiables que permitan detectar la utilización de reversa, siendo este punto uno de los aspectos tratados en esta investigación.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Actualmente se está empezando a consolidar una nueva forma de gestionar la conservación y mantenimiento de la red viaria de las Administraciones Públicas, basándose en contratos de colaboración público-privadas (PPP). Las motivaciones que están provocando este movimiento son de diversa índole. Por un lado, en el seno de la Unión Europea, existen serias restricciones presupuestarias debido al alto endeudamiento del sector público, lo que está llevando a buscar la forma óptima de disminuir el endeudamiento público, sin dejar de prestar servicios a la sociedad como la conservación y mantenimiento de las redes viarias. Por esta vertiente, se trata de convertir contratos convencionales de conservación viaria a esquemas de colaboración público-privada, donde se transferiría al sector privado el riesgo de disponibilidad de la vía mediante el uso de indicadores de calidad y servicio. Con esta transferencia de riesgo, junto con la transferencia del riesgo de demanda/construcción, no consolidaría la deuda de la sociedad de propósito específico constituida para la gestión del contrato de colaboración público-privada dentro de las cuentas públicas, con lo que se conseguiría no aumentar el déficit público, permitiendo continuar ofreciendo el servicio demandado por la sociedad. Por otro lado, la segunda motivación del desarrollo de este tipo de contratos, no tan economicista como la anterior y más enfocada a la gestión, se trata de utilizar los contratos de gestión basados en el uso de indicadores de calidad de servicio para mejorar las prestaciones de la red viaria competencia de una Administración. Con el uso de estos indicadores, el gestor tiene una herramienta muy útil para controlar la actividad del sector privado y asegurar que se ofrece un buen servicio. En la presente tesis, la investigación se ha centrado más en la vertiente de los indicadores de calidad relacionados con la gestión eficiente de las vías objeto de conservación y mantenimiento mediante el empleo de contratos de gestión privada que utilicen este tipo de herramientas de control, monitorización y gestión. En una primera parte, la presente tesis estudia el estado de la red de carreteras, referido principalmente a España, comparando su estado con el resto de redes de carreteras de Europa, detectando las principales carencias de la misma, sobre todo en cuanto a la gestión y conservación de firmes. En un segundo bloque, la tesis analiza el estado del arte de los nuevos procedimientos de gestión de la conservación y mantenimiento basados en indicadores de calidad del servicio en el mundo, destacándose que se trata de un tema relativamente reciente, con gran interés para el sector de la gestión y financiación de infraestructuras viarias. Al ser tan novedoso, por la falta de experiencias previas, las distintas Administración, tanto propias como foráneas, han pecado de un exceso de celo a la hora de establecer los umbrales sobre los que giran los distintos indicadores de calidad de servicio que permiten controlar la gestión de la conservación y mantenimiento de la vía. Partiendo de la labor de análisis descrita, la tesis realiza una investigación más detallada de los indicadores de calidad de servicio correspondientes a firmes bituminosos, debido a que estos indicadores son los más delicados y decisivos a la hora de realizar una correcta gestión de la vía a largo plazo. Dentro de los indicadores de firmes bituminosos, se ha realizado un modelo específico de evolución de comportamiento a lo largo del tiempo de la regularidad superficial, parámetro básico para numerosas Administraciones y organismos investigadores para poder conocer la evolución de un firme a lo largo del tiempo. A esta metodología se le ha dado el nombre de Modelo JRB para evaluar la racionalidad económica de indicadores de calidad asociados a parámetros de firmes. El modelo propuesto básicamente evalúa el valor óptimo desde la perspectiva económica que ha de tener el parámetro técnico que defina alguna propiedad del firme, aplicado a la definición de los indicadores de calidad de servicio. Esta visión del valor umbral del indicador deja a un lado consideraciones de equidad o de cualquier otra índole, basándose más en una visión económica. La metodología del Modelo JRB se puede aplicar a cualquier indicador de calidad relacionado con firmes, ya que lo que se obtiene es el valor óptimo económico que debería tener el umbral del indicador de calidad. El Modelo JRB consta de varias fases. En las primeras etapas el Modelo realiza el cálculo de los costes totales de transporte utilizando como herramienta el software HDM-IV desarrollado por el Banco Mundial. En etapas posteriores, el Modelo realiza análisis de sensibilidad para distintas propuestas de sección de firme, intensidades de tráfico y restricciones al parámetro técnico que define el indicador de calidad de servicio. Como ejercicio práctico de cara a contrastar la metodología del Modelo JRB se ha realizado un Caso de Estudio. Se ha tomado un tramo teórico, con características similares a la red de carreteras española, y con una flota vehicular similar a la española, donde se ha elegido como indicador de calidad la regularidad superficial (IRI). Con las sensibilidades realizadas con el Modelo JRB, se ha determinado el rango de valores que debería tener un indicador de calidad basado en el IRI para que dichos valores fueran óptimos desde la perspectiva económica Nowadays is becoming a new way to manage O&M (operation and maintenance) in public road networks, based on PPP contracts (public-private partnership). There are several issues which are driving this trend. On the one hand, EU (European Union) has serious budgetary constraints due to the high public sector borrowing. EU politicians are looking for the best way to reduce public debt, keeping services to society such as O&M of road networks. For this aspect, conventional O&M contracts are switching to PPP scenarios, where availability risk would be transfer to private sector using PI (performance indicators), along with demand risk transfer With this risk transference, along with the transfer of demand/construction risk, SPV (specific purpose vehicle) debt doesn’t consolidate in public accounts, so deficit wouldn’t increase, allowing the continuation of services demanded by society. On the other hand, the second motivation for developing this kind of contracts, not so economist as above and more focused to management, it is about using O&M contracts based on the use of PI to improve road network maintenance. Using these indicators, manager has a very useful tool to monitor private sector activity and ensure that it is provided a good service. In this thesis, the research has been focused on PI quality aspect, related with efficient management of PPP contracts for roads, which use these tools for control, monitoring and management. In the first part, this thesis examines the state of road network, based mainly in Spain, comparing with other road networks in Europe, identifying the main gaps in it, especially with regard to the management and maintenance of pavements. In a second block, the thesis analyzes the state of art of new O&M contracts based on PI in the world, emphasizing that they are relatively recent. These kinds of contracts have a great interest in road management and financing sector. Administrations all around the world have launch tenders with very exigent PI thresholds due to several factors: this knowledge is a new area, the lack of previous experiences and the variety of Administrations which have bid these contracts. Building on the described analysis, thesis develops a more detailed research about PI for bituminous pavements, because these PI are the most delicate and decisive in making a proper long term road management. Among bituminous pavements PI, IRI (International Roughness Index) has been analyzed with more detail and has been developed a specific model of behaviour evolution over time for evenness (IRI), basic parameter for many administrations and research departments in order to know the evolution of a pavement over time. This methodology has been given the name of JRB Model to evaluate the economic rationality of performance indicators associated with pavements parameters. The proposed model basically evaluates the optimal value from an economic perspective it must have the technical parameter which defines some pavement characteristic applied to the definition of performance indicators. This point of view of indicator value threshold sets aside justice considerations or otherwise, based more on an economic perspective. JRB Model methodology can be applied to any performance indicator associated to pavements, because what you get is the economic optimum threshold should have the performance indicator. JRB Model consists of several phases. In the early stages, the Model calculates transport total cost using HDM-IV software, developed by the World Bank, as a tool. In later stages, the Model performs sensitivity analyzes for different pavement section, AADT and restrictions to the technical parameter which defines the performance indicator. As a practical exercise to test JRB Model methodology, it has done a Case Study. It has taken a theoretical section, with similar characteristics to Spanish road network, and a vehicles fleet similar to Spanish. Evenness (IRI) was chosen as a performance indicator. JRB Model calculated some sensitivities, which were useful to determined thresholds range for pavement performance indicators based on IRI to be optimal from an economic perspective.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En los años recientes se ha producido un rápido crecimiento del comercio internacional en productos semielaborados que son diseñados, producidos y ensamblados en diferentes localizaciones a lo largo de diferentes países, debido principalmente a los siguientes motivos: el desarrollo de las tecnologías de la información, la reducción de los costes de transporte, la liberalización de los mercados de capitales, la armonización de factores institucionales, la integración económica regional que implica la reducción y la eliminación de las barreras al comercio, el desarrollo económico de los países emergentes, el uso de economías de escala, así como una desregulación del comercio internacional. Todo ello ha incrementado la competencia a nivel mundial en los mercados y ha posibilitado a las compañías tener más facilidad de acceso a potenciales mercados, así como a la adquisición de capacidades y conocimientos en otros países y a la realización de alianzas estratégicas internacionales con terceros, creando un entorno con mayor incertidumbre y más exigente para las compañías que componen una industria, y que tiene consecuencias directas en las operaciones de las compañías y en la organización de su producción. Las compañías, para adaptarse, ser competitivas y beneficiarse de este nuevo escenario globalizado y más competitivo, han externalizado partes del proceso productivo hacia proveedores especializados, creando un nuevo mercado intermedio que divide el proceso productivo, anteriormente integrado en las compañías que conforman una industria, entre dos conjuntos de empresas especializadas en esa industria. Dicho proceso suele ocurrir conservando la industria en que tiene lugar, los mismos servicios y productos, la tecnología empleada y las compañías originales que la conformaban previamente a la desintegración vertical. Todo ello es así debido a que es beneficioso tanto para las compañías originales de la industria como para las nuevas compañías de este mercado intermedio por diversos motivos. La desintegración vertical en una industria tiene unas consecuencias que la transforman completamente, así como la forma de operar de las compañías que la integran, incluso para aquellas que permanecen verticalmente integradas. Una de las características más importantes de esta desintegración vertical en una industria es la posibilidad que tiene una compañía de adquirir a una tercera la primera parte del proceso productivo o un bien semielaborado, que posteriormente será finalizado por la compañía adquiriente con la práctica del outsourcing; así mismo, una compañía puede realizar la primera parte del proceso productivo o un bien semielaborado, que posteriormente será finalizado por una tercera compañía con la práctica de la fragmentación. El principal objetivo de la presente investigación es el estudio de los motivos, los facilitadores, los efectos, las consecuencias y los principales factores significativos, microeconómicos y macroeconómicos, que desencadenan o incrementan la práctica de la desintegración vertical en una industria; para ello, la investigación se divide en dos líneas completamente diferenciadas: el estudio de la práctica del outsourcing y, por otro lado, el estudio de la fragmentación por parte de las compañías que componen la industria del automóvil en España, puesto que se trata de una de las industrias más desintegradas verticalmente y fragmentadas, y este sector posee una gran importancia en la economía del país. En primer lugar, se hace una revisión de la literatura existente relativa a los siguientes aspectos: desintegración vertical, outsourcing, fragmentación, teoría del comercio internacional, historia de la industria del automóvil en España y el uso de las aglomeraciones geográficas y las tecnologías de la información en el sector del automóvil. La metodología empleada en cada uno de ellos ha sido diferente en función de la disponibilidad de los datos y del enfoque de investigación: los factores microeconómicos, utilizando el outsourcing, y los factores macroeconómicos, empleando la fragmentación. En el estudio del outsourcing, se usa un índice basado en las compras externas sobre el valor total de la producción. Así mismo, se estudia su correlación y significación con las variables económicas más importantes que definen a una compañía del sector del automóvil, utilizando la técnica estadística de regresión lineal. Aquellas variables relacionadas con la competencia en el mercado, la externalización de las actividades de menor valor añadido y el incremento de la modularización de las actividades de la cadena de valor, han resultado significativas con la práctica del outsourcing. En el estudio de la fragmentación se seleccionan un conjunto de factores macroeconómicos, comúnmente usados en este tipo de investigaciones, relacionados con las principales magnitudes económicas de un país, y un conjunto de factores macroeconómicos, no comúnmente usados en este tipo de investigaciones, relacionados con la libertad económica y el comercio internacional de un país. Se emplea un modelo de regresión logística para identificar qué factores son significativos en la práctica de la fragmentación. De entre todos los factores usados en el modelo, los relacionados con las economías de escala y los costes de servicio han resultado significativos. Los resultados obtenidos de los test estadísticos realizados en el modelo de regresión logística han resultado satisfactorios; por ello, el modelo propuesto de regresión logística puede ser considerado sólido, fiable y versátil; además, acorde con la realidad. De los resultados obtenidos en el estudio del outsourcing y de la fragmentación, combinados conjuntamente con el estado del arte, se concluye que el principal factor que desencadena la desintegración vertical en la industria del automóvil es la competencia en el mercado de vehículos. Cuanto mayor es la demanda de vehículos, más se reducen los beneficios y la rentabilidad para sus fabricantes. Estos, para ser competitivos, diferencian sus productos de la competencia centrándose en las actividades que mayor valor añadido aportan al producto final, externalizando las actividades de menor valor añadido a proveedores especializados, e incrementando la modularidad de las actividades de la cadena de valor. Las compañías de la industria del automóvil se especializan en alguna o varias de estas actividades modularizadas que, combinadas con el uso de factores facilitadores como las economías de escala, las tecnologías de la información, las ventajas de la globalización económica y la aglomeración geográfica de una industria, incrementan y motivan la desintegración vertical en la industria del automóvil, desencadenando la coespecialización en dos sectores claramente diferenciados: el sector de fabricantes de vehículos y el sector de proveedores especializados. Cada uno de ellos se especializa en unas actividades y en unos productos o servicios específicos de la cadena de valor, lo cual genera las siguientes consecuencias en la industria del automóvil: se reducen los costes de transacción en los productos o servicios intercambiados; se incrementan la relación de dependencia entre fabricantes de vehículos y proveedores especializados, provocando un aumento en la cooperación y la coordinación, acelerando el proceso de aprendizaje, posibilitando a ambos adquirir nuevas capacidades, conocimientos y recursos, y creando nuevas ventajas competitivas para ambos; por último, las barreras de entrada a la industria del automóvil y el número de compañías se ven alteradas cambiando su estructura. Como futura línea de investigación, los fabricantes de vehículos tenderán a centrarse en investigar, diseñar y comercializar el producto o servicio, delegando el ensamblaje en manos de nuevos especialistas en la materia, el contract manufacturer; por ello, sería conveniente investigar qué factores motivantes o facilitadores existen y qué consecuencias tendría la implantación de los contract manufacturer en la industria del automóvil. 1.1. ABSTRACT In recent years there has been a rapid growth of international trade in semi-finished products designed, produced and assembled in different locations across different countries, mainly due to the following reasons: development of information technologies, reduction of transportation costs, liberalisation of capital markets, harmonisation of institutional factors, regional economic integration, which involves the reduction and elimination of trade barriers, economic development of emerging countries, use of economies of scale and deregulation of international trade. All these factors have increased competition in markets at a global level and have allowed companies to gain easier access to potential markets and to the acquisition of skills and knowledge in other countries, as well as to the completion of international strategic alliances with third parties, thus creating a more demanding and uncertain environment for these companies constituting an industry, which has a direct impact on the companies' operations and the organization of their production. In order to adapt, be competitive and benefit from this new and more competitive global scenario, companies have outsourced some parts of their production process to specialist suppliers, generating a new intermediate market which divides the production process, previously integrated in the companies that made up the industry, into two sets of companies specialized in that industry. This process often occurs while preserving the industry where it takes place, its same services and products, the technology used and the original companies that formed it prior to vertical disintegration. This is because it is beneficial for both the industry's original companies and the companies belonging to this new intermediate market, for various reasons. Vertical disintegration has consequences which completely transform the industry where it takes place as well as the modus operandi of the companies that are part of it, even of those who remain vertically integrated. One of the most important features of vertical disintegration of an industry is the possibility for a company to acquire from a third one the first part of the production process or a semi-finished product, which will then be finished by the acquiring company through the practice of outsourcing; also, a company can perform the first part of the production process or a semi-finish product, which will then be completed by a third company through the practice of fragmentation. The main objective of this research is to study the motives, facilitators, effects, consequences and major significant microeconomic and macroeconomic factors that trigger or increase the practice of vertical disintegration in a certain industry; in order to do so, research is divided into two completely differentiated lines: on the one hand, the study of the practise of outsourcing and, on the other, the study of fragmentation by companies constituting the automotive industry in Spain, since this is one of the most vertically disintegrated and fragmented industries and this particular sector is of major significance in this country's economy. First, a review is made of the existing literature, on the following aspects: vertical disintegration, outsourcing, fragmentation, international trade theory, history of the automobile industry in Spain and the use of geographical agglomeration and information technologies in the automotive sector. The methodology used for each of these aspects has been different depending on the availability of data and the research approach: the microeconomic factors, using outsourcing, and the macroeconomic factors, using fragmentation. In the study on outsourcing, an index is used based on external purchases in relation to the total value of production. Likewise, their significance and correlation with the major economic variables that define an automotive company are studied, using the statistical technique of linear regression. Variables related to market competition, outsourcing of lowest value-added activities and increased modularisation of the activities of the value chain have turned out to be significant with the practice of outsourcing. In the study of fragmentation, a set of macroeconomic factors commonly used for this type of research, is selected, related to the main economic indicators of a country, as well as a set of macroeconomic factors, not commonly used for this type of research, which are related to economic freedom and the international trade of a certain country. A logistic regression model is used to identify which factors are significant in the practice of fragmentation. Amongst all factors used in the model, those related to economies of scale and service costs have turned out to be significant. The results obtained from the statistical tests performed on the logistic regression model have been successful; hence, the suggested logistic regression model can be considered to be solid, reliable and versatile; likewise, it is in line with reality. From the results obtained in the study of outsourcing and fragmentation, combined with the state of the art, it is concluded that the main factor that triggers vertical disintegration in the automotive industry is competition within the vehicle market. The greater the vehicle demand, the lower the earnings and profitability for manufacturers. These, in order to be competitive, differentiate their products from the competition by focusing on those activities that contribute with the highest added value to the final product, outsourcing the lower valueadded activities to specialist suppliers, and increasing the modularity of the activities of the value chain. Companies in the automotive industry specialize in one or more of these modularised activities which, combined with the use of enabling factors such as economies of scale, information technologies, the advantages of economic globalisation and the geographical agglomeration of an industry, increase and encourage vertical disintegration in the automotive industry, triggering co-specialization in two clearly distinct sectors: the sector of vehicle manufacturers and the specialist suppliers sector. Each of them specializes in certain activities and specific products or services of the value chain, generating the following consequences in the automotive industry: reduction of transaction costs of the goods or services exchanged; growth of the relationship of dependency between vehicle manufacturers and specialist suppliers, which causes an increase in cooperation and coordination, accelerates the learning process, enables both to acquire new skills, knowledge and resources, and creates new competitive advantages for both; finally, barriers to entry the automotive industry and the number of companies are altered, changing their structure. As a future line of research, vehicle manufacturers will tend to focus on researching, designing and marketing the product or service, delegating the assembly in the hands of new specialists in the field, the contract manufacturer; for this reason, it would be useful to investigate what motivating or facilitating factors exist in this respect and what consequences would the implementation of contract manufacturers have in the automotive industry.