27 resultados para Recaudación de impuestos
em Universidad Politécnica de Madrid
Resumo:
Energy management has always been recognized as a challenge in mobile systems, especially in modern OS-based mobile systems where multi-functioning are widely supported. Nowadays, it is common for a mobile system user to run multiple applications simultaneously while having a target battery lifetime in mind for a specific application. Traditional OS-level power management (PM) policies make their best effort to save energy under performance constraint, but fail to guarantee a target lifetime, leaving the painful trading off between the total performance of applications and the target lifetime to the user itself. This thesis provides a new way to deal with the problem. It is advocated that a strong energy-aware PM scheme should first guarantee a user-specified battery lifetime to a target application by restricting the average power of those less important applications, and in addition to that, maximize the total performance of applications without harming the lifetime guarantee. As a support, energy, instead of CPU or transmission bandwidth, should be globally managed as the first-class resource by the OS. As the first-stage work of a complete PM scheme, this thesis presents the energy-based fair queuing scheduling, a novel class of energy-aware scheduling algorithms which, in combination with a mechanism of battery discharge rate restricting, systematically manage energy as the first-class resource with the objective of guaranteeing a user-specified battery lifetime for a target application in OS-based mobile systems. Energy-based fair queuing is a cross-application of the traditional fair queuing in the energy management domain. It assigns a power share to each task, and manages energy by proportionally serving energy to tasks according to their assigned power shares. The proportional energy use establishes proportional share of the system power among tasks, which guarantees a minimum power for each task and thus, avoids energy starvation on any task. Energy-based fair queuing treats all tasks equally as one type and supports periodical time-sensitive tasks by allocating each of them a share of system power that is adequate to meet the highest energy demand in all periods. However, an overly conservative power share is usually required to guarantee the meeting of all time constraints. To provide more effective and flexible support for various types of time-sensitive tasks in general purpose operating systems, an extra real-time friendly mechanism is introduced to combine priority-based scheduling into the energy-based fair queuing. Since a method is available to control the maximum time one time-sensitive task can run with priority, the power control and time-constraint meeting can be flexibly traded off. A SystemC-based test-bench is designed to assess the algorithms. Simulation results show the success of the energy-based fair queuing in achieving proportional energy use, time-constraint meeting, and a proper trading off between them. La gestión de energía en los sistema móviles está considerada hoy en día como un reto fundamental, notándose, especialmente, en aquellos terminales que utilizando un sistema operativo implementan múltiples funciones. Es común en los sistemas móviles actuales ejecutar simultaneamente diferentes aplicaciones y tener, para una de ellas, un objetivo de tiempo de uso de la batería. Tradicionalmente, las políticas de gestión de consumo de potencia de los sistemas operativos hacen lo que está en sus manos para ahorrar energía y satisfacer sus requisitos de prestaciones, pero no son capaces de proporcionar un objetivo de tiempo de utilización del sistema, dejando al usuario la difícil tarea de buscar un compromiso entre prestaciones y tiempo de utilización del sistema. Esta tesis, como contribución, proporciona una nueva manera de afrontar el problema. En ella se establece que un esquema de gestión de consumo de energía debería, en primer lugar, garantizar, para una aplicación dada, un tiempo mínimo de utilización de la batería que estuviera especificado por el usuario, restringiendo la potencia media consumida por las aplicaciones que se puedan considerar menos importantes y, en segundo lugar, maximizar las prestaciones globales sin comprometer la garantía de utilización de la batería. Como soporte de lo anterior, la energía, en lugar del tiempo de CPU o el ancho de banda, debería gestionarse globalmente por el sistema operativo como recurso de primera clase. Como primera fase en el desarrollo completo de un esquema de gestión de consumo, esta tesis presenta un algoritmo de planificación de encolado equitativo (fair queueing) basado en el consumo de energía, es decir, una nueva clase de algoritmos de planificación que, en combinación con mecanismos que restrinjan la tasa de descarga de una batería, gestionen de forma sistemática la energía como recurso de primera clase, con el objetivo de garantizar, para una aplicación dada, un tiempo de uso de la batería, definido por el usuario, en sistemas móviles empotrados. El encolado equitativo de energía es una extensión al dominio de la energía del encolado equitativo tradicional. Esta clase de algoritmos asigna una reserva de potencia a cada tarea y gestiona la energía sirviéndola de manera proporcional a su reserva. Este uso proporcional de la energía garantiza que cada tarea reciba una porción de potencia y evita que haya tareas que se vean privadas de recibir energía por otras con un comportamiento más ambicioso. Esta clase de algoritmos trata a todas las tareas por igual y puede planificar tareas periódicas en tiempo real asignando a cada una de ellas una reserva de potencia que es adecuada para proporcionar la mayor de las cantidades de energía demandadas por período. Sin embargo, es posible demostrar que sólo se consigue cumplir con los requisitos impuestos por todos los plazos temporales con reservas de potencia extremadamente conservadoras. En esta tesis, para proporcionar un soporte más flexible y eficiente para diferentes tipos de tareas de tiempo real junto con el resto de tareas, se combina un mecanismo de planificación basado en prioridades con el encolado equitativo basado en energía. En esta clase de algoritmos, gracias al método introducido, que controla el tiempo que se ejecuta con prioridad una tarea de tiempo real, se puede establecer un compromiso entre el cumplimiento de los requisitos de tiempo real y el consumo de potencia. Para evaluar los algoritmos, se ha diseñado en SystemC un banco de pruebas. Los resultados muestran que el algoritmo de encolado equitativo basado en el consumo de energía consigue el balance entre el uso proporcional a la energía reservada y el cumplimiento de los requisitos de tiempo real.
Resumo:
La temperatura es una preocupación que juega un papel protagonista en el diseño de circuitos integrados modernos. El importante aumento de las densidades de potencia que conllevan las últimas generaciones tecnológicas ha producido la aparición de gradientes térmicos y puntos calientes durante el funcionamiento normal de los chips. La temperatura tiene un impacto negativo en varios parámetros del circuito integrado como el retardo de las puertas, los gastos de disipación de calor, la fiabilidad, el consumo de energía, etc. Con el fin de luchar contra estos efectos nocivos, la técnicas de gestión dinámica de la temperatura (DTM) adaptan el comportamiento del chip en función en la información que proporciona un sistema de monitorización que mide en tiempo de ejecución la información térmica de la superficie del dado. El campo de la monitorización de la temperatura en el chip ha llamado la atención de la comunidad científica en los últimos años y es el objeto de estudio de esta tesis. Esta tesis aborda la temática de control de la temperatura en el chip desde diferentes perspectivas y niveles, ofreciendo soluciones a algunos de los temas más importantes. Los niveles físico y circuital se cubren con el diseño y la caracterización de dos nuevos sensores de temperatura especialmente diseñados para los propósitos de las técnicas DTM. El primer sensor está basado en un mecanismo que obtiene un pulso de anchura variable dependiente de la relación de las corrientes de fuga con la temperatura. De manera resumida, se carga un nodo del circuito y posteriormente se deja flotando de tal manera que se descarga a través de las corrientes de fugas de un transistor; el tiempo de descarga del nodo es la anchura del pulso. Dado que la anchura del pulso muestra una dependencia exponencial con la temperatura, la conversión a una palabra digital se realiza por medio de un contador logarítmico que realiza tanto la conversión tiempo a digital como la linealización de la salida. La estructura resultante de esta combinación de elementos se implementa en una tecnología de 0,35 _m. El sensor ocupa un área muy reducida, 10.250 nm2, y consume muy poca energía, 1.05-65.5nW a 5 muestras/s, estas cifras superaron todos los trabajos previos en el momento en que se publicó por primera vez y en el momento de la publicación de esta tesis, superan a todas las implementaciones anteriores fabricadas en el mismo nodo tecnológico. En cuanto a la precisión, el sensor ofrece una buena linealidad, incluso sin calibrar; se obtiene un error 3_ de 1,97oC, adecuado para tratar con las aplicaciones de DTM. Como se ha explicado, el sensor es completamente compatible con los procesos de fabricación CMOS, este hecho, junto con sus valores reducidos de área y consumo, lo hacen especialmente adecuado para la integración en un sistema de monitorización de DTM con un conjunto de monitores empotrados distribuidos a través del chip. Las crecientes incertidumbres de proceso asociadas a los últimos nodos tecnológicos comprometen las características de linealidad de nuestra primera propuesta de sensor. Con el objetivo de superar estos problemas, proponemos una nueva técnica para obtener la temperatura. La nueva técnica también está basada en las dependencias térmicas de las corrientes de fuga que se utilizan para descargar un nodo flotante. La novedad es que ahora la medida viene dada por el cociente de dos medidas diferentes, en una de las cuales se altera una característica del transistor de descarga |la tensión de puerta. Este cociente resulta ser muy robusto frente a variaciones de proceso y, además, la linealidad obtenida cumple ampliamente los requisitos impuestos por las políticas DTM |error 3_ de 1,17oC considerando variaciones del proceso y calibrando en dos puntos. La implementación de la parte sensora de esta nueva técnica implica varias consideraciones de diseño, tales como la generación de una referencia de tensión independiente de variaciones de proceso, que se analizan en profundidad en la tesis. Para la conversión tiempo-a-digital, se emplea la misma estructura de digitalización que en el primer sensor. Para la implementación física de la parte de digitalización, se ha construido una biblioteca de células estándar completamente nueva orientada a la reducción de área y consumo. El sensor resultante de la unión de todos los bloques se caracteriza por una energía por muestra ultra baja (48-640 pJ) y un área diminuta de 0,0016 mm2, esta cifra mejora todos los trabajos previos. Para probar esta afirmación, se realiza una comparación exhaustiva con más de 40 propuestas de sensores en la literatura científica. Subiendo el nivel de abstracción al sistema, la tercera contribución se centra en el modelado de un sistema de monitorización que consiste de un conjunto de sensores distribuidos por la superficie del chip. Todos los trabajos anteriores de la literatura tienen como objetivo maximizar la precisión del sistema con el mínimo número de monitores. Como novedad, en nuestra propuesta se introducen nuevos parámetros de calidad aparte del número de sensores, también se considera el consumo de energía, la frecuencia de muestreo, los costes de interconexión y la posibilidad de elegir diferentes tipos de monitores. El modelo se introduce en un algoritmo de recocido simulado que recibe la información térmica de un sistema, sus propiedades físicas, limitaciones de área, potencia e interconexión y una colección de tipos de monitor; el algoritmo proporciona el tipo seleccionado de monitor, el número de monitores, su posición y la velocidad de muestreo _optima. Para probar la validez del algoritmo, se presentan varios casos de estudio para el procesador Alpha 21364 considerando distintas restricciones. En comparación con otros trabajos previos en la literatura, el modelo que aquí se presenta es el más completo. Finalmente, la última contribución se dirige al nivel de red, partiendo de un conjunto de monitores de temperatura de posiciones conocidas, nos concentramos en resolver el problema de la conexión de los sensores de una forma eficiente en área y consumo. Nuestra primera propuesta en este campo es la introducción de un nuevo nivel en la jerarquía de interconexión, el nivel de trillado (o threshing en inglés), entre los monitores y los buses tradicionales de periféricos. En este nuevo nivel se aplica selectividad de datos para reducir la cantidad de información que se envía al controlador central. La idea detrás de este nuevo nivel es que en este tipo de redes la mayoría de los datos es inútil, porque desde el punto de vista del controlador sólo una pequeña cantidad de datos |normalmente sólo los valores extremos| es de interés. Para cubrir el nuevo nivel, proponemos una red de monitorización mono-conexión que se basa en un esquema de señalización en el dominio de tiempo. Este esquema reduce significativamente tanto la actividad de conmutación sobre la conexión como el consumo de energía de la red. Otra ventaja de este esquema es que los datos de los monitores llegan directamente ordenados al controlador. Si este tipo de señalización se aplica a sensores que realizan conversión tiempo-a-digital, se puede obtener compartición de recursos de digitalización tanto en tiempo como en espacio, lo que supone un importante ahorro de área y consumo. Finalmente, se presentan dos prototipos de sistemas de monitorización completos que de manera significativa superan la características de trabajos anteriores en términos de área y, especialmente, consumo de energía. Abstract Temperature is a first class design concern in modern integrated circuits. The important increase in power densities associated to recent technology evolutions has lead to the apparition of thermal gradients and hot spots during run time operation. Temperature impacts several circuit parameters such as speed, cooling budgets, reliability, power consumption, etc. In order to fight against these negative effects, dynamic thermal management (DTM) techniques adapt the behavior of the chip relying on the information of a monitoring system that provides run-time thermal information of the die surface. The field of on-chip temperature monitoring has drawn the attention of the scientific community in the recent years and is the object of study of this thesis. This thesis approaches the matter of on-chip temperature monitoring from different perspectives and levels, providing solutions to some of the most important issues. The physical and circuital levels are covered with the design and characterization of two novel temperature sensors specially tailored for DTM purposes. The first sensor is based upon a mechanism that obtains a pulse with a varying width based on the variations of the leakage currents on the temperature. In a nutshell, a circuit node is charged and subsequently left floating so that it discharges away through the subthreshold currents of a transistor; the time the node takes to discharge is the width of the pulse. Since the width of the pulse displays an exponential dependence on the temperature, the conversion into a digital word is realized by means of a logarithmic counter that performs both the timeto- digital conversion and the linearization of the output. The structure resulting from this combination of elements is implemented in a 0.35_m technology and is characterized by very reduced area, 10250 nm2, and power consumption, 1.05-65.5 nW at 5 samples/s, these figures outperformed all previous works by the time it was first published and still, by the time of the publication of this thesis, they outnumber all previous implementations in the same technology node. Concerning the accuracy, the sensor exhibits good linearity, even without calibration it displays a 3_ error of 1.97oC, appropriate to deal with DTM applications. As explained, the sensor is completely compatible with standard CMOS processes, this fact, along with its tiny area and power overhead, makes it specially suitable for the integration in a DTM monitoring system with a collection of on-chip monitors distributed across the chip. The exacerbated process fluctuations carried along with recent technology nodes jeop-ardize the linearity characteristics of the first sensor. In order to overcome these problems, a new temperature inferring technique is proposed. In this case, we also rely on the thermal dependencies of leakage currents that are used to discharge a floating node, but now, the result comes from the ratio of two different measures, in one of which we alter a characteristic of the discharging transistor |the gate voltage. This ratio proves to be very robust against process variations and displays a more than suficient linearity on the temperature |1.17oC 3_ error considering process variations and performing two-point calibration. The implementation of the sensing part based on this new technique implies several issues, such as the generation of process variations independent voltage reference, that are analyzed in depth in the thesis. In order to perform the time-to-digital conversion, we employ the same digitization structure the former sensor used. A completely new standard cell library targeting low area and power overhead is built from scratch to implement the digitization part. Putting all the pieces together, we achieve a complete sensor system that is characterized by ultra low energy per conversion of 48-640pJ and area of 0.0016mm2, this figure outperforms all previous works. To prove this statement, we perform a thorough comparison with over 40 works from the scientific literature. Moving up to the system level, the third contribution is centered on the modeling of a monitoring system consisting of set of thermal sensors distributed across the chip. All previous works from the literature target maximizing the accuracy of the system with the minimum number of monitors. In contrast, we introduce new metrics of quality apart form just the number of sensors; we consider the power consumption, the sampling frequency, the possibility to consider different types of monitors and the interconnection costs. The model is introduced in a simulated annealing algorithm that receives the thermal information of a system, its physical properties, area, power and interconnection constraints and a collection of monitor types; the algorithm yields the selected type of monitor, the number of monitors, their position and the optimum sampling rate. We test the algorithm with the Alpha 21364 processor under several constraint configurations to prove its validity. When compared to other previous works in the literature, the modeling presented here is the most complete. Finally, the last contribution targets the networking level, given an allocated set of temperature monitors, we focused on solving the problem of connecting them in an efficient way from the area and power perspectives. Our first proposal in this area is the introduction of a new interconnection hierarchy level, the threshing level, in between the monitors and the traditional peripheral buses that applies data selectivity to reduce the amount of information that is sent to the central controller. The idea behind this new level is that in this kind of networks most data are useless because from the controller viewpoint just a small amount of data |normally extreme values| is of interest. To cover the new interconnection level, we propose a single-wire monitoring network based on a time-domain signaling scheme that significantly reduces both the switching activity over the wire and the power consumption of the network. This scheme codes the information in the time domain and allows a straightforward obtention of an ordered list of values from the maximum to the minimum. If the scheme is applied to monitors that employ TDC, digitization resource sharing is achieved, producing an important saving in area and power consumption. Two prototypes of complete monitoring systems are presented, they significantly overcome previous works in terms of area and, specially, power consumption.
Resumo:
La presente tesis propone una metodología para medir variables de impacto socio económico en la ciudad Puerto de Valparaíso, como una alternativa que permite evaluar la asignación del uso y explotación del borde costero. La ciudad de Valparaíso se formó al alero de la actividad marítima portuaria, en sus comienzos esta actividad fue el motor de desarrollo económico de la ciudad, sus habitantes mantenían una alta dependencia de ésta actividad, formando una identidad y cultura portuaria. Con la decadencia de la actividad portuaria, producto principalmente a la construcción del canal de Panamá y a la modernización de los buques de transporte aumentando su distancia franqueable1, la ciudad fue dejando su dependencia de esta actividad. Hoy en día casi la totalidad del borde costero de la ciudad está asignado a las actividades portuarias con escasa participación laboral de los habitantes de la ciudad y una alta demanda urbana por el uso del borde costero. Por otra parte, la ciudad ha presentado en la última década altos niveles de cesantía, cuestionándose la verdadera utilidad de mantener un puerto en la ciudad. La investigación de la tesis permitió dimensionar la cantidad de firmas y actividades económicas que se desarrollaban en torno a la actividad marítima portuaria en la ciudad, cuantificando los empleos que éstas otorgaban a la ciudad, los niveles de remuneraciones, los tributos a la municipalidad de la ciudad, el aporte al comercio local, entre otros. Descubriéndose hallazgos que permiten reflexionar sobre la importancia del la actividad en el desarrollo económico actual y futuro de la ciudad. También los antecedentes obtenidos permiten contribuir a la evaluación de proyectos alternativos para el uso y explotación del borde costero. La metodología utilizada también puede ser adaptada para medir los beneficios de otras ciudades puertos en el mundo. Los resultados obtenidos fueron expuestos a las autoridades gubernamentales locales, presentados en seminarios y congresos nacionales e internacionales, como en la prensa local; los más destacados son: la actividad otorga 12.727 empleos directos e indirectos que corresponden al 12% de la fuerza laboral ocupada; la actividad representa el 19% del Producto Interno Bruto de la ciudad; la actividad aporta un 21% al presupuesto municipal por concepto de recaudación de tributos y representan un 11% del presupuesto total asignado al municipio por el Estado de Chile. El sector industrial marítimo-portuario de la ciudad sigue siendo la actividad industrial más relevante en la ciudad y demanda el desarrollo de una planificación estratégica que permita vincular la actividad turística de la ciudad vecina de Viña del Mar con la actividad portuaria de Valparaíso. Para lograr tal objetivo es necesario realizar cambios en los atributos de las operaciones portuarias que permitan ofrecer productos asociados al turismo. This thesis proposes a methodology to measure the socio economic variables in the port city of Valparaiso, as an alternative to evaluate the allocation of the usage and exploitation of the coastline. The city of Valparaiso was formed to advance the port maritime activity and in the beginning this activity was the engine of economic development of the city. Its inhabitants remained highly dependent on it and formed a port identity and culture. With the decline of port activity, mainly due to the construction of the Panama Canal and the modernization of the transport vessels increasing distances, the city lost its dependence on this activity. Today almost all of the coastline of the city is assigned to port activities with very little labor participation of the inhabitants of the city and a high demand for the use of urban waterfront. Moreover, the city has shown high levels of unemployment in the past decade, questioning the true value of maintaining a port in the city. The research of this thesis provides insights into the number of firms and economic activities that were developed around the port maritime activity in the city, quantifying the jobs they gave to the city, the levels of pay, taxes to the municipality of city and the contribution to local commerce, among others. The findings discovered allow reflexions on the importance of the activity in the current and future economic development of the city. The data obtained also allows a contribution of the evaluation of alternative projects for the use and exploitation of the coastline. The methodology can also be adapted to measure the benefits of other port cities in the world. The results were presented to local government authorities, at seminars and national and international conferences, and in the local press. The most important finding are: the activity maritime port activity provides 12,727 direct and indirect jobs that are 12% of the employed labor force; activity represents which is 19% of the GDP of the city, the activity contributes 21% to the municipal budget by way of the collection of taxes and represents 11% of the total budget allocated to the municipality by the Republic of Chile. The industrial maritime port sector of the city remains the most important industrial activity in the city and demands the development of strategic planning to link the tourism in the neighboring city of Viña del Mar and to the Valparaiso port activity. To achieve this goal it is necessary to make changes to the attributes of port operations that allow the offering of products associated with tourism.
Resumo:
No tenemos conocimiento de ninguna red de caminos prerromanos que sirvieran como base de una posible malla territorial de España. Sin embargo, una sociedad prerromana sin caminos, por muy fragmentada y aislada que fuera, es algo improbable y mucho menos en la Edad del Hierro. Por eso en época prerromana existían infinidad de caminos, muchos de los cuales hoy han desaparecido y otros han sobrevivido, casi siempre con sus recorridos mejorados. Los pueblos prerromanos aprovecharon vías naturales de comunicación (ríos, vados, valles, puertos naturales, llanuras, etc.) para tender sus caminos. En sus orígenes no siguieron pautas concretas, si no que los caminos se originaban por el tránsito (de personas, ganados, mercancías, etc.) de un lugar a otro. De este modo la red viaria prerromana era caótica y anárquica: todo camino tenía numerosos ramales y variantes, según las necesidades. Pendientes excesivas, anchuras variables, etc., en decir eran vías espontáneas, surgidas sin ninguna planificación aparente. Los recorridos en general eran cortos, aunque algunas investigaciones actuales están demostrando que algunas de las cañadas ganaderas más importantes, como la Galiana, y de largo recorrido, eran de origen prerromano. En el caso de la península Ibérica, y más concretamente en el caso de la Meseta, el territorio estaba fragmentado en diversos pueblos y tribus, agrupados según criterios étnicos y culturales y con contactos con los pueblos próximos que motivan la preponderancia de caminos de recorrido cortos. Solo la necesidad de llevar los rebaños (de cabras y ovejas sobre todo) desde las serranías en verano a las llanuras en invierno, motivaría viajes más largos en los que algunas cañadas ganaderas jugarían un papel más importante. Con la llegada de los romanaos, se implantó en Hispania una densa red viaria, cuya construcción se prolongó durante toda la dominación romana, siendo reparadas muchas calzadas y vías en varias ocasiones. En época romana la red caminera era variada y estaba constituida por “las calzadas” que comunicaban puntos importantes, eran muy transitadas, de ahí que la administración romana las mantuviera siempre en buen estado, para asegurar el intercambio comercial entre zonas distintas, cobro de impuestos, etc. “Los caminos de tierra (viae terrenae)” que además de las calzadas, que podemos asemejar a las actuales carreteras de primer y segundo orden, constituían la infinidad de caminos locales y comarcales. Los trazados se realizaron unos en época romana, y otros muchos apoyándose en los caminos de la época prerromana, éstas vías no se realizaban buscando el recorrido más corto entre dos puntos, ni tampoco el más cómodo y con un firme estructural de menor importancia que en las calzadas. Tampoco estaban hechos para un tipo concreto de transporte, por lo que nos encontraríamos algunos que por su anchura permitían el paso de carros, y otros que sólo permitirían el paso a pie, a caballo o en burro. Solían ser, como hemos indicado, caminos de tierra con acabados en zahorras y recorridos en su mayor parte cortos y medianos. Dentro de la malla territorial de España las calzadas constituirían las denominadas “viae publicae” que constituían la red principal y esqueleto vertebrador de Hispania. Los caminos de tierra constituirían los denominados “actus” caminos de carácter regional que configuraban la mayor parte de la red. Muchas de las “viae publicae” y de los “actus” tendrían su origen en las “viae militares” que habrían sido los primeros construidos, apoyándose en muchas ocasiones en los caminos prerromanos, por los romanos para realizar la conquista de Hispania y que luego con la Paz romana habrían tenido otro tipo de uso. Dentro de estas “viae militares” tuvieron una importancia relevancia aquellas que se utilizaron en la conquista de la Celtiberia, culminada con la caída de Numantia. Dentro de ellas tuvo una importancia fundamental la vía romana del río Alhama, objeto de esta Tesis, que facilitaría el desplazamiento de los ejércitos romanos desde Graccurris, primera ciudad romana fundada en el Ebro medio, hasta Numantia. Desde la época Augusta, la vía romana del río Alhama, pasaría a formar parte de los denominados “actus” formando parte de la malla territorial de la Península Ibérica como vía de comunicación entre la Meseta y el Ebro Medio. We do not have knowledge of any network of ways prerromanos that were serving as base of a possible territorial mesh of Spain. Nevertheless, a company prerromana without ways, for very fragmented and isolated that was, is something improbable and great less in the Age of the Iron. Because of it in epoch prerromana existed infinity of ways, many of which today have disappeared and others have survived, almost always with his improved tours. The people prerromanos took advantage of natural routes of communication (rivers, fords, valleys, natural ports, plains, etc.) to stretch his ways. In his origins concrete guidelines did not continue, if not that the ways were originating for the traffic (of persons, cattle, goods, etc.) to and from. Thus the network viaria prerromana was chaotic and anarchic: all way had numerous branches and variants, according to the needs. Excessive slopes, variable widths, etc., in saying were spontaneous routes arisen without no apparent planning. The tours in general were short, though some current investigations are demonstrating that some of the most important cattle glens, as the Galiana, and of crossed length, were of origin prerromano. In case of the Iberian Peninsula, and more concretely in case of the Plateau, the territory was fragmented in diverse peoples and tribes, grouped according to ethnic and cultural criteria and with contacts with the near peoples that motivate the prevalence of short ways of tour. Only the need to take the flocks (of goats and sheeps especially) from the mountainous countries in summer to the plains in winter, would motivate longer trips in which some cattle glens would play a more important paper. With the arrival of the romanos, a dense network was implanted in Roman Spain viaria, whose construction extended during the whole Roman domination, being repaired many causeways and routes in several occasions. In Roman epoch the pertaining to roads network was changed and constituted by " the causeways " that were communicating important points, they were very travelled, of there that the Roman administration was supporting always in good condition, to assure the commercial exchange between different zones, collection of taxes, etc. "The dirt tracks (viae terrenae)" that besides the causeways, which we can make alike to the current roads of the first and second order, were constituting the infinity of local and regional ways. The tracings were realized some in Roman epoch, and great others resting on the ways of the epoch prerromana, these routes were not realized looking for the most short tour neither between points, two nor neither most comfortable and with a structural road surface of minor importance that in the causeways. They were not also done for a concrete type of transport, for what some of us would think that for his width they were allowing the step of cars, and others that only would allow the step afoot, astride or in donkey. They were in the habit of being, since we have indicated, dirt tracks with ended in zahorras and tours in his most short and medium. Inside the territorial mesh of Spain the causeways would constitute the called ones "viae publicae" that constituted the principal network and skeleton vertebrador of Roman Spain. The dirt tracks would constitute the "actus” called ways of regional character that were forming most of the network. Many of "viae publicae" and of the "actus" they would have his origin in " viae military" that would have been the first ones constructed, resting on many occasions on the ways prerromanos, for the Romans to realize the conquest of Roman Spain and that then with the Roman Peace they would have had another type of use. Inside these "viae military" had an importance relevancy those that were in use in the conquest of the Celtiberia, reached with Numantia's fall. Inside them a fundamental importance had the Roman route of the river Alhama, object of this Thesis, which would facilitate the displacement of the Roman armies from Graccurris, the first Roman city been founded on the average Ebro, up to Numantia. From the August epoch, the Roman route of the river Alhama, would happen to form a part of the "actus” forming a part of the territorial mesh of the Iberian Peninsula as road link between the Plateau and the Average Ebro.
Resumo:
El alcance de este proyecto consiste en elaborar el plan anual teórico de una compañía distribuidora de productos petrolíferos, que tiene como objetivo mantener los niveles de cuota en el mercado nacional de carburantes de estaciones de servicio, evaluando las rentabilidades conseguidas. El mercado de carburantes de automoción esta reduciéndose de forma importante desde el comienzo de la crisis, por lo que es necesario realizar un análisis profundo de ingresos (ventas y márgenes) y costes (fijos y variables), así como de las inversiones a realizar. Se deduce del estudio que la rentabilidad de la compañía es relativamente alta pero viene dada por un gran número de variables, internas y externas a la propia compañía. En definitiva, el negocio de las estaciones de servicio se basa en un producto con muy bajo margen e impuestos muy altos y es por ello que la competencia a nivel de precios esta muy limitada. Además y dado el nivel de inversiones y costes es necesario un volumen de ventas alto para poder conseguir superar el punto de equilibrio económico. ABSTRACT The scope of this project is to develop the theoretical annual plan of an oil products distribution company, which aims to maintain the levels of market share in the service stations market, assessing the returns achieved. The motor fuels market is decreasing significantly since the beginning of the crisis, making it necessary to conduct a thorough analysis of revenue (sales and margins) and costs (fixed and variable), as well as investments to be made . It follows from the study that the company's profitability is relatively high but is given by a large number of variables, internals and externals to the company. In short, the service stations business is based on a product with very low margin and that is the reason that the price competition level is very limited. Moreover, given the level of investments and costs is necessary to sale a high volume in order to get beyond the break even.
Resumo:
La Unión Europea ha criticado el carácter legal del desembolso en concepto de Impuesto sobre las Ventas Minoristas de Determinados Hidrocarburos (IVMDH) que el sector del transporte por carretera viene realizando en los últimos años, particularmente desde el año 2005. El presente artículo indaga en las características legales del IVMDH, también conocido como céntimo sanitario, la recaudación de las Autonomías en este concepto y el coste que ha supuesto para el sector profesional del transporte por carretera, así como el importe que podría ser devuelto a estas empresas dependiendo de su flota de vehículos y de la Autonomía en la que operen.
Resumo:
Las estructuras de forjados reticulares sobre pilares aislados han sido ampliamente utilizadas en el sur de Europa para edificios de viviendas y oficinas entre los a?nos setenta y noventa del siglo pasado. Estas estructuras, proyectadas y construidas con códigos actualmente obsoletos, podrían tener un comportamiento deficiente en caso de terremoto y es necesario evaluar su vulnerabilidad y la necesidad de ser reacondicionadas sísmicamente. Este artículo propone un modelo sencillo de transmisión de esfuerzos en uniones existentes entre forjado reticular y soporte exterior, solicitadas en la dirección normal al plano de fachada. La propuesta tiene en cuenta particularidades de estos forjados tales como la concentración de armaduras orientadas con los nervios y la presencia sistemática de crucetas de punzonamiento. El modelo global consiste en elementos tipo barra para los soportes y tipo placa para el forjado, con uniones entre ambos mediante rótulas a flexión y a torsión. La resistencia de las rótulas a flexión se determina a partir de la estimación de la porción de armadura longitudinal del forjado que transmite directamente momentos al pilar por flexión. La deformación de plastificación de las rótulas se estima con expresiones simples. Como ductilidad de las rótulas a flexión se adopta el valor propuesto por la norma FEMA 356, mientras que para las rótulas a torsión se adopta ductilidad infinita, lo cual es consistente con resultados experimentales previos. Se muestra que la respuesta frente a desplazamientos laterales impuestos monótonamente crecientes obtenida con el modelo propuesto se ajusta adecuadamente a resultados experimentales obtenidos en estudios anteriores, en cuanto a rigidez, resistencia y ductilidad.
Resumo:
Estudio de la dinámica de una población donde los individuos son contribuyentes (pagadores de impuestos) o no mediante un autómata celular 2D
Resumo:
España ha experimentado un importante crecimiento económico en los últimos años. Dicho crecimiento ha venido acompañado de un gran aumento del stock de infraestructuras. Asimismo, ha habido un avance en el parque automotor hacia vehículos cada vez más eficientes en el consumo de combustible. Estas tres situaciones producen un desequilibrio entre las necesidades presupuestarias para mantener las infraestructuras y la recaudación lograda por el Estado con el mismo fin. Para dar solución a la problemática mencionada, en el marco del proyecto OASIS, se desarrolla un modelo tarifario teniendo en cuenta tres principios básicos; cobertura de costes de la infraestructura, incentivo al uso de vehículos que contaminan menos y simplicidad del esquema de tarifas para el usuario. El modelo incluye cada una de las actuales concesiones adjudicadas por el Estado en el momento en que revierten. No obstante, no se ha incluido de momento para el análisis la red competencia de las Comunidades Autónomas ni la red a cargo de Diputaciones y Cabildos. Asimismo, dentro del modelo se consideran hipótesis macroeconómicas, el crecimiento de la red, la evolución del tráfico, la evolución de las regiones de convergencia de la Unión Europea y la evolución del nivel de emisiones del parque automotor. Se dimensionan las necesidades de fondos a corto y largo plazo para mantener un crecimiento de la red acorde con algunos países de la Unión Europea. Las tarifas que hacen viable el sistema, o tarifas de equilibrio, se determinan con base en un modelo financiero inicialmente planteado sólo para la red competencia del Estado. Asimismo, mediante un análisis de sensibilidad se determina la variabilidad de las mencionadas tarifas con las principales hipótesis planteadas.
Resumo:
La tesis se articula en tres capítulos, estructurados siguiendo un proceso de extensión espacio temporal paralelo al que incumbe al cuerpo propio, entendiendo por tanto la fachada, es decir el rostro de la arquitectura (facies), como proyección directa de nuestra exterioridad y punto de registro de las alteraciones que afectan tanto a nuestra corporeidad como al objeto arquitectónico y al paisaje natural y urbano contemporáneo. El cuerpo, su esqueleto, su piel, su rostro, y las diferentes máscaras que filtran su relación con el mundo, se convierten en la clave para una lectura interdisciplinar de las mutaciones que se registran en las fronteras arquitectónicas. La extensión espacio temporal del cuerpo es el punto de partida de la investigación y la estructura misma de la tesis que se desarrolla con el siguiente criterio: la fachada en relación con el rostro y el cuerpo propio (relación: cuerpo arquitectura, rostro- fachada); la fachada en relación con el edificio; su separación y autonomía formal, estructural y comunicativa (relación: piel esqueleto; estructura revestimiento). la fachada con respecto al nuevo paisaje natural y urbano (rostro paisaje; fachada nueva ecología, en un contexto de hibridación tecnológica y artificialización del mundo). En el primer capítulo partimos portante del cuerpo propio, entendiendo que las diferentes formas, fachadas o rostros que vestidos, cosas y casas adquieren en el tiempo, son proyecciones directas de nuestra exterioridad en un proceso de extensión espacio temporal que es también un proceso de significación. Como ya avisaba Ortega, todas las extensiones del hombre, es decir los productos de la técnica y de la industria que el hombre construye para adaptarse a diferentes condiciones de vida, se convierten en instrumentos para clasificar socialmente una persona, y son por tanto máscaras o "estilos" que revelan las épocas correspondientes. Por La máscara y sus diferentes connotaciones se convierten en medios para analizar un proceso que nos sitúa finalmente en la "máscara electrónica", es decir una piel híbrida, mejorada y extendida hasta los límites propios del mundo, que responde a los cambios impuestos por la moda y a los devenires cada vez más acelerados. En el segundo capítulo nos situamos en la piel del objeto arquitectónico y en su proceso de desvinculación formal, estructural y comunicativo de la estructura, en un debate abierto con diferentes connotaciones entre revelar y enmascarar El proceso pasa por diferentes momentos históricos, destacando: el Renacimiento, como momento en el que se forja el término fachada, como resultado de una determinada manera de entender la representación arquitectónica, social y urbana; la Revolución Industrial, por la introducción de los nuevos materiales y sistemas de producción y consumo que se materializan en las Grandes Exposiciones Universales; finalmente la Posmodernidad, como momento en el que se forjan las bases de la "superficialidad posmoderna", como Jameson la define, desde el presupuesto de una necesidad de símbolos y significados que justifica las actitudes formales propias del final del siglo XX y las alteraciones en el límite que se perfilan en el nuevo milenio. En el tercer capítulo se investigan las consecuencias de esta desvinculación a nivel del paisaje natural y urbano, en una perspectiva de hibridación planetaria que pone en cuestión las clasificaciones tradicionales. La fachada es finalmente interfaz, término de raíz informática, que indica en sí mismo las alteraciones que afectan al límite, convertido en lugar, membrana osmótica y filtro de informaciones. La interfaz es una máscara pues, como la definición indica, remite al intercambio de información pero no al proceso que dicho intercambio determina El límite es por tanto un lugar, una entidad ensanchada e indeterminada en la que ocurren intercambios e interacciones que sólo se revelan a pocos selectos y que tienen en definitiva que quedar ocultas. En este lugar nos situamos para analizar las alteraciones contemporáneas que afectan a nuestras ciudades, objeto, como la piel del cuerpo propio, de la colonización despiadada del consumo de masa y de la tecnología electrónica. Por un lado el fascinante mundo interconectado y fluido de las redes y por otro lado ciudades cada vez más fragmentadas en las que los límites se multiplican, obligando a situamos con nuevas actitudes frente a un paisaje y a una naturaleza controlados con diferentes grados de manipulación. Si la fachada en su acepción tradicional suponía una actitud de continuidad urbana y de respecto de reglas compositivas determinadas, la piel es un territorio más abierto y flexible, que puede ser camuflado, enmascarado, desmaterializado con diferentes estrategias que son en definitiva respuestas a la dilatación y proliferación de los límites y a las necesidades de una sociedad en la que predomina el control en todas sus acepciones. La fachada tradicional aislaba, protegía y filtraba prudentemente las relaciones entre la esfera pública y la privada, al tiempo que revelaba el estatus y el rol de cada edificio en su contexto. La anulación de la fachada en la modernidad, tanto a nivel del objeto arquitectónico como de la ciudad misma, supone una actitud de rechazo frente a la máscara y la contraposición edificio - paisaje como entidades autónomas. El artefacto arquitectónico se concibe como objeto aislado y la propia ciudad crece de manera exacerbada anulando el sentido de la fachada tradicional. Hoy la sustitución de la fachada por la interfaz no deriva de una actitud moralista, pues la ética ha sido anulada por una estetización que ocupa todos los niveles de la sociedad y de la vida. Asumimos que la máscara, como ya decía Semper, siempre es necesaria, pero si la fachada era máscara social, la interfaz es una máscara electrónica, piel híbrida capaz de ser infinitamente colonizada y de responder a las exigencias de cambio que impone el mundo en el que vivimos. El campo de investigación queda abierto, perfilándose la posibilidad de imaginar una arquitectura menos preocupada por efectos formales y espectaculares, y más centrada hacia las posibilidades que ofrece la electrónica en su aplicación a la arquitectura como respuesta a las exigencias del hombre contemporáneo.
Resumo:
La preocupación medioambiental guía en la actualidad muchas de las estrategias globales y nacionales de aplicación al sector del transporte. En transporte aéreo, el impacto ambiental es importante, pero los beneficios socioeconómicos también lo son. El crecimiento del transporte aéreo es el mayor de los desafíos del sector. Por el momento, está limitado por el mantenimiento de la seguridad y por la disponibilidad de infraestructuras, pero el impacto ambiental puede convertirse en el principal factor limitador. El transporte aéreo presenta actualmente el mayor crecimiento de todos los modos de transporte. La aviación comercial se enfrenta al reto de tomar un papel activo en la búsqueda e impulso de soluciones para alcanzar la sostenibilidad del sector, por lo tanto es necesario realizar un diagnóstico de situación a través de unos indicadores y modelos adecuados que midan el impacto ambiental del transporte aéreo. Los tipos de impacto ambiental del transporte aéreo se pueden clasificar como de efecto local (ruido, contaminación de aire local, uso de espacio), o de efecto global (consumo de materiales no renovables, aportación al cambio climático). La gestión del impacto ambiental comprende, además de medidas de reducción técnicas, diversas posibilidades económicas, que utilizan mecanismos de mercado (acuerdos voluntarios entre administración, operadores y consumidores, o cualquier combinación de ellos, impuestos y tasas, comercio de emisiones). En este trabajo se pasa revista a las diferentes medidas de gestión del impacto ambiental que se están implantando, tanto de carácter técnico como de contenido económico. Algunas de estas medidas están ya en vigor, otras en estudio. El análisis se centra fundamentalmente en el seno de la Unión Europea, que ha adoptado un papel de liderazgo mundial en la adopción de regulaciones ambientales, y el objetivo final es sacar conclusiones sobre la repercusión de estas medidas en general, y sobre el transporte aéreo en particular.
Resumo:
Aparte de los razonamientos técnicos que se abordan en el artículo, el usar gasóleo agrícola (el denominado B) en vehículos no autorizados supone una infracción legal, una falta contra la hacienda pública. Concretamente se trata de una evasión de impuestos ya que el gasóleo agrícola se encuentra bonificado por el gobierno, es decir, se le suprimen una serie de impuestos para que al usuario autorizado, agricultor en este caso, le salga algo más barato. Pero ¿técnicamente, se puede usar gasóleo B en vehículos no agrícolas?
Resumo:
El objetivo de esta Tesis ha sido la consecución de simulaciones en tiempo real de vehículos industriales modelizados como sistemas multicuerpo complejos formados por sólidos rígidos. Para el desarrollo de un programa de simulación deben considerarse cuatro aspectos fundamentales: la modelización del sistema multicuerpo (tipos de coordenadas, pares ideales o impuestos mediante fuerzas), la formulación a utilizar para plantear las ecuaciones diferenciales del movimiento (coordenadas dependientes o independientes, métodos globales o topológicos, forma de imponer las ecuaciones de restricción), el método de integración numérica para resolver estas ecuaciones en el tiempo (integradores explícitos o implícitos) y finalmente los detalles de la implementación realizada (lenguaje de programación, librerías matemáticas, técnicas de paralelización). Estas cuatro etapas están interrelacionadas entre sí y todas han formado parte de este trabajo. Desde la generación de modelos de una furgoneta y de camión con semirremolque, el uso de tres formulaciones dinámicas diferentes, la integración de las ecuaciones diferenciales del movimiento mediante métodos explícitos e implícitos, hasta el uso de funciones BLAS, de técnicas de matrices sparse y la introducción de paralelización para utilizar los distintos núcleos del procesador. El trabajo presentado en esta Tesis ha sido organizado en 8 capítulos, dedicándose el primero de ellos a la Introducción. En el Capítulo 2 se presentan dos formulaciones semirrecursivas diferentes, de las cuales la primera está basada en una doble transformación de velocidades, obteniéndose las ecuaciones diferenciales del movimiento en función de las aceleraciones relativas independientes. La integración numérica de estas ecuaciones se ha realizado con el método de Runge-Kutta explícito de cuarto orden. La segunda formulación está basada en coordenadas relativas dependientes, imponiendo las restricciones por medio de penalizadores en posición y corrigiendo las velocidades y aceleraciones mediante métodos de proyección. En este segundo caso la integración de las ecuaciones del movimiento se ha llevado a cabo mediante el integrador implícito HHT (Hilber, Hughes and Taylor), perteneciente a la familia de integradores estructurales de Newmark. En el Capítulo 3 se introduce la tercera formulación utilizada en esta Tesis. En este caso las uniones entre los sólidos del sistema se ha realizado mediante uniones flexibles, lo que obliga a imponer los pares por medio de fuerzas. Este tipo de uniones impide trabajar con coordenadas relativas, por lo que la posición del sistema y el planteamiento de las ecuaciones del movimiento se ha realizado utilizando coordenadas Cartesianas y parámetros de Euler. En esta formulación global se introducen las restricciones mediante fuerzas (con un planteamiento similar al de los penalizadores) y la estabilización del proceso de integración numérica se realiza también mediante proyecciones de velocidades y aceleraciones. En el Capítulo 4 se presenta una revisión de las principales herramientas y estrategias utilizadas para aumentar la eficiencia de las implementaciones de los distintos algoritmos. En primer lugar se incluye una serie de consideraciones básicas para aumentar la eficiencia numérica de las implementaciones. A continuación se mencionan las principales características de los analizadores de códigos utilizados y también las librerías matemáticas utilizadas para resolver los problemas de álgebra lineal tanto con matrices densas como sparse. Por último se desarrolla con un cierto detalle el tema de la paralelización en los actuales procesadores de varios núcleos, describiendo para ello el patrón empleado y las características más importantes de las dos herramientas propuestas, OpenMP y las TBB de Intel. Hay que señalar que las características de los sistemas multicuerpo problemas de pequeño tamaño, frecuente uso de la recursividad, y repetición intensiva en el tiempo de los cálculos con fuerte dependencia de los resultados anteriores dificultan extraordinariamente el uso de técnicas de paralelización frente a otras áreas de la mecánica computacional, tales como por ejemplo el cálculo por elementos finitos. Basándose en los conceptos mencionados en el Capítulo 4, el Capítulo 5 está dividido en tres secciones, una para cada formulación propuesta en esta Tesis. En cada una de estas secciones se describen los detalles de cómo se han realizado las distintas implementaciones propuestas para cada algoritmo y qué herramientas se han utilizado para ello. En la primera sección se muestra el uso de librerías numéricas para matrices densas y sparse en la formulación topológica semirrecursiva basada en la doble transformación de velocidades. En la segunda se describe la utilización de paralelización mediante OpenMP y TBB en la formulación semirrecursiva con penalizadores y proyecciones. Por último, se describe el uso de técnicas de matrices sparse y paralelización en la formulación global con uniones flexibles y parámetros de Euler. El Capítulo 6 describe los resultados alcanzados mediante las formulaciones e implementaciones descritas previamente. Este capítulo comienza con una descripción de la modelización y topología de los dos vehículos estudiados. El primer modelo es un vehículo de dos ejes del tipo chasis-cabina o furgoneta, perteneciente a la gama de vehículos de carga medianos. El segundo es un vehículo de cinco ejes que responde al modelo de un camión o cabina con semirremolque, perteneciente a la categoría de vehículos industriales pesados. En este capítulo además se realiza un estudio comparativo entre las simulaciones de estos vehículos con cada una de las formulaciones utilizadas y se presentan de modo cuantitativo los efectos de las mejoras alcanzadas con las distintas estrategias propuestas en esta Tesis. Con objeto de extraer conclusiones más fácilmente y para evaluar de un modo más objetivo las mejoras introducidas en la Tesis, todos los resultados de este capítulo se han obtenido con el mismo computador, que era el top de la gama Intel Xeon en 2007, pero que hoy día está ya algo obsoleto. Por último los Capítulos 7 y 8 están dedicados a las conclusiones finales y las futuras líneas de investigación que pueden derivar del trabajo realizado en esta Tesis. Los objetivos de realizar simulaciones en tiempo real de vehículos industriales de gran complejidad han sido alcanzados con varias de las formulaciones e implementaciones desarrolladas. ABSTRACT The objective of this Dissertation has been the achievement of real time simulations of industrial vehicles modeled as complex multibody systems made up by rigid bodies. For the development of a simulation program, four main aspects must be considered: the modeling of the multibody system (types of coordinates, ideal joints or imposed by means of forces), the formulation to be used to set the differential equations of motion (dependent or independent coordinates, global or topological methods, ways to impose constraints equations), the method of numerical integration to solve these equations in time (explicit or implicit integrators) and the details of the implementation carried out (programming language, mathematical libraries, parallelization techniques). These four stages are interrelated and all of them are part of this work. They involve the generation of models for a van and a semitrailer truck, the use of three different dynamic formulations, the integration of differential equations of motion through explicit and implicit methods, the use of BLAS functions and sparse matrix techniques, and the introduction of parallelization to use the different processor cores. The work presented in this Dissertation has been structured in eight chapters, the first of them being the Introduction. In Chapter 2, two different semi-recursive formulations are shown, of which the first one is based on a double velocity transformation, thus getting the differential equations of motion as a function of the independent relative accelerations. The numerical integration of these equations has been made with the Runge-Kutta explicit method of fourth order. The second formulation is based on dependent relative coordinates, imposing the constraints by means of position penalty coefficients and correcting the velocities and accelerations by projection methods. In this second case, the integration of the motion equations has been carried out by means of the HHT implicit integrator (Hilber, Hughes and Taylor), which belongs to the Newmark structural integrators family. In Chapter 3, the third formulation used in this Dissertation is presented. In this case, the joints between the bodies of the system have been considered as flexible joints, with forces used to impose the joint conditions. This kind of union hinders to work with relative coordinates, so the position of the system bodies and the setting of the equations of motion have been carried out using Cartesian coordinates and Euler parameters. In this global formulation, constraints are introduced through forces (with a similar approach to the penalty coefficients) are presented. The stabilization of the numerical integration is carried out also by velocity and accelerations projections. In Chapter 4, a revision of the main computer tools and strategies used to increase the efficiency of the implementations of the algorithms is presented. First of all, some basic considerations to increase the numerical efficiency of the implementations are included. Then the main characteristics of the code’ analyzers used and also the mathematical libraries used to solve linear algebra problems (both with dense and sparse matrices) are mentioned. Finally, the topic of parallelization in current multicore processors is developed thoroughly. For that, the pattern used and the most important characteristics of the tools proposed, OpenMP and Intel TBB, are described. It needs to be highlighted that the characteristics of multibody systems small size problems, frequent recursion use and intensive repetition along the time of the calculation with high dependencies of the previous results complicate extraordinarily the use of parallelization techniques against other computational mechanics areas, as the finite elements computation. Based on the concepts mentioned in Chapter 4, Chapter 5 is divided into three sections, one for each formulation proposed in this Dissertation. In each one of these sections, the details of how these different proposed implementations have been made for each algorithm and which tools have been used are described. In the first section, it is shown the use of numerical libraries for dense and sparse matrices in the semirecursive topological formulation based in the double velocity transformation. In the second one, the use of parallelization by means OpenMP and TBB is depicted in the semi-recursive formulation with penalization and projections. Lastly, the use of sparse matrices and parallelization techniques is described in the global formulation with flexible joints and Euler parameters. Chapter 6 depicts the achieved results through the formulations and implementations previously described. This chapter starts with a description of the modeling and topology of the two vehicles studied. The first model is a two-axle chassis-cabin or van like vehicle, which belongs to the range of medium charge vehicles. The second one is a five-axle vehicle belonging to the truck or cabin semi-trailer model, belonging to the heavy industrial vehicles category. In this chapter, a comparative study is done between the simulations of these vehicles with each one of the formulations used and the improvements achieved are presented in a quantitative way with the different strategies proposed in this Dissertation. With the aim of deducing the conclusions more easily and to evaluate in a more objective way the improvements introduced in the Dissertation, all the results of this chapter have been obtained with the same computer, which was the top one among the Intel Xeon range in 2007, but which is rather obsolete today. Finally, Chapters 7 and 8 are dedicated to the final conclusions and the future research projects that can be derived from the work presented in this Dissertation. The objectives of doing real time simulations in high complex industrial vehicles have been achieved with the formulations and implementations developed.
Resumo:
El objetivo del presente trabajo es determinar la localización óptima de una planta de producción de 30.000 m3/año de bioetanol a partir de tubérculos de pataca (Helianthus tuberosus L.) cultivada en regadío, en tierras de barbecho de la Cuenca Hidrográfica del Duero (CH Duero). Inicialmente se elaboró, a partir de datos bibliográficos, un modelo de producción de pataca en base a una ecuación de regresión que relaciona datos experimentales de rendimientos de variedades tardías con variables agroclimáticas. Así se obtuvo una función de producción basada en la cantidad de agua disponible (precipitación efectiva + dosis de riego) y en la radiación global acumulada en el periodo brotación‐senescencia del cultivo. A continuación se estima la superficie potencial de cultivo de pataca en la CH Duero a partir de la superficie arable en regadío cartografiada por el Sistema de Ocupación del Suelo (SIOSE), a la cual se le aplican, en base a los requerimientos del cultivo, unas restricciones climáticas, edafológicas, topográficas y logísticas mediante el uso de Sistemas de Información Geográfica (SIG). La proporción de superficie de regadío restringida se cuantifica a escala municipal con el fin de calcular la superficie de barbecho en regadío apta para el cultivo de pataca. A partir de las bases de datos georreferenciadas de precipitación, radiación global, y la dotación de agua para el riego de cultivos no específicos establecida en el Plan Hidrológico de la Cuenca del Duero a escala comarcal, se estimó la producción potencial de tubérculos de pataca sobre la superficie de barbecho de regadío según el modelo de producción elaborado. Así, en las 53.360 ha de barbecho en regadío aptas para el cultivo de pataca se podrían producir 3,8 Mt de tubérculos al año (80 % de humedad) (761.156 t ms/año) de los que se podría obtener 304.462 m3/año de bioetanol, considerando un rendimiento en la transformación de 12,5 kg mf/l de etanol. Se estiman los costes de las labores de cultivo de pataca así como los costes de la logística de suministro a una planta de transformación considerando una distancia media de transporte de 25 km, en base a las hojas de cálculo de utilización de aperos y maquinaria agrícola oficiales del Ministerio de Agricultura, Alimentación y Medio Ambiente (MAGRAMA). Considerando el balance de costes asociados a la producción de bioetanol (costes de transformación, distribución y transporte del producto, costes estructurales de la planta, ahorro de costes por la utilización de las vinazas generadas en el proceso como fertilizante y un beneficio industrial), se ha estimado que el coste de producción de bioetanol a partir de tubérculos de pataca asciende a 61,03 c€/l. Se calculan los beneficios fiscales para el Estado por el cultivo de 5.522 ha de pataca que suministren la materia prima necesaria para una planta de bioetanol de 30.000 m3/año, en concepto de cotizaciones a la Seguridad Social de los trabajadores, impuestos sobre el valor añadido de los productos consumidos, impuesto sobre sociedades y ahorro de las prestaciones por desempleo. Se obtuvieron unos beneficios fiscales de 10,25 c€ por litro de bioetanol producido. El coste de producción de bioetanol depende del rendimiento de tubérculos por hectárea y de la distancia de transporte desde las zonas de producción de la materia prima hasta la planta. Se calculó la distancia máxima de transporte para que el precio de coste del bioetanol producido sea competitivo con el precio de mercado del bioetanol. Como resultado se determinó que el precio del bioetanol (incluido un beneficio industrial del 15%) de la planta sería igual o inferior al precio de venta en el mercado (66,35 c€/l) con una distancia máxima de transporte de 25 km y un rendimiento mínimo del cultivo de 60,1 t mf/ha. Una vez conocido el área de influencia de la planta según la distancia de transporte máxima, se determinó la localización óptima de la planta de producción de bioetanol mediante un proceso de ubicación‐asignación realizado con SIG. Para ello se analizan los puntos candidatos a la ubicación de la planta según el cumplimiento de unos requerimientos técnicos establecidos (distancia a fuentes de suministro eléctrico y de recursos hídricos, distancia a estaciones de ferrocarril, distancia a núcleos urbanos y existencia de Espacios Naturales Protegidos) que minimizan la distancia de transporte maximizando la cantidad de biomasa disponible según la producción potencial estimada anteriormente. Por último, la superficie destinada al cultivo de pataca en el área de influencia de la planta se determina en base a un patrón de distribución del cultivo alrededor de una agroindustria. Dicho patrón se ha obtenido a partir del análisis del grado de ocupación del cultivo de la remolacha en función de la distancia de transporte a la planta azucarera de Miranda de Ebro (Burgos). El patrón resultante muestra que la relación entre el grado de ocupación del suelo por el cultivo y la distancia de transporte a la planta siguen una ecuación logística. La localización óptima que se ha obtenido mediante la metodología descrita se ubica en el municipio leonés de El Burgo Ranero, donde la producción potencial de tubérculos de pataca en la superficie de barbecho situada en un radio de acción de 25 km es de 375.665 t mf/año, superando las 375.000 t mf requeridas anualmente por la planta de bioetanol. ABSTRACT Jerusalem artichoke (Helianthus tuberosus L.) is a harsh crop with a high potential for biomass production. Its main use is related to bioethanol production from the carbohydrates, inulin mainly, accumulated in its tubers at the end of the crop cycle. The aerial biomass could be used as solid biofuel to provide energy to the bioethanol production process. Therefore, Jerusalem artichoke is a promising crop as feedstock for biofuel production in order to achieve the biofuels consumption objectives established by the Government of Spain (PER 2011‐2020 and RDL 4/2013) and the European Union (Directive 2009/28/EC). This work aims at the determination of the optimal location for a 30,000 m3/year bioethanol production plant from Jerusalem artichoke tubers in the Duero river basin. With this purpose, a crop production model was developed by means of a regression equation that relates experimental yield data of late Jerusalem artichoke varieties with pedo‐climatic parameters from a bibliographic data matrix. The resulting crop production model was based on the crop water availability (including effective rainfall and irrigation water supplied) and on global radiation accumulated in the crop emergence‐senescence period. The crop potential cultivation area for Jerusalem artichoke in the Duero basin was estimated using the georeferenced irrigated arable land from the “Sistema de Ocupación del Suelo” (SIOSE) of Spain. Climatic, soil, slope and logistic restrictions were considered by means of Geographic Information Systems (GIS). The limited potential growing area was then applied to a municipality scale in order to calculate the amount of fallow land suitable for Jerusalem artichoke production. Rainfall and global radiation georeferenced layers as well as data of irrigation water supply for crop production (established within the Duero Hydrologic Plan) were use to estimate the potential production of Jerusalem artichoke tubers in the suitable fallow land according to the crop production model. As a result of this estimation, there are 53,360 ha of fallow land suitable for Jerusalem artichoke production in the Duero basin, where 3.8 M t fm/year could be produced. Considering a bioethanol processing yield of 12.5 kg mf per liter of bioethanol, the above mentioned tuber potential production could be processed in 304,462 m3/year of bioethanol. The Jerusalem crop production costs and the logistic supply costs (considering an average transport distance of 25 km) were estimated according to official agricultural machinery cost calculation sheets of the Minister of Agriculture of Spain (MAGRAMA). The bioethanol production cost from Jerusalem artichoke tubers was calculated considering bioethanol processing, transport and structural costs, industrial profits as well as plant cost savings from the use of vinasses as fertilizer. The resulting bioetanol production cost from Jerusalem artichoke tubers was 61.03 c€/l. Additionally, revenues for the state coffers regarding Social Security contributions, added value taxes of consumed raw materials, corporation tax and unemployment benefit savings due to the cultivation of 5,522 ha of Jerusalem artichoke for the 30.000 m3/year bioethanol plant supply were calculated. The calculated revenues amounted to 10.25 c€/l. Bioethanol production cost and consequently the bioethanol plant economic viability are strongly related to the crop yield as well as to road transport distance from feedstock production areas to the processing plant. The previously estimated bioethanol production cost was compared to the bioethanol market price in order to determine the maximum supply transport distance and the minimum crop yield to reach the bioethanol plant economic viability. The results showed that the proposed plant would be economically viable at a maximum transport distance of 25 km and at a crop yield not less than 60.1 t fm/ha. By means of a GIS location‐allocation analysis, the optimal bioethanol plant location was determined. Suitable candidates were detected according to several plant technical requirements (distance to power and water supply sources, distance to freight station, and distance to urban areas and to Natural Protected Areas). The optimal bioethanol plant location must minimize the supply transport distance whereas it maximizes the amount of available biomass according to the previously estimated biomass potential production. Lastly, the agricultural area around the bioethanol plant finally dedicated to Jerusalem artichoke cultivation was planned according to a crop distribution model. The crop distribution model was established from the analysis of the relation between the sugar beet (Beta vulgaris L.) cropping area and the road transport distance from the sugar processing plant of Miranda de Ebro (Burgos, North of Spain). The optimal location was situated in the municipality of ‘El Burgo Ranero’ in the province of León. The potential production of Jerusalem artichoke tubers in the fallow land within 25 km distance from the plant location was 375,665 t fm/year, which exceeds the amount of biomass yearly required by the bioethanol plant.
Resumo:
Se presenta en este trabajo un nuevo enfoque del M.E.C., según el cual el refinamiento de la solución se logra mediante incremento del número de funciones de forma, en contraposición al tradicional de refinamiento de la discretización. De esta forma se consigue una convergencia más rápida, y de forma automática. Asimismo la discretización del contorno se realiza de una forma natural, viniendo los puntos que la definen impuestos por cambios de geometría o condiciones de contorno solamente. Como conclusión, cabe señalar que la idea de jerarquías de funciones de ínterpolación permite discretizar el contorno en elementos naturales de acuerdo con las discontinuidades previsibles en las variables del problema. Se puede mejorar de una forma independiente y automática la aproximación tanto en diferentes elementos como en las variables esenciales y naturales del problema. Se puede reducir el cálculo de integrales (la parte mas costosa del M.E.C.) al mínimo imprescindible. Se produce un mejor condicionamiento de la matriz y se debilitan los acoplamientos sucesivos. Toda la información precisa es aprovechada al máximo al pasar de una aproximación a la siguiente, lo que facilita el uso de soluciones iterativas.