897 resultados para RECAUDACIÓN DE IMPUESTOS


Relevância:

10.00% 10.00%

Publicador:

Resumo:

El tema de la guerra civil española no puede comprenderse cabalmente sin estudiar tanto el clima social y político anterior al enfrentamiento bélico como el proceso de liquidación de este trascendente hecho histórico. El bando triunfante pretendió que el cese de las operaciones militares ponía fin a la guerra, pero ésta no terminó entonces para la mayoría de los españoles. Durante muchos años continuó el uso de la fuerza, en forma unilateral bajo la forma de una sangrienta represión en el orden interno y un largo exilio de los vencidos. Otros hechos son los sufrimientos morales y psicológicos impuestos, los perjuicios culturales ocasionados, el destierro y su repercusión sobre millones de hogares. También pesan los quebrantos económicos y sociales sobre el bienestar general Para apreciar la forma elegida por el régimen franquista para liquidar la guerra civil española resulta ilustrativo detallar algunos aspectos de la modalidad puesta en práctica, cuyo fracaso pone de manifiesto la mezquindad con que actuó el régimen dictatorial.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En los últimos años Mar del Plata está intentando pasar de ser una ciudad balnearia para ser una ciudad turística. Por esto las estrategias turísticas surgidas desde los organismos oficiales han sido posicionar a la ciudad bajo el lema 'Mar del Plata todo el año'. En esto, el alojamiento y básicamente el sector hotelero, juegan un rol fundamental. Además, la industria hotelera es una de las que mayor empleo genera en las ciudades en las que se ubica. Nuestro estudio se focaliza en el sector hotelero y sus recursos humanos, analizando los cambios en el trabajo impuestos por las nuevas condiciones y la globalización y como esto repercute en la Salud Ocupacional del sector: las consultas por patologías originadas en el trabajo o afectadas por él, se han multiplicado en forma alarmante. Enfermedades psicosomáticas, ataques de pánico, depresión, burn out, víctimas de mobbing, etc., sin olvidar las gastritis, contracturas cervicales, lumbalgias o reacciones alérgicas varias, síntomas contemporáneos que se han incorporado casi naturalmente a nuestro estilo de vida. La epidemiología concibe el fenómeno salud enfermedad, como un proceso dinámico en que se pasa de un estado a otro, repetidamente en un proceso de búsqueda permanente del equilibrio, en el que inciden factores de orden social, político, sanitario, genético, ecológico, demográfico, cultural, etc.. La salud ocupacional permite el enriquecimiento humano y profesional en el trabajo. Para la Organización Internacional del Trabajo (OIT, 1984) los factores psicosociales en el trabajo, consisten por un lado en interacciones entre el trabajo, su medio ambiente, la satisfacción en el trabajo y las condiciones de su organización, y por el otro, en las capacidades del trabajador, sus necesidades, su cultura y su situación personal fuera del trabajo, todo lo cual, a través de percepciones y experiencias, puede influir en el rendimiento y la satisfacción en el trabajo y afectar la salud del trabajador. El grupo GIPsIL de la Universidad Nacional de Mar del Plata, se ha propuesto una investigación en el sector hotelero, tan importante de la realidad marplatense. El grupo es interdisciplinario, conformado por Lic. En Psicología, Lic. En Turismo, Lic. En Administración, Contador, y estudiantes interesados en el tema Existen distintas conceptualizaciones y formas diferentes de medir el engagement, que impiden la formulación de una única definición sintética. Adherimos a un modelo en el que el engagement, entendido como estado psicológico está mediando el impacto de los recursos laborales y de los recursos personales en los resultados organizacionales. Esto significa que los recursos tanto laborales como personales tienen un impacto indirecto en los resultados organizacionales a través del estado psicológico de los trabajadores. Para incrementar el engagement de los empleados, se debe saber no sólo qué es y cómo medirlo, sino también cuáles son sus causas y sus consecuencias. El engagement se considera el antídoto positivo del Burnout. Para los trabajadores engaged, el trabajo es algo positivo porque disfrutan con y de lo que hacen. En cambio, los trabajadores quemados o con Burnout, se sienten agotados y fatigados, tienen actitudes cínicas y escépticas sobre su trabajo, y se sienten mal en ellos. Ambos tipos de bienestar psicosocial son opuestos se ilustra en la correlación negativa que existe entre Burnout y engagement

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el presente artículo se compara la información sobre población y ocupación de las tierras de la Guardia de Luján con los datos económicos que brinda el impuesto de la Contribución Directa para la primera mitad del siglo XIX y, específicamente, para analizar la década de 1840. El objetivo es mostrar el dinamismo de esta sociedad. Si bien esta cuestión fue tempranamente advertida y luego desarrollada por trabajos de largo alcance, aquí se aportan datos desde la historia local porque posibilitan observar el proceso más detalladamente (sobre todo uno de sus rasgos característicos: la movilidad ascendente y descendente) no sólo en el largo plazo sino también en el corto. En este sentido, este trabajo aporta al estudio sobre el crecimiento económico y la distribución de la riqueza discriminando los sujetos sociales involucrados y observando la evolución de sus patrimonios

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Energy management has always been recognized as a challenge in mobile systems, especially in modern OS-based mobile systems where multi-functioning are widely supported. Nowadays, it is common for a mobile system user to run multiple applications simultaneously while having a target battery lifetime in mind for a specific application. Traditional OS-level power management (PM) policies make their best effort to save energy under performance constraint, but fail to guarantee a target lifetime, leaving the painful trading off between the total performance of applications and the target lifetime to the user itself. This thesis provides a new way to deal with the problem. It is advocated that a strong energy-aware PM scheme should first guarantee a user-specified battery lifetime to a target application by restricting the average power of those less important applications, and in addition to that, maximize the total performance of applications without harming the lifetime guarantee. As a support, energy, instead of CPU or transmission bandwidth, should be globally managed as the first-class resource by the OS. As the first-stage work of a complete PM scheme, this thesis presents the energy-based fair queuing scheduling, a novel class of energy-aware scheduling algorithms which, in combination with a mechanism of battery discharge rate restricting, systematically manage energy as the first-class resource with the objective of guaranteeing a user-specified battery lifetime for a target application in OS-based mobile systems. Energy-based fair queuing is a cross-application of the traditional fair queuing in the energy management domain. It assigns a power share to each task, and manages energy by proportionally serving energy to tasks according to their assigned power shares. The proportional energy use establishes proportional share of the system power among tasks, which guarantees a minimum power for each task and thus, avoids energy starvation on any task. Energy-based fair queuing treats all tasks equally as one type and supports periodical time-sensitive tasks by allocating each of them a share of system power that is adequate to meet the highest energy demand in all periods. However, an overly conservative power share is usually required to guarantee the meeting of all time constraints. To provide more effective and flexible support for various types of time-sensitive tasks in general purpose operating systems, an extra real-time friendly mechanism is introduced to combine priority-based scheduling into the energy-based fair queuing. Since a method is available to control the maximum time one time-sensitive task can run with priority, the power control and time-constraint meeting can be flexibly traded off. A SystemC-based test-bench is designed to assess the algorithms. Simulation results show the success of the energy-based fair queuing in achieving proportional energy use, time-constraint meeting, and a proper trading off between them. La gestión de energía en los sistema móviles está considerada hoy en día como un reto fundamental, notándose, especialmente, en aquellos terminales que utilizando un sistema operativo implementan múltiples funciones. Es común en los sistemas móviles actuales ejecutar simultaneamente diferentes aplicaciones y tener, para una de ellas, un objetivo de tiempo de uso de la batería. Tradicionalmente, las políticas de gestión de consumo de potencia de los sistemas operativos hacen lo que está en sus manos para ahorrar energía y satisfacer sus requisitos de prestaciones, pero no son capaces de proporcionar un objetivo de tiempo de utilización del sistema, dejando al usuario la difícil tarea de buscar un compromiso entre prestaciones y tiempo de utilización del sistema. Esta tesis, como contribución, proporciona una nueva manera de afrontar el problema. En ella se establece que un esquema de gestión de consumo de energía debería, en primer lugar, garantizar, para una aplicación dada, un tiempo mínimo de utilización de la batería que estuviera especificado por el usuario, restringiendo la potencia media consumida por las aplicaciones que se puedan considerar menos importantes y, en segundo lugar, maximizar las prestaciones globales sin comprometer la garantía de utilización de la batería. Como soporte de lo anterior, la energía, en lugar del tiempo de CPU o el ancho de banda, debería gestionarse globalmente por el sistema operativo como recurso de primera clase. Como primera fase en el desarrollo completo de un esquema de gestión de consumo, esta tesis presenta un algoritmo de planificación de encolado equitativo (fair queueing) basado en el consumo de energía, es decir, una nueva clase de algoritmos de planificación que, en combinación con mecanismos que restrinjan la tasa de descarga de una batería, gestionen de forma sistemática la energía como recurso de primera clase, con el objetivo de garantizar, para una aplicación dada, un tiempo de uso de la batería, definido por el usuario, en sistemas móviles empotrados. El encolado equitativo de energía es una extensión al dominio de la energía del encolado equitativo tradicional. Esta clase de algoritmos asigna una reserva de potencia a cada tarea y gestiona la energía sirviéndola de manera proporcional a su reserva. Este uso proporcional de la energía garantiza que cada tarea reciba una porción de potencia y evita que haya tareas que se vean privadas de recibir energía por otras con un comportamiento más ambicioso. Esta clase de algoritmos trata a todas las tareas por igual y puede planificar tareas periódicas en tiempo real asignando a cada una de ellas una reserva de potencia que es adecuada para proporcionar la mayor de las cantidades de energía demandadas por período. Sin embargo, es posible demostrar que sólo se consigue cumplir con los requisitos impuestos por todos los plazos temporales con reservas de potencia extremadamente conservadoras. En esta tesis, para proporcionar un soporte más flexible y eficiente para diferentes tipos de tareas de tiempo real junto con el resto de tareas, se combina un mecanismo de planificación basado en prioridades con el encolado equitativo basado en energía. En esta clase de algoritmos, gracias al método introducido, que controla el tiempo que se ejecuta con prioridad una tarea de tiempo real, se puede establecer un compromiso entre el cumplimiento de los requisitos de tiempo real y el consumo de potencia. Para evaluar los algoritmos, se ha diseñado en SystemC un banco de pruebas. Los resultados muestran que el algoritmo de encolado equitativo basado en el consumo de energía consigue el balance entre el uso proporcional a la energía reservada y el cumplimiento de los requisitos de tiempo real.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La temperatura es una preocupación que juega un papel protagonista en el diseño de circuitos integrados modernos. El importante aumento de las densidades de potencia que conllevan las últimas generaciones tecnológicas ha producido la aparición de gradientes térmicos y puntos calientes durante el funcionamiento normal de los chips. La temperatura tiene un impacto negativo en varios parámetros del circuito integrado como el retardo de las puertas, los gastos de disipación de calor, la fiabilidad, el consumo de energía, etc. Con el fin de luchar contra estos efectos nocivos, la técnicas de gestión dinámica de la temperatura (DTM) adaptan el comportamiento del chip en función en la información que proporciona un sistema de monitorización que mide en tiempo de ejecución la información térmica de la superficie del dado. El campo de la monitorización de la temperatura en el chip ha llamado la atención de la comunidad científica en los últimos años y es el objeto de estudio de esta tesis. Esta tesis aborda la temática de control de la temperatura en el chip desde diferentes perspectivas y niveles, ofreciendo soluciones a algunos de los temas más importantes. Los niveles físico y circuital se cubren con el diseño y la caracterización de dos nuevos sensores de temperatura especialmente diseñados para los propósitos de las técnicas DTM. El primer sensor está basado en un mecanismo que obtiene un pulso de anchura variable dependiente de la relación de las corrientes de fuga con la temperatura. De manera resumida, se carga un nodo del circuito y posteriormente se deja flotando de tal manera que se descarga a través de las corrientes de fugas de un transistor; el tiempo de descarga del nodo es la anchura del pulso. Dado que la anchura del pulso muestra una dependencia exponencial con la temperatura, la conversión a una palabra digital se realiza por medio de un contador logarítmico que realiza tanto la conversión tiempo a digital como la linealización de la salida. La estructura resultante de esta combinación de elementos se implementa en una tecnología de 0,35 _m. El sensor ocupa un área muy reducida, 10.250 nm2, y consume muy poca energía, 1.05-65.5nW a 5 muestras/s, estas cifras superaron todos los trabajos previos en el momento en que se publicó por primera vez y en el momento de la publicación de esta tesis, superan a todas las implementaciones anteriores fabricadas en el mismo nodo tecnológico. En cuanto a la precisión, el sensor ofrece una buena linealidad, incluso sin calibrar; se obtiene un error 3_ de 1,97oC, adecuado para tratar con las aplicaciones de DTM. Como se ha explicado, el sensor es completamente compatible con los procesos de fabricación CMOS, este hecho, junto con sus valores reducidos de área y consumo, lo hacen especialmente adecuado para la integración en un sistema de monitorización de DTM con un conjunto de monitores empotrados distribuidos a través del chip. Las crecientes incertidumbres de proceso asociadas a los últimos nodos tecnológicos comprometen las características de linealidad de nuestra primera propuesta de sensor. Con el objetivo de superar estos problemas, proponemos una nueva técnica para obtener la temperatura. La nueva técnica también está basada en las dependencias térmicas de las corrientes de fuga que se utilizan para descargar un nodo flotante. La novedad es que ahora la medida viene dada por el cociente de dos medidas diferentes, en una de las cuales se altera una característica del transistor de descarga |la tensión de puerta. Este cociente resulta ser muy robusto frente a variaciones de proceso y, además, la linealidad obtenida cumple ampliamente los requisitos impuestos por las políticas DTM |error 3_ de 1,17oC considerando variaciones del proceso y calibrando en dos puntos. La implementación de la parte sensora de esta nueva técnica implica varias consideraciones de diseño, tales como la generación de una referencia de tensión independiente de variaciones de proceso, que se analizan en profundidad en la tesis. Para la conversión tiempo-a-digital, se emplea la misma estructura de digitalización que en el primer sensor. Para la implementación física de la parte de digitalización, se ha construido una biblioteca de células estándar completamente nueva orientada a la reducción de área y consumo. El sensor resultante de la unión de todos los bloques se caracteriza por una energía por muestra ultra baja (48-640 pJ) y un área diminuta de 0,0016 mm2, esta cifra mejora todos los trabajos previos. Para probar esta afirmación, se realiza una comparación exhaustiva con más de 40 propuestas de sensores en la literatura científica. Subiendo el nivel de abstracción al sistema, la tercera contribución se centra en el modelado de un sistema de monitorización que consiste de un conjunto de sensores distribuidos por la superficie del chip. Todos los trabajos anteriores de la literatura tienen como objetivo maximizar la precisión del sistema con el mínimo número de monitores. Como novedad, en nuestra propuesta se introducen nuevos parámetros de calidad aparte del número de sensores, también se considera el consumo de energía, la frecuencia de muestreo, los costes de interconexión y la posibilidad de elegir diferentes tipos de monitores. El modelo se introduce en un algoritmo de recocido simulado que recibe la información térmica de un sistema, sus propiedades físicas, limitaciones de área, potencia e interconexión y una colección de tipos de monitor; el algoritmo proporciona el tipo seleccionado de monitor, el número de monitores, su posición y la velocidad de muestreo _optima. Para probar la validez del algoritmo, se presentan varios casos de estudio para el procesador Alpha 21364 considerando distintas restricciones. En comparación con otros trabajos previos en la literatura, el modelo que aquí se presenta es el más completo. Finalmente, la última contribución se dirige al nivel de red, partiendo de un conjunto de monitores de temperatura de posiciones conocidas, nos concentramos en resolver el problema de la conexión de los sensores de una forma eficiente en área y consumo. Nuestra primera propuesta en este campo es la introducción de un nuevo nivel en la jerarquía de interconexión, el nivel de trillado (o threshing en inglés), entre los monitores y los buses tradicionales de periféricos. En este nuevo nivel se aplica selectividad de datos para reducir la cantidad de información que se envía al controlador central. La idea detrás de este nuevo nivel es que en este tipo de redes la mayoría de los datos es inútil, porque desde el punto de vista del controlador sólo una pequeña cantidad de datos |normalmente sólo los valores extremos| es de interés. Para cubrir el nuevo nivel, proponemos una red de monitorización mono-conexión que se basa en un esquema de señalización en el dominio de tiempo. Este esquema reduce significativamente tanto la actividad de conmutación sobre la conexión como el consumo de energía de la red. Otra ventaja de este esquema es que los datos de los monitores llegan directamente ordenados al controlador. Si este tipo de señalización se aplica a sensores que realizan conversión tiempo-a-digital, se puede obtener compartición de recursos de digitalización tanto en tiempo como en espacio, lo que supone un importante ahorro de área y consumo. Finalmente, se presentan dos prototipos de sistemas de monitorización completos que de manera significativa superan la características de trabajos anteriores en términos de área y, especialmente, consumo de energía. Abstract Temperature is a first class design concern in modern integrated circuits. The important increase in power densities associated to recent technology evolutions has lead to the apparition of thermal gradients and hot spots during run time operation. Temperature impacts several circuit parameters such as speed, cooling budgets, reliability, power consumption, etc. In order to fight against these negative effects, dynamic thermal management (DTM) techniques adapt the behavior of the chip relying on the information of a monitoring system that provides run-time thermal information of the die surface. The field of on-chip temperature monitoring has drawn the attention of the scientific community in the recent years and is the object of study of this thesis. This thesis approaches the matter of on-chip temperature monitoring from different perspectives and levels, providing solutions to some of the most important issues. The physical and circuital levels are covered with the design and characterization of two novel temperature sensors specially tailored for DTM purposes. The first sensor is based upon a mechanism that obtains a pulse with a varying width based on the variations of the leakage currents on the temperature. In a nutshell, a circuit node is charged and subsequently left floating so that it discharges away through the subthreshold currents of a transistor; the time the node takes to discharge is the width of the pulse. Since the width of the pulse displays an exponential dependence on the temperature, the conversion into a digital word is realized by means of a logarithmic counter that performs both the timeto- digital conversion and the linearization of the output. The structure resulting from this combination of elements is implemented in a 0.35_m technology and is characterized by very reduced area, 10250 nm2, and power consumption, 1.05-65.5 nW at 5 samples/s, these figures outperformed all previous works by the time it was first published and still, by the time of the publication of this thesis, they outnumber all previous implementations in the same technology node. Concerning the accuracy, the sensor exhibits good linearity, even without calibration it displays a 3_ error of 1.97oC, appropriate to deal with DTM applications. As explained, the sensor is completely compatible with standard CMOS processes, this fact, along with its tiny area and power overhead, makes it specially suitable for the integration in a DTM monitoring system with a collection of on-chip monitors distributed across the chip. The exacerbated process fluctuations carried along with recent technology nodes jeop-ardize the linearity characteristics of the first sensor. In order to overcome these problems, a new temperature inferring technique is proposed. In this case, we also rely on the thermal dependencies of leakage currents that are used to discharge a floating node, but now, the result comes from the ratio of two different measures, in one of which we alter a characteristic of the discharging transistor |the gate voltage. This ratio proves to be very robust against process variations and displays a more than suficient linearity on the temperature |1.17oC 3_ error considering process variations and performing two-point calibration. The implementation of the sensing part based on this new technique implies several issues, such as the generation of process variations independent voltage reference, that are analyzed in depth in the thesis. In order to perform the time-to-digital conversion, we employ the same digitization structure the former sensor used. A completely new standard cell library targeting low area and power overhead is built from scratch to implement the digitization part. Putting all the pieces together, we achieve a complete sensor system that is characterized by ultra low energy per conversion of 48-640pJ and area of 0.0016mm2, this figure outperforms all previous works. To prove this statement, we perform a thorough comparison with over 40 works from the scientific literature. Moving up to the system level, the third contribution is centered on the modeling of a monitoring system consisting of set of thermal sensors distributed across the chip. All previous works from the literature target maximizing the accuracy of the system with the minimum number of monitors. In contrast, we introduce new metrics of quality apart form just the number of sensors; we consider the power consumption, the sampling frequency, the possibility to consider different types of monitors and the interconnection costs. The model is introduced in a simulated annealing algorithm that receives the thermal information of a system, its physical properties, area, power and interconnection constraints and a collection of monitor types; the algorithm yields the selected type of monitor, the number of monitors, their position and the optimum sampling rate. We test the algorithm with the Alpha 21364 processor under several constraint configurations to prove its validity. When compared to other previous works in the literature, the modeling presented here is the most complete. Finally, the last contribution targets the networking level, given an allocated set of temperature monitors, we focused on solving the problem of connecting them in an efficient way from the area and power perspectives. Our first proposal in this area is the introduction of a new interconnection hierarchy level, the threshing level, in between the monitors and the traditional peripheral buses that applies data selectivity to reduce the amount of information that is sent to the central controller. The idea behind this new level is that in this kind of networks most data are useless because from the controller viewpoint just a small amount of data |normally extreme values| is of interest. To cover the new interconnection level, we propose a single-wire monitoring network based on a time-domain signaling scheme that significantly reduces both the switching activity over the wire and the power consumption of the network. This scheme codes the information in the time domain and allows a straightforward obtention of an ordered list of values from the maximum to the minimum. If the scheme is applied to monitors that employ TDC, digitization resource sharing is achieved, producing an important saving in area and power consumption. Two prototypes of complete monitoring systems are presented, they significantly overcome previous works in terms of area and, specially, power consumption.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente tesis propone una metodología para medir variables de impacto socio económico en la ciudad Puerto de Valparaíso, como una alternativa que permite evaluar la asignación del uso y explotación del borde costero. La ciudad de Valparaíso se formó al alero de la actividad marítima portuaria, en sus comienzos esta actividad fue el motor de desarrollo económico de la ciudad, sus habitantes mantenían una alta dependencia de ésta actividad, formando una identidad y cultura portuaria. Con la decadencia de la actividad portuaria, producto principalmente a la construcción del canal de Panamá y a la modernización de los buques de transporte aumentando su distancia franqueable1, la ciudad fue dejando su dependencia de esta actividad. Hoy en día casi la totalidad del borde costero de la ciudad está asignado a las actividades portuarias con escasa participación laboral de los habitantes de la ciudad y una alta demanda urbana por el uso del borde costero. Por otra parte, la ciudad ha presentado en la última década altos niveles de cesantía, cuestionándose la verdadera utilidad de mantener un puerto en la ciudad. La investigación de la tesis permitió dimensionar la cantidad de firmas y actividades económicas que se desarrollaban en torno a la actividad marítima portuaria en la ciudad, cuantificando los empleos que éstas otorgaban a la ciudad, los niveles de remuneraciones, los tributos a la municipalidad de la ciudad, el aporte al comercio local, entre otros. Descubriéndose hallazgos que permiten reflexionar sobre la importancia del la actividad en el desarrollo económico actual y futuro de la ciudad. También los antecedentes obtenidos permiten contribuir a la evaluación de proyectos alternativos para el uso y explotación del borde costero. La metodología utilizada también puede ser adaptada para medir los beneficios de otras ciudades puertos en el mundo. Los resultados obtenidos fueron expuestos a las autoridades gubernamentales locales, presentados en seminarios y congresos nacionales e internacionales, como en la prensa local; los más destacados son: la actividad otorga 12.727 empleos directos e indirectos que corresponden al 12% de la fuerza laboral ocupada; la actividad representa el 19% del Producto Interno Bruto de la ciudad; la actividad aporta un 21% al presupuesto municipal por concepto de recaudación de tributos y representan un 11% del presupuesto total asignado al municipio por el Estado de Chile. El sector industrial marítimo-portuario de la ciudad sigue siendo la actividad industrial más relevante en la ciudad y demanda el desarrollo de una planificación estratégica que permita vincular la actividad turística de la ciudad vecina de Viña del Mar con la actividad portuaria de Valparaíso. Para lograr tal objetivo es necesario realizar cambios en los atributos de las operaciones portuarias que permitan ofrecer productos asociados al turismo. This thesis proposes a methodology to measure the socio economic variables in the port city of Valparaiso, as an alternative to evaluate the allocation of the usage and exploitation of the coastline. The city of Valparaiso was formed to advance the port maritime activity and in the beginning this activity was the engine of economic development of the city. Its inhabitants remained highly dependent on it and formed a port identity and culture. With the decline of port activity, mainly due to the construction of the Panama Canal and the modernization of the transport vessels increasing distances, the city lost its dependence on this activity. Today almost all of the coastline of the city is assigned to port activities with very little labor participation of the inhabitants of the city and a high demand for the use of urban waterfront. Moreover, the city has shown high levels of unemployment in the past decade, questioning the true value of maintaining a port in the city. The research of this thesis provides insights into the number of firms and economic activities that were developed around the port maritime activity in the city, quantifying the jobs they gave to the city, the levels of pay, taxes to the municipality of city and the contribution to local commerce, among others. The findings discovered allow reflexions on the importance of the activity in the current and future economic development of the city. The data obtained also allows a contribution of the evaluation of alternative projects for the use and exploitation of the coastline. The methodology can also be adapted to measure the benefits of other port cities in the world. The results were presented to local government authorities, at seminars and national and international conferences, and in the local press. The most important finding are: the activity maritime port activity provides 12,727 direct and indirect jobs that are 12% of the employed labor force; activity represents which is 19% of the GDP of the city, the activity contributes 21% to the municipal budget by way of the collection of taxes and represents 11% of the total budget allocated to the municipality by the Republic of Chile. The industrial maritime port sector of the city remains the most important industrial activity in the city and demands the development of strategic planning to link the tourism in the neighboring city of Viña del Mar and to the Valparaiso port activity. To achieve this goal it is necessary to make changes to the attributes of port operations that allow the offering of products associated with tourism.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No tenemos conocimiento de ninguna red de caminos prerromanos que sirvieran como base de una posible malla territorial de España. Sin embargo, una sociedad prerromana sin caminos, por muy fragmentada y aislada que fuera, es algo improbable y mucho menos en la Edad del Hierro. Por eso en época prerromana existían infinidad de caminos, muchos de los cuales hoy han desaparecido y otros han sobrevivido, casi siempre con sus recorridos mejorados. Los pueblos prerromanos aprovecharon vías naturales de comunicación (ríos, vados, valles, puertos naturales, llanuras, etc.) para tender sus caminos. En sus orígenes no siguieron pautas concretas, si no que los caminos se originaban por el tránsito (de personas, ganados, mercancías, etc.) de un lugar a otro. De este modo la red viaria prerromana era caótica y anárquica: todo camino tenía numerosos ramales y variantes, según las necesidades. Pendientes excesivas, anchuras variables, etc., en decir eran vías espontáneas, surgidas sin ninguna planificación aparente. Los recorridos en general eran cortos, aunque algunas investigaciones actuales están demostrando que algunas de las cañadas ganaderas más importantes, como la Galiana, y de largo recorrido, eran de origen prerromano. En el caso de la península Ibérica, y más concretamente en el caso de la Meseta, el territorio estaba fragmentado en diversos pueblos y tribus, agrupados según criterios étnicos y culturales y con contactos con los pueblos próximos que motivan la preponderancia de caminos de recorrido cortos. Solo la necesidad de llevar los rebaños (de cabras y ovejas sobre todo) desde las serranías en verano a las llanuras en invierno, motivaría viajes más largos en los que algunas cañadas ganaderas jugarían un papel más importante. Con la llegada de los romanaos, se implantó en Hispania una densa red viaria, cuya construcción se prolongó durante toda la dominación romana, siendo reparadas muchas calzadas y vías en varias ocasiones. En época romana la red caminera era variada y estaba constituida por “las calzadas” que comunicaban puntos importantes, eran muy transitadas, de ahí que la administración romana las mantuviera siempre en buen estado, para asegurar el intercambio comercial entre zonas distintas, cobro de impuestos, etc. “Los caminos de tierra (viae terrenae)” que además de las calzadas, que podemos asemejar a las actuales carreteras de primer y segundo orden, constituían la infinidad de caminos locales y comarcales. Los trazados se realizaron unos en época romana, y otros muchos apoyándose en los caminos de la época prerromana, éstas vías no se realizaban buscando el recorrido más corto entre dos puntos, ni tampoco el más cómodo y con un firme estructural de menor importancia que en las calzadas. Tampoco estaban hechos para un tipo concreto de transporte, por lo que nos encontraríamos algunos que por su anchura permitían el paso de carros, y otros que sólo permitirían el paso a pie, a caballo o en burro. Solían ser, como hemos indicado, caminos de tierra con acabados en zahorras y recorridos en su mayor parte cortos y medianos. Dentro de la malla territorial de España las calzadas constituirían las denominadas “viae publicae” que constituían la red principal y esqueleto vertebrador de Hispania. Los caminos de tierra constituirían los denominados “actus” caminos de carácter regional que configuraban la mayor parte de la red. Muchas de las “viae publicae” y de los “actus” tendrían su origen en las “viae militares” que habrían sido los primeros construidos, apoyándose en muchas ocasiones en los caminos prerromanos, por los romanos para realizar la conquista de Hispania y que luego con la Paz romana habrían tenido otro tipo de uso. Dentro de estas “viae militares” tuvieron una importancia relevancia aquellas que se utilizaron en la conquista de la Celtiberia, culminada con la caída de Numantia. Dentro de ellas tuvo una importancia fundamental la vía romana del río Alhama, objeto de esta Tesis, que facilitaría el desplazamiento de los ejércitos romanos desde Graccurris, primera ciudad romana fundada en el Ebro medio, hasta Numantia. Desde la época Augusta, la vía romana del río Alhama, pasaría a formar parte de los denominados “actus” formando parte de la malla territorial de la Península Ibérica como vía de comunicación entre la Meseta y el Ebro Medio. We do not have knowledge of any network of ways prerromanos that were serving as base of a possible territorial mesh of Spain. Nevertheless, a company prerromana without ways, for very fragmented and isolated that was, is something improbable and great less in the Age of the Iron. Because of it in epoch prerromana existed infinity of ways, many of which today have disappeared and others have survived, almost always with his improved tours. The people prerromanos took advantage of natural routes of communication (rivers, fords, valleys, natural ports, plains, etc.) to stretch his ways. In his origins concrete guidelines did not continue, if not that the ways were originating for the traffic (of persons, cattle, goods, etc.) to and from. Thus the network viaria prerromana was chaotic and anarchic: all way had numerous branches and variants, according to the needs. Excessive slopes, variable widths, etc., in saying were spontaneous routes arisen without no apparent planning. The tours in general were short, though some current investigations are demonstrating that some of the most important cattle glens, as the Galiana, and of crossed length, were of origin prerromano. In case of the Iberian Peninsula, and more concretely in case of the Plateau, the territory was fragmented in diverse peoples and tribes, grouped according to ethnic and cultural criteria and with contacts with the near peoples that motivate the prevalence of short ways of tour. Only the need to take the flocks (of goats and sheeps especially) from the mountainous countries in summer to the plains in winter, would motivate longer trips in which some cattle glens would play a more important paper. With the arrival of the romanos, a dense network was implanted in Roman Spain viaria, whose construction extended during the whole Roman domination, being repaired many causeways and routes in several occasions. In Roman epoch the pertaining to roads network was changed and constituted by " the causeways " that were communicating important points, they were very travelled, of there that the Roman administration was supporting always in good condition, to assure the commercial exchange between different zones, collection of taxes, etc. "The dirt tracks (viae terrenae)" that besides the causeways, which we can make alike to the current roads of the first and second order, were constituting the infinity of local and regional ways. The tracings were realized some in Roman epoch, and great others resting on the ways of the epoch prerromana, these routes were not realized looking for the most short tour neither between points, two nor neither most comfortable and with a structural road surface of minor importance that in the causeways. They were not also done for a concrete type of transport, for what some of us would think that for his width they were allowing the step of cars, and others that only would allow the step afoot, astride or in donkey. They were in the habit of being, since we have indicated, dirt tracks with ended in zahorras and tours in his most short and medium. Inside the territorial mesh of Spain the causeways would constitute the called ones "viae publicae" that constituted the principal network and skeleton vertebrador of Roman Spain. The dirt tracks would constitute the "actus” called ways of regional character that were forming most of the network. Many of "viae publicae" and of the "actus" they would have his origin in " viae military" that would have been the first ones constructed, resting on many occasions on the ways prerromanos, for the Romans to realize the conquest of Roman Spain and that then with the Roman Peace they would have had another type of use. Inside these "viae military" had an importance relevancy those that were in use in the conquest of the Celtiberia, reached with Numantia's fall. Inside them a fundamental importance had the Roman route of the river Alhama, object of this Thesis, which would facilitate the displacement of the Roman armies from Graccurris, the first Roman city been founded on the average Ebro, up to Numantia. From the August epoch, the Roman route of the river Alhama, would happen to form a part of the "actus” forming a part of the territorial mesh of the Iberian Peninsula as road link between the Plateau and the Average Ebro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El alcance de este proyecto consiste en elaborar el plan anual teórico de una compañía distribuidora de productos petrolíferos, que tiene como objetivo mantener los niveles de cuota en el mercado nacional de carburantes de estaciones de servicio, evaluando las rentabilidades conseguidas. El mercado de carburantes de automoción esta reduciéndose de forma importante desde el comienzo de la crisis, por lo que es necesario realizar un análisis profundo de ingresos (ventas y márgenes) y costes (fijos y variables), así como de las inversiones a realizar. Se deduce del estudio que la rentabilidad de la compañía es relativamente alta pero viene dada por un gran número de variables, internas y externas a la propia compañía. En definitiva, el negocio de las estaciones de servicio se basa en un producto con muy bajo margen e impuestos muy altos y es por ello que la competencia a nivel de precios esta muy limitada. Además y dado el nivel de inversiones y costes es necesario un volumen de ventas alto para poder conseguir superar el punto de equilibrio económico. ABSTRACT The scope of this project is to develop the theoretical annual plan of an oil products distribution company, which aims to maintain the levels of market share in the service stations market, assessing the returns achieved. The motor fuels market is decreasing significantly since the beginning of the crisis, making it necessary to conduct a thorough analysis of revenue (sales and margins) and costs (fixed and variable), as well as investments to be made . It follows from the study that the company's profitability is relatively high but is given by a large number of variables, internals and externals to the company. In short, the service stations business is based on a product with very low margin and that is the reason that the price competition level is very limited. Moreover, given the level of investments and costs is necessary to sale a high volume in order to get beyond the break even.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Unión Europea ha criticado el carácter legal del desembolso en concepto de Impuesto sobre las Ventas Minoristas de Determinados Hidrocarburos (IVMDH) que el sector del transporte por carretera viene realizando en los últimos años, particularmente desde el año 2005. El presente artículo indaga en las características legales del IVMDH, también conocido como céntimo sanitario, la recaudación de las Autonomías en este concepto y el coste que ha supuesto para el sector profesional del transporte por carretera, así como el importe que podría ser devuelto a estas empresas dependiendo de su flota de vehículos y de la Autonomía en la que operen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las estructuras de forjados reticulares sobre pilares aislados han sido ampliamente utilizadas en el sur de Europa para edificios de viviendas y oficinas entre los a?nos setenta y noventa del siglo pasado. Estas estructuras, proyectadas y construidas con códigos actualmente obsoletos, podrían tener un comportamiento deficiente en caso de terremoto y es necesario evaluar su vulnerabilidad y la necesidad de ser reacondicionadas sísmicamente. Este artículo propone un modelo sencillo de transmisión de esfuerzos en uniones existentes entre forjado reticular y soporte exterior, solicitadas en la dirección normal al plano de fachada. La propuesta tiene en cuenta particularidades de estos forjados tales como la concentración de armaduras orientadas con los nervios y la presencia sistemática de crucetas de punzonamiento. El modelo global consiste en elementos tipo barra para los soportes y tipo placa para el forjado, con uniones entre ambos mediante rótulas a flexión y a torsión. La resistencia de las rótulas a flexión se determina a partir de la estimación de la porción de armadura longitudinal del forjado que transmite directamente momentos al pilar por flexión. La deformación de plastificación de las rótulas se estima con expresiones simples. Como ductilidad de las rótulas a flexión se adopta el valor propuesto por la norma FEMA 356, mientras que para las rótulas a torsión se adopta ductilidad infinita, lo cual es consistente con resultados experimentales previos. Se muestra que la respuesta frente a desplazamientos laterales impuestos monótonamente crecientes obtenida con el modelo propuesto se ajusta adecuadamente a resultados experimentales obtenidos en estudios anteriores, en cuanto a rigidez, resistencia y ductilidad.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Estudio de la dinámica de una población donde los individuos son contribuyentes (pagadores de impuestos) o no mediante un autómata celular 2D

Relevância:

10.00% 10.00%

Publicador:

Resumo:

España ha experimentado un importante crecimiento económico en los últimos años. Dicho crecimiento ha venido acompañado de un gran aumento del stock de infraestructuras. Asimismo, ha habido un avance en el parque automotor hacia vehículos cada vez más eficientes en el consumo de combustible. Estas tres situaciones producen un desequilibrio entre las necesidades presupuestarias para mantener las infraestructuras y la recaudación lograda por el Estado con el mismo fin. Para dar solución a la problemática mencionada, en el marco del proyecto OASIS, se desarrolla un modelo tarifario teniendo en cuenta tres principios básicos; cobertura de costes de la infraestructura, incentivo al uso de vehículos que contaminan menos y simplicidad del esquema de tarifas para el usuario. El modelo incluye cada una de las actuales concesiones adjudicadas por el Estado en el momento en que revierten. No obstante, no se ha incluido de momento para el análisis la red competencia de las Comunidades Autónomas ni la red a cargo de Diputaciones y Cabildos. Asimismo, dentro del modelo se consideran hipótesis macroeconómicas, el crecimiento de la red, la evolución del tráfico, la evolución de las regiones de convergencia de la Unión Europea y la evolución del nivel de emisiones del parque automotor. Se dimensionan las necesidades de fondos a corto y largo plazo para mantener un crecimiento de la red acorde con algunos países de la Unión Europea. Las tarifas que hacen viable el sistema, o tarifas de equilibrio, se determinan con base en un modelo financiero inicialmente planteado sólo para la red competencia del Estado. Asimismo, mediante un análisis de sensibilidad se determina la variabilidad de las mencionadas tarifas con las principales hipótesis planteadas.