938 resultados para Impuestos-Legislacion
Resumo:
Esta ponencia analiza la usabilidad, mutación y dominio de una interfaz multimedia determinada con un enfoque tecnológico sociocultural, económico y productivo; partiendo de la utilización, masificación, mercantilización y difusión de contenidos electrónicos que culminan en procesos de domesticación de los mismos para su posterior remediación. La construcción de lenguajes en tanto actividades concretas dentro de interfases de uso común, están presentes en el marco de practicas culturales que sectores de la población mantienen al seno de sus vidas cotidianas. Así, el usuario apropia, consume y reinterpreta lenguajes impuestos mediante la creación de otros nuevos, que destaquen/condicionen la utilización de dispositivos e interfases dadas. Reflexionando entonces, sobre el affordance entre el usuario y la máquina en tanto intercambio comunicativo; esta ponencia toma como ejemplo el registro 'amateur' de la gira Lights In The Sky de la agrupación Nine Inch Nails en 2007 entendiendo que, a partir de la estandarización de formatos de transmisión de datos, particularmente de tecnologías aplicadas a la difusión e intercambio de contenidos musicales, nos ubicamos al frente de un nuevo punto de partida, condicionado y potenciado por un ciclo de experiencias y desarrollo lingüístico que ha corrido de la mano del ciclo tecnológico de la ultima década
Resumo:
El presente trabajo busca aportar a la comprensión de la intervención política de la burguesía agraria pampeana, tomando como observable las acciones y los posicionamientos de las corporaciones rurales en un momento de crisis política. Los estudios sobre el tema han tendido a sobreestimar las diferencias entre productores chicos ("chacareros") y grandes ("oligarquía"), lo que ha eclipsado el estudio de los momentos de confluencia, que tienen por lo menos 40 años de historia en la Argentina. Luego de discutir el enfoque predominante en la bibliografía, abordaremos la conformación, en 1970, de la Comisión de Enlace, en la que confluyeron Federación Agraria, CONINAGRO, Confederaciones Rurales Argentinas y Sociedad Rural. Recurriendo a periódicos de tirada nacional y documentos institucionales de las corporaciones, reconstruiremos los acuerdos en torno a los que se estructuró esta alianza y su intervención concreta.
Resumo:
En la actualidad, son muchos los autores que se dedican a investigar las psicosis, tanto como la clínica psicoanalítica posible en este campo. La época de los alienistas supuestamente ya pasó. El psicoanálisis, desde Sigmund Freud, es uno de los discursos que sostiene el sujeto del síntoma, y, porque no decirlo, el sujeto de la locura. Tal discurso, en términos generales, da lugar al ser hablante, legitimando su palabra. La palabra del loco -subrayadas las diferencias entre locura y psicosis- se da a escuchar; y, nuevamente, interroga el lugar de aquél que en su escucha se propone a estar. Es a partir de este punto, que el presente escrito pretende avanzar. Para eso, hace falta retroceder y rescatar cierta intuición freudiana ante a las psicosis. Reconocemos que en el campo psicoanalítico aún persiste cierto modo de teorizar la psicosis que boicotea su propio avance: la psicosis muchas veces es leída desde el lugar de déficit. Pensamos que tal supuesto tiene como base la idea de que laestructura es una, y que es la de la neurosis. El contrapunto de la psicosis con la neurosis, por cierto tiempo, hizo consistir a las psicosis. Ciertamente cumplió una función, pero actualmente representa una suerte de traba al avance de la clínica de las psicosis. Necesitamos, cada vez más, profundizar en lo propio de la psicosis. Y, para eso, hace falta correrse del lugar de déficit. Freud, sostenido en su escucha clínica, interrogó los alienistas. Desde su postura investigativa y clínica, sostuvo el lugarde la psicosis, más allá de los límites impuestos por su propio desarrollo teórico. Entonces, nos interesa seguir la intuición clínica de Freud, dejarnos llevar por sus inquietudes. ¿Qué función cumple el 'no analizable' de la psicosis en la obra de Freud? Entendemos que analizar el lugar que ocupa las psicosis en la obra de Freud es interrogar las posibles funciones de lo 'no analizable' en su desarrollo teórico; remarcando, a partir de ahí, las huellas de su intuición clínica en este particular campo. Si la neurosis es el objeto freudiano de estudio, ¿por qué el autor escribe tanto sobre las psicosis al desarrollar la constitución psíquica del sujeto? ¿Qué busca Freud en las psicosis? Sostenemos que, por un lado, Freud le confiere a la psicosis el particular lugar de garante de la teoría psicoanalítica; y, por otro, denuncia, a partir de su escucha clínica, las huellas de cierta suposición de saber o posición subjetiva. Con relación al saber en la psicosis, a veces tal saber alcanza tamaña verdad que dialoga de igual a igual con el investigador. Buscaremos sostener tal lectura de la obra de Freud, en el campo de la psicosis, a partir del análisis de algunos textos freudianos, dedicados a la constitución psíquica del sujeto. Entendemos que es un desafío avanzar en el campo de la psicosis sin remitirse al déficit. Un desafío que nos convoca diariamente en la clínica con estos sujetos; y que, por su complejidad, sostiene de modo particular el deseo del analista
Resumo:
En el marco de la investigación centrada en el estudio de la relación entre técnica y política desde la experiencia de formación del equipo de economía de la Provincia de Buenos Aires en el período 1987-2007, en esta comunicación me detengo en uno de los ejes del trabajo iniciado: la producción de conocimiento para las políticas públicas. Me propongo explorar las estrategias que el equipo de economía de la Provincia de Buenos Aires desarrolló para fundar las decisiones de política adoptadas en el período considerado, teniendo en cuenta dos fuentes de conocimiento: el producido en la Facultad de Ciencias Económicas de la UNLP, y el generado dentro del mismo Ministerio de Economía. En este plano, interesa indagar en torno de las tensiones entre ambos tipos de producción de conocimiento, y la experiencia de gestión como 'escuela de formación' propia y original. El análisis se circunscribe a dos cuestiones: la política fiscal -particularmente el problema de la coparticipación federal de impuestos- y la reforma del estado provincial, sobre la base de las publicaciones del Ministerio de Economía (Cuadernos de Economía y Noticias de Economía), entrevistas a informantes calificados y otra documentación producida dentro del Ministerio
Resumo:
La década del '90 marcó una fuerte aceleración del proceso de concentración económica de la producción agrícola pampeana, evolución que continuaría tras la devaluación de 2002. En la determinación del mismo convergen distintos factores: las economías de escala, el manejo cambiario, la evolución tecnológica (entre otros). En este trabajo se estudia uno de estos condicionantes: la política impositiva del Estado Nacional. Se analizan los tributos que gravan al agro y sus alícuotas, diferenciando según la escala y perfil tecnológico del productor, calculando un indicador de la presión fiscal (peso de los tributos sobre el ingreso bruto de la explotación). Se concluye que en el nuevo siglo se produjo una nivelación importante en cuanto a los montos impositivos requeridos por el Estado a los distintos tipos de agentes, lo que minimizó la posibilidad que tiene éste a partir de aquella herramienta de modelar una trama social más desconcentrada
Resumo:
El tema de la guerra civil española no puede comprenderse cabalmente sin estudiar tanto el clima social y político anterior al enfrentamiento bélico como el proceso de liquidación de este trascendente hecho histórico. El bando triunfante pretendió que el cese de las operaciones militares ponía fin a la guerra, pero ésta no terminó entonces para la mayoría de los españoles. Durante muchos años continuó el uso de la fuerza, en forma unilateral bajo la forma de una sangrienta represión en el orden interno y un largo exilio de los vencidos. Otros hechos son los sufrimientos morales y psicológicos impuestos, los perjuicios culturales ocasionados, el destierro y su repercusión sobre millones de hogares. También pesan los quebrantos económicos y sociales sobre el bienestar general Para apreciar la forma elegida por el régimen franquista para liquidar la guerra civil española resulta ilustrativo detallar algunos aspectos de la modalidad puesta en práctica, cuyo fracaso pone de manifiesto la mezquindad con que actuó el régimen dictatorial.
Resumo:
En el presente trabajo, hemos indagado en la asimétrica relación existente entre los mundos urbano y rural desde un punto de vista relacional, en el marco del cual, identificamos una clara dependencia del primero frente al segundo. Además de ello, el agro aporta tributos de toda índole. Así, a partir de la actividad agropecuaria nacional, los distintos estamentos del Estado desarrollan su estructura tributaria. Un capítulo aparte merece el sistema de coparticipación federal de impuestos. Este, implica que la Nación se hará cargo de la recaudación y posterior distribución de aquellos tributos nacionales coparticipables, entre Nación y Provincias. Se encuentra pendiente la sanción de un nuevo régimen de coparticipación federal de tributos. Inmejorable oportunidad para desarrollar un sistema contemplativo de las necesidades actuales y postergadas del sector rural. Además, nos encontramos inmersos en procesos crónicos de macrocefalia urbana, convirtiéndose éstas en verdaderas megalópolis (Ledrut, 1971) donde los continuos edificados predominan por la escasa, deficitaria y/o nula planificación (Reca, 2002) complejizando aún más las problemáticas mencionadas
Resumo:
En los últimos años Mar del Plata está intentando pasar de ser una ciudad balnearia para ser una ciudad turística. Por esto las estrategias turísticas surgidas desde los organismos oficiales han sido posicionar a la ciudad bajo el lema 'Mar del Plata todo el año'. En esto, el alojamiento y básicamente el sector hotelero, juegan un rol fundamental. Además, la industria hotelera es una de las que mayor empleo genera en las ciudades en las que se ubica. Nuestro estudio se focaliza en el sector hotelero y sus recursos humanos, analizando los cambios en el trabajo impuestos por las nuevas condiciones y la globalización y como esto repercute en la Salud Ocupacional del sector: las consultas por patologías originadas en el trabajo o afectadas por él, se han multiplicado en forma alarmante. Enfermedades psicosomáticas, ataques de pánico, depresión, burn out, víctimas de mobbing, etc., sin olvidar las gastritis, contracturas cervicales, lumbalgias o reacciones alérgicas varias, síntomas contemporáneos que se han incorporado casi naturalmente a nuestro estilo de vida. La epidemiología concibe el fenómeno salud enfermedad, como un proceso dinámico en que se pasa de un estado a otro, repetidamente en un proceso de búsqueda permanente del equilibrio, en el que inciden factores de orden social, político, sanitario, genético, ecológico, demográfico, cultural, etc.. La salud ocupacional permite el enriquecimiento humano y profesional en el trabajo. Para la Organización Internacional del Trabajo (OIT, 1984) los factores psicosociales en el trabajo, consisten por un lado en interacciones entre el trabajo, su medio ambiente, la satisfacción en el trabajo y las condiciones de su organización, y por el otro, en las capacidades del trabajador, sus necesidades, su cultura y su situación personal fuera del trabajo, todo lo cual, a través de percepciones y experiencias, puede influir en el rendimiento y la satisfacción en el trabajo y afectar la salud del trabajador. El grupo GIPsIL de la Universidad Nacional de Mar del Plata, se ha propuesto una investigación en el sector hotelero, tan importante de la realidad marplatense. El grupo es interdisciplinario, conformado por Lic. En Psicología, Lic. En Turismo, Lic. En Administración, Contador, y estudiantes interesados en el tema Existen distintas conceptualizaciones y formas diferentes de medir el engagement, que impiden la formulación de una única definición sintética. Adherimos a un modelo en el que el engagement, entendido como estado psicológico está mediando el impacto de los recursos laborales y de los recursos personales en los resultados organizacionales. Esto significa que los recursos tanto laborales como personales tienen un impacto indirecto en los resultados organizacionales a través del estado psicológico de los trabajadores. Para incrementar el engagement de los empleados, se debe saber no sólo qué es y cómo medirlo, sino también cuáles son sus causas y sus consecuencias. El engagement se considera el antídoto positivo del Burnout. Para los trabajadores engaged, el trabajo es algo positivo porque disfrutan con y de lo que hacen. En cambio, los trabajadores quemados o con Burnout, se sienten agotados y fatigados, tienen actitudes cínicas y escépticas sobre su trabajo, y se sienten mal en ellos. Ambos tipos de bienestar psicosocial son opuestos se ilustra en la correlación negativa que existe entre Burnout y engagement
Resumo:
En el presente artículo se compara la información sobre población y ocupación de las tierras de la Guardia de Luján con los datos económicos que brinda el impuesto de la Contribución Directa para la primera mitad del siglo XIX y, específicamente, para analizar la década de 1840. El objetivo es mostrar el dinamismo de esta sociedad. Si bien esta cuestión fue tempranamente advertida y luego desarrollada por trabajos de largo alcance, aquí se aportan datos desde la historia local porque posibilitan observar el proceso más detalladamente (sobre todo uno de sus rasgos característicos: la movilidad ascendente y descendente) no sólo en el largo plazo sino también en el corto. En este sentido, este trabajo aporta al estudio sobre el crecimiento económico y la distribución de la riqueza discriminando los sujetos sociales involucrados y observando la evolución de sus patrimonios
Resumo:
Energy management has always been recognized as a challenge in mobile systems, especially in modern OS-based mobile systems where multi-functioning are widely supported. Nowadays, it is common for a mobile system user to run multiple applications simultaneously while having a target battery lifetime in mind for a specific application. Traditional OS-level power management (PM) policies make their best effort to save energy under performance constraint, but fail to guarantee a target lifetime, leaving the painful trading off between the total performance of applications and the target lifetime to the user itself. This thesis provides a new way to deal with the problem. It is advocated that a strong energy-aware PM scheme should first guarantee a user-specified battery lifetime to a target application by restricting the average power of those less important applications, and in addition to that, maximize the total performance of applications without harming the lifetime guarantee. As a support, energy, instead of CPU or transmission bandwidth, should be globally managed as the first-class resource by the OS. As the first-stage work of a complete PM scheme, this thesis presents the energy-based fair queuing scheduling, a novel class of energy-aware scheduling algorithms which, in combination with a mechanism of battery discharge rate restricting, systematically manage energy as the first-class resource with the objective of guaranteeing a user-specified battery lifetime for a target application in OS-based mobile systems. Energy-based fair queuing is a cross-application of the traditional fair queuing in the energy management domain. It assigns a power share to each task, and manages energy by proportionally serving energy to tasks according to their assigned power shares. The proportional energy use establishes proportional share of the system power among tasks, which guarantees a minimum power for each task and thus, avoids energy starvation on any task. Energy-based fair queuing treats all tasks equally as one type and supports periodical time-sensitive tasks by allocating each of them a share of system power that is adequate to meet the highest energy demand in all periods. However, an overly conservative power share is usually required to guarantee the meeting of all time constraints. To provide more effective and flexible support for various types of time-sensitive tasks in general purpose operating systems, an extra real-time friendly mechanism is introduced to combine priority-based scheduling into the energy-based fair queuing. Since a method is available to control the maximum time one time-sensitive task can run with priority, the power control and time-constraint meeting can be flexibly traded off. A SystemC-based test-bench is designed to assess the algorithms. Simulation results show the success of the energy-based fair queuing in achieving proportional energy use, time-constraint meeting, and a proper trading off between them. La gestión de energía en los sistema móviles está considerada hoy en día como un reto fundamental, notándose, especialmente, en aquellos terminales que utilizando un sistema operativo implementan múltiples funciones. Es común en los sistemas móviles actuales ejecutar simultaneamente diferentes aplicaciones y tener, para una de ellas, un objetivo de tiempo de uso de la batería. Tradicionalmente, las políticas de gestión de consumo de potencia de los sistemas operativos hacen lo que está en sus manos para ahorrar energía y satisfacer sus requisitos de prestaciones, pero no son capaces de proporcionar un objetivo de tiempo de utilización del sistema, dejando al usuario la difícil tarea de buscar un compromiso entre prestaciones y tiempo de utilización del sistema. Esta tesis, como contribución, proporciona una nueva manera de afrontar el problema. En ella se establece que un esquema de gestión de consumo de energía debería, en primer lugar, garantizar, para una aplicación dada, un tiempo mínimo de utilización de la batería que estuviera especificado por el usuario, restringiendo la potencia media consumida por las aplicaciones que se puedan considerar menos importantes y, en segundo lugar, maximizar las prestaciones globales sin comprometer la garantía de utilización de la batería. Como soporte de lo anterior, la energía, en lugar del tiempo de CPU o el ancho de banda, debería gestionarse globalmente por el sistema operativo como recurso de primera clase. Como primera fase en el desarrollo completo de un esquema de gestión de consumo, esta tesis presenta un algoritmo de planificación de encolado equitativo (fair queueing) basado en el consumo de energía, es decir, una nueva clase de algoritmos de planificación que, en combinación con mecanismos que restrinjan la tasa de descarga de una batería, gestionen de forma sistemática la energía como recurso de primera clase, con el objetivo de garantizar, para una aplicación dada, un tiempo de uso de la batería, definido por el usuario, en sistemas móviles empotrados. El encolado equitativo de energía es una extensión al dominio de la energía del encolado equitativo tradicional. Esta clase de algoritmos asigna una reserva de potencia a cada tarea y gestiona la energía sirviéndola de manera proporcional a su reserva. Este uso proporcional de la energía garantiza que cada tarea reciba una porción de potencia y evita que haya tareas que se vean privadas de recibir energía por otras con un comportamiento más ambicioso. Esta clase de algoritmos trata a todas las tareas por igual y puede planificar tareas periódicas en tiempo real asignando a cada una de ellas una reserva de potencia que es adecuada para proporcionar la mayor de las cantidades de energía demandadas por período. Sin embargo, es posible demostrar que sólo se consigue cumplir con los requisitos impuestos por todos los plazos temporales con reservas de potencia extremadamente conservadoras. En esta tesis, para proporcionar un soporte más flexible y eficiente para diferentes tipos de tareas de tiempo real junto con el resto de tareas, se combina un mecanismo de planificación basado en prioridades con el encolado equitativo basado en energía. En esta clase de algoritmos, gracias al método introducido, que controla el tiempo que se ejecuta con prioridad una tarea de tiempo real, se puede establecer un compromiso entre el cumplimiento de los requisitos de tiempo real y el consumo de potencia. Para evaluar los algoritmos, se ha diseñado en SystemC un banco de pruebas. Los resultados muestran que el algoritmo de encolado equitativo basado en el consumo de energía consigue el balance entre el uso proporcional a la energía reservada y el cumplimiento de los requisitos de tiempo real.
Resumo:
La temperatura es una preocupación que juega un papel protagonista en el diseño de circuitos integrados modernos. El importante aumento de las densidades de potencia que conllevan las últimas generaciones tecnológicas ha producido la aparición de gradientes térmicos y puntos calientes durante el funcionamiento normal de los chips. La temperatura tiene un impacto negativo en varios parámetros del circuito integrado como el retardo de las puertas, los gastos de disipación de calor, la fiabilidad, el consumo de energía, etc. Con el fin de luchar contra estos efectos nocivos, la técnicas de gestión dinámica de la temperatura (DTM) adaptan el comportamiento del chip en función en la información que proporciona un sistema de monitorización que mide en tiempo de ejecución la información térmica de la superficie del dado. El campo de la monitorización de la temperatura en el chip ha llamado la atención de la comunidad científica en los últimos años y es el objeto de estudio de esta tesis. Esta tesis aborda la temática de control de la temperatura en el chip desde diferentes perspectivas y niveles, ofreciendo soluciones a algunos de los temas más importantes. Los niveles físico y circuital se cubren con el diseño y la caracterización de dos nuevos sensores de temperatura especialmente diseñados para los propósitos de las técnicas DTM. El primer sensor está basado en un mecanismo que obtiene un pulso de anchura variable dependiente de la relación de las corrientes de fuga con la temperatura. De manera resumida, se carga un nodo del circuito y posteriormente se deja flotando de tal manera que se descarga a través de las corrientes de fugas de un transistor; el tiempo de descarga del nodo es la anchura del pulso. Dado que la anchura del pulso muestra una dependencia exponencial con la temperatura, la conversión a una palabra digital se realiza por medio de un contador logarítmico que realiza tanto la conversión tiempo a digital como la linealización de la salida. La estructura resultante de esta combinación de elementos se implementa en una tecnología de 0,35 _m. El sensor ocupa un área muy reducida, 10.250 nm2, y consume muy poca energía, 1.05-65.5nW a 5 muestras/s, estas cifras superaron todos los trabajos previos en el momento en que se publicó por primera vez y en el momento de la publicación de esta tesis, superan a todas las implementaciones anteriores fabricadas en el mismo nodo tecnológico. En cuanto a la precisión, el sensor ofrece una buena linealidad, incluso sin calibrar; se obtiene un error 3_ de 1,97oC, adecuado para tratar con las aplicaciones de DTM. Como se ha explicado, el sensor es completamente compatible con los procesos de fabricación CMOS, este hecho, junto con sus valores reducidos de área y consumo, lo hacen especialmente adecuado para la integración en un sistema de monitorización de DTM con un conjunto de monitores empotrados distribuidos a través del chip. Las crecientes incertidumbres de proceso asociadas a los últimos nodos tecnológicos comprometen las características de linealidad de nuestra primera propuesta de sensor. Con el objetivo de superar estos problemas, proponemos una nueva técnica para obtener la temperatura. La nueva técnica también está basada en las dependencias térmicas de las corrientes de fuga que se utilizan para descargar un nodo flotante. La novedad es que ahora la medida viene dada por el cociente de dos medidas diferentes, en una de las cuales se altera una característica del transistor de descarga |la tensión de puerta. Este cociente resulta ser muy robusto frente a variaciones de proceso y, además, la linealidad obtenida cumple ampliamente los requisitos impuestos por las políticas DTM |error 3_ de 1,17oC considerando variaciones del proceso y calibrando en dos puntos. La implementación de la parte sensora de esta nueva técnica implica varias consideraciones de diseño, tales como la generación de una referencia de tensión independiente de variaciones de proceso, que se analizan en profundidad en la tesis. Para la conversión tiempo-a-digital, se emplea la misma estructura de digitalización que en el primer sensor. Para la implementación física de la parte de digitalización, se ha construido una biblioteca de células estándar completamente nueva orientada a la reducción de área y consumo. El sensor resultante de la unión de todos los bloques se caracteriza por una energía por muestra ultra baja (48-640 pJ) y un área diminuta de 0,0016 mm2, esta cifra mejora todos los trabajos previos. Para probar esta afirmación, se realiza una comparación exhaustiva con más de 40 propuestas de sensores en la literatura científica. Subiendo el nivel de abstracción al sistema, la tercera contribución se centra en el modelado de un sistema de monitorización que consiste de un conjunto de sensores distribuidos por la superficie del chip. Todos los trabajos anteriores de la literatura tienen como objetivo maximizar la precisión del sistema con el mínimo número de monitores. Como novedad, en nuestra propuesta se introducen nuevos parámetros de calidad aparte del número de sensores, también se considera el consumo de energía, la frecuencia de muestreo, los costes de interconexión y la posibilidad de elegir diferentes tipos de monitores. El modelo se introduce en un algoritmo de recocido simulado que recibe la información térmica de un sistema, sus propiedades físicas, limitaciones de área, potencia e interconexión y una colección de tipos de monitor; el algoritmo proporciona el tipo seleccionado de monitor, el número de monitores, su posición y la velocidad de muestreo _optima. Para probar la validez del algoritmo, se presentan varios casos de estudio para el procesador Alpha 21364 considerando distintas restricciones. En comparación con otros trabajos previos en la literatura, el modelo que aquí se presenta es el más completo. Finalmente, la última contribución se dirige al nivel de red, partiendo de un conjunto de monitores de temperatura de posiciones conocidas, nos concentramos en resolver el problema de la conexión de los sensores de una forma eficiente en área y consumo. Nuestra primera propuesta en este campo es la introducción de un nuevo nivel en la jerarquía de interconexión, el nivel de trillado (o threshing en inglés), entre los monitores y los buses tradicionales de periféricos. En este nuevo nivel se aplica selectividad de datos para reducir la cantidad de información que se envía al controlador central. La idea detrás de este nuevo nivel es que en este tipo de redes la mayoría de los datos es inútil, porque desde el punto de vista del controlador sólo una pequeña cantidad de datos |normalmente sólo los valores extremos| es de interés. Para cubrir el nuevo nivel, proponemos una red de monitorización mono-conexión que se basa en un esquema de señalización en el dominio de tiempo. Este esquema reduce significativamente tanto la actividad de conmutación sobre la conexión como el consumo de energía de la red. Otra ventaja de este esquema es que los datos de los monitores llegan directamente ordenados al controlador. Si este tipo de señalización se aplica a sensores que realizan conversión tiempo-a-digital, se puede obtener compartición de recursos de digitalización tanto en tiempo como en espacio, lo que supone un importante ahorro de área y consumo. Finalmente, se presentan dos prototipos de sistemas de monitorización completos que de manera significativa superan la características de trabajos anteriores en términos de área y, especialmente, consumo de energía. Abstract Temperature is a first class design concern in modern integrated circuits. The important increase in power densities associated to recent technology evolutions has lead to the apparition of thermal gradients and hot spots during run time operation. Temperature impacts several circuit parameters such as speed, cooling budgets, reliability, power consumption, etc. In order to fight against these negative effects, dynamic thermal management (DTM) techniques adapt the behavior of the chip relying on the information of a monitoring system that provides run-time thermal information of the die surface. The field of on-chip temperature monitoring has drawn the attention of the scientific community in the recent years and is the object of study of this thesis. This thesis approaches the matter of on-chip temperature monitoring from different perspectives and levels, providing solutions to some of the most important issues. The physical and circuital levels are covered with the design and characterization of two novel temperature sensors specially tailored for DTM purposes. The first sensor is based upon a mechanism that obtains a pulse with a varying width based on the variations of the leakage currents on the temperature. In a nutshell, a circuit node is charged and subsequently left floating so that it discharges away through the subthreshold currents of a transistor; the time the node takes to discharge is the width of the pulse. Since the width of the pulse displays an exponential dependence on the temperature, the conversion into a digital word is realized by means of a logarithmic counter that performs both the timeto- digital conversion and the linearization of the output. The structure resulting from this combination of elements is implemented in a 0.35_m technology and is characterized by very reduced area, 10250 nm2, and power consumption, 1.05-65.5 nW at 5 samples/s, these figures outperformed all previous works by the time it was first published and still, by the time of the publication of this thesis, they outnumber all previous implementations in the same technology node. Concerning the accuracy, the sensor exhibits good linearity, even without calibration it displays a 3_ error of 1.97oC, appropriate to deal with DTM applications. As explained, the sensor is completely compatible with standard CMOS processes, this fact, along with its tiny area and power overhead, makes it specially suitable for the integration in a DTM monitoring system with a collection of on-chip monitors distributed across the chip. The exacerbated process fluctuations carried along with recent technology nodes jeop-ardize the linearity characteristics of the first sensor. In order to overcome these problems, a new temperature inferring technique is proposed. In this case, we also rely on the thermal dependencies of leakage currents that are used to discharge a floating node, but now, the result comes from the ratio of two different measures, in one of which we alter a characteristic of the discharging transistor |the gate voltage. This ratio proves to be very robust against process variations and displays a more than suficient linearity on the temperature |1.17oC 3_ error considering process variations and performing two-point calibration. The implementation of the sensing part based on this new technique implies several issues, such as the generation of process variations independent voltage reference, that are analyzed in depth in the thesis. In order to perform the time-to-digital conversion, we employ the same digitization structure the former sensor used. A completely new standard cell library targeting low area and power overhead is built from scratch to implement the digitization part. Putting all the pieces together, we achieve a complete sensor system that is characterized by ultra low energy per conversion of 48-640pJ and area of 0.0016mm2, this figure outperforms all previous works. To prove this statement, we perform a thorough comparison with over 40 works from the scientific literature. Moving up to the system level, the third contribution is centered on the modeling of a monitoring system consisting of set of thermal sensors distributed across the chip. All previous works from the literature target maximizing the accuracy of the system with the minimum number of monitors. In contrast, we introduce new metrics of quality apart form just the number of sensors; we consider the power consumption, the sampling frequency, the possibility to consider different types of monitors and the interconnection costs. The model is introduced in a simulated annealing algorithm that receives the thermal information of a system, its physical properties, area, power and interconnection constraints and a collection of monitor types; the algorithm yields the selected type of monitor, the number of monitors, their position and the optimum sampling rate. We test the algorithm with the Alpha 21364 processor under several constraint configurations to prove its validity. When compared to other previous works in the literature, the modeling presented here is the most complete. Finally, the last contribution targets the networking level, given an allocated set of temperature monitors, we focused on solving the problem of connecting them in an efficient way from the area and power perspectives. Our first proposal in this area is the introduction of a new interconnection hierarchy level, the threshing level, in between the monitors and the traditional peripheral buses that applies data selectivity to reduce the amount of information that is sent to the central controller. The idea behind this new level is that in this kind of networks most data are useless because from the controller viewpoint just a small amount of data |normally extreme values| is of interest. To cover the new interconnection level, we propose a single-wire monitoring network based on a time-domain signaling scheme that significantly reduces both the switching activity over the wire and the power consumption of the network. This scheme codes the information in the time domain and allows a straightforward obtention of an ordered list of values from the maximum to the minimum. If the scheme is applied to monitors that employ TDC, digitization resource sharing is achieved, producing an important saving in area and power consumption. Two prototypes of complete monitoring systems are presented, they significantly overcome previous works in terms of area and, specially, power consumption.
Resumo:
No tenemos conocimiento de ninguna red de caminos prerromanos que sirvieran como base de una posible malla territorial de España. Sin embargo, una sociedad prerromana sin caminos, por muy fragmentada y aislada que fuera, es algo improbable y mucho menos en la Edad del Hierro. Por eso en época prerromana existían infinidad de caminos, muchos de los cuales hoy han desaparecido y otros han sobrevivido, casi siempre con sus recorridos mejorados. Los pueblos prerromanos aprovecharon vías naturales de comunicación (ríos, vados, valles, puertos naturales, llanuras, etc.) para tender sus caminos. En sus orígenes no siguieron pautas concretas, si no que los caminos se originaban por el tránsito (de personas, ganados, mercancías, etc.) de un lugar a otro. De este modo la red viaria prerromana era caótica y anárquica: todo camino tenía numerosos ramales y variantes, según las necesidades. Pendientes excesivas, anchuras variables, etc., en decir eran vías espontáneas, surgidas sin ninguna planificación aparente. Los recorridos en general eran cortos, aunque algunas investigaciones actuales están demostrando que algunas de las cañadas ganaderas más importantes, como la Galiana, y de largo recorrido, eran de origen prerromano. En el caso de la península Ibérica, y más concretamente en el caso de la Meseta, el territorio estaba fragmentado en diversos pueblos y tribus, agrupados según criterios étnicos y culturales y con contactos con los pueblos próximos que motivan la preponderancia de caminos de recorrido cortos. Solo la necesidad de llevar los rebaños (de cabras y ovejas sobre todo) desde las serranías en verano a las llanuras en invierno, motivaría viajes más largos en los que algunas cañadas ganaderas jugarían un papel más importante. Con la llegada de los romanaos, se implantó en Hispania una densa red viaria, cuya construcción se prolongó durante toda la dominación romana, siendo reparadas muchas calzadas y vías en varias ocasiones. En época romana la red caminera era variada y estaba constituida por “las calzadas” que comunicaban puntos importantes, eran muy transitadas, de ahí que la administración romana las mantuviera siempre en buen estado, para asegurar el intercambio comercial entre zonas distintas, cobro de impuestos, etc. “Los caminos de tierra (viae terrenae)” que además de las calzadas, que podemos asemejar a las actuales carreteras de primer y segundo orden, constituían la infinidad de caminos locales y comarcales. Los trazados se realizaron unos en época romana, y otros muchos apoyándose en los caminos de la época prerromana, éstas vías no se realizaban buscando el recorrido más corto entre dos puntos, ni tampoco el más cómodo y con un firme estructural de menor importancia que en las calzadas. Tampoco estaban hechos para un tipo concreto de transporte, por lo que nos encontraríamos algunos que por su anchura permitían el paso de carros, y otros que sólo permitirían el paso a pie, a caballo o en burro. Solían ser, como hemos indicado, caminos de tierra con acabados en zahorras y recorridos en su mayor parte cortos y medianos. Dentro de la malla territorial de España las calzadas constituirían las denominadas “viae publicae” que constituían la red principal y esqueleto vertebrador de Hispania. Los caminos de tierra constituirían los denominados “actus” caminos de carácter regional que configuraban la mayor parte de la red. Muchas de las “viae publicae” y de los “actus” tendrían su origen en las “viae militares” que habrían sido los primeros construidos, apoyándose en muchas ocasiones en los caminos prerromanos, por los romanos para realizar la conquista de Hispania y que luego con la Paz romana habrían tenido otro tipo de uso. Dentro de estas “viae militares” tuvieron una importancia relevancia aquellas que se utilizaron en la conquista de la Celtiberia, culminada con la caída de Numantia. Dentro de ellas tuvo una importancia fundamental la vía romana del río Alhama, objeto de esta Tesis, que facilitaría el desplazamiento de los ejércitos romanos desde Graccurris, primera ciudad romana fundada en el Ebro medio, hasta Numantia. Desde la época Augusta, la vía romana del río Alhama, pasaría a formar parte de los denominados “actus” formando parte de la malla territorial de la Península Ibérica como vía de comunicación entre la Meseta y el Ebro Medio. We do not have knowledge of any network of ways prerromanos that were serving as base of a possible territorial mesh of Spain. Nevertheless, a company prerromana without ways, for very fragmented and isolated that was, is something improbable and great less in the Age of the Iron. Because of it in epoch prerromana existed infinity of ways, many of which today have disappeared and others have survived, almost always with his improved tours. The people prerromanos took advantage of natural routes of communication (rivers, fords, valleys, natural ports, plains, etc.) to stretch his ways. In his origins concrete guidelines did not continue, if not that the ways were originating for the traffic (of persons, cattle, goods, etc.) to and from. Thus the network viaria prerromana was chaotic and anarchic: all way had numerous branches and variants, according to the needs. Excessive slopes, variable widths, etc., in saying were spontaneous routes arisen without no apparent planning. The tours in general were short, though some current investigations are demonstrating that some of the most important cattle glens, as the Galiana, and of crossed length, were of origin prerromano. In case of the Iberian Peninsula, and more concretely in case of the Plateau, the territory was fragmented in diverse peoples and tribes, grouped according to ethnic and cultural criteria and with contacts with the near peoples that motivate the prevalence of short ways of tour. Only the need to take the flocks (of goats and sheeps especially) from the mountainous countries in summer to the plains in winter, would motivate longer trips in which some cattle glens would play a more important paper. With the arrival of the romanos, a dense network was implanted in Roman Spain viaria, whose construction extended during the whole Roman domination, being repaired many causeways and routes in several occasions. In Roman epoch the pertaining to roads network was changed and constituted by " the causeways " that were communicating important points, they were very travelled, of there that the Roman administration was supporting always in good condition, to assure the commercial exchange between different zones, collection of taxes, etc. "The dirt tracks (viae terrenae)" that besides the causeways, which we can make alike to the current roads of the first and second order, were constituting the infinity of local and regional ways. The tracings were realized some in Roman epoch, and great others resting on the ways of the epoch prerromana, these routes were not realized looking for the most short tour neither between points, two nor neither most comfortable and with a structural road surface of minor importance that in the causeways. They were not also done for a concrete type of transport, for what some of us would think that for his width they were allowing the step of cars, and others that only would allow the step afoot, astride or in donkey. They were in the habit of being, since we have indicated, dirt tracks with ended in zahorras and tours in his most short and medium. Inside the territorial mesh of Spain the causeways would constitute the called ones "viae publicae" that constituted the principal network and skeleton vertebrador of Roman Spain. The dirt tracks would constitute the "actus” called ways of regional character that were forming most of the network. Many of "viae publicae" and of the "actus" they would have his origin in " viae military" that would have been the first ones constructed, resting on many occasions on the ways prerromanos, for the Romans to realize the conquest of Roman Spain and that then with the Roman Peace they would have had another type of use. Inside these "viae military" had an importance relevancy those that were in use in the conquest of the Celtiberia, reached with Numantia's fall. Inside them a fundamental importance had the Roman route of the river Alhama, object of this Thesis, which would facilitate the displacement of the Roman armies from Graccurris, the first Roman city been founded on the average Ebro, up to Numantia. From the August epoch, the Roman route of the river Alhama, would happen to form a part of the "actus” forming a part of the territorial mesh of the Iberian Peninsula as road link between the Plateau and the Average Ebro.
Resumo:
El alcance de este proyecto consiste en elaborar el plan anual teórico de una compañía distribuidora de productos petrolíferos, que tiene como objetivo mantener los niveles de cuota en el mercado nacional de carburantes de estaciones de servicio, evaluando las rentabilidades conseguidas. El mercado de carburantes de automoción esta reduciéndose de forma importante desde el comienzo de la crisis, por lo que es necesario realizar un análisis profundo de ingresos (ventas y márgenes) y costes (fijos y variables), así como de las inversiones a realizar. Se deduce del estudio que la rentabilidad de la compañía es relativamente alta pero viene dada por un gran número de variables, internas y externas a la propia compañía. En definitiva, el negocio de las estaciones de servicio se basa en un producto con muy bajo margen e impuestos muy altos y es por ello que la competencia a nivel de precios esta muy limitada. Además y dado el nivel de inversiones y costes es necesario un volumen de ventas alto para poder conseguir superar el punto de equilibrio económico. ABSTRACT The scope of this project is to develop the theoretical annual plan of an oil products distribution company, which aims to maintain the levels of market share in the service stations market, assessing the returns achieved. The motor fuels market is decreasing significantly since the beginning of the crisis, making it necessary to conduct a thorough analysis of revenue (sales and margins) and costs (fixed and variable), as well as investments to be made . It follows from the study that the company's profitability is relatively high but is given by a large number of variables, internals and externals to the company. In short, the service stations business is based on a product with very low margin and that is the reason that the price competition level is very limited. Moreover, given the level of investments and costs is necessary to sale a high volume in order to get beyond the break even.
Resumo:
Sign.: []2
Resumo:
Sign.: []2, A-Z2, 2A-2Z2, 3A-3V2, 3X