971 resultados para Polímers -- Proves
Resumo:
Esta tesis indaga acerca de algunos de los aspectos lingüísticos y discursivos presentes en la construcción de la narrativa de la autora chicana Sandra Cisneros (1954-). En contraposición a la literatura canónica, la literatura chicana se define como escritura de minorías. Según G. Deleuze y F. Guattari (1975), una literatura de minorías se caracteriza por la desterritorialización de una lengua mayoritaria a través de su uso en esa literatura, la articulación de loindividual en lo inmediato político y el dispositivo colectivo de enunciación. La obra de S. Cisneros, que se desarrolla principalmente a partir del inglés, pone de manifiesto el contacto entre el español y el inglés de un modo particular. En este trabajo, se analiza el fenómeno del contacto de lenguas vinculado a la traducción literal, cuya presencia se vuelve un rasgo distintivo del estilo de la autora y una estrategia clave para la desterritorialización del lenguaje. En este sentido, la hipótesis central de nuestra investigación indica que bajo la apariencia de una única lengua, el inglés (L1), hay otra lengua, el español (L2), que se manifiesta en la utilización de alguno de sus niveles (léxico-semántico, pragmático, morfosintáctico o gráfico), lo cual contribuye a la desterritorialización de L1 y constituye un caso especial de alternancia de lenguas. Esta hipótesis ha guiado la clasificación del corpus de esta investigación constituido por frases y estructuras que registran cierta fijación,pertenecientes a la colección de relatos Woman Hollering Creek and Other Stories (1991). El interés en estas formas reside en que si bien aparecen expresadas en inglés, remiten al español como marco discursivo, acentuando el carácter heterogéneo constitutivo de toda palabra. Dado que la traducción literal no integra los modelos sociolingüísticos revisados (S. Poplack: 1982; C. Myers-Scotton: 1993a y 1993b) y considerando que el contacto de lenguastambién se manifiesta a través de esta operación de traducción, que conforma un punto de heterogeneidad fuerte, fue necesario buscar una teoría lingüísticaque pudiera explicar la complejidad el discurso de Cisneros. Así, la teoría de las heterogeneidades enunciativas (J. Authier-Revuz: 1984, 1995) se presenta como un marco más amplio para el estudio de las marcas de heterogeneidad y desterritorialización en el seno de la narrativa de S. Cisneros. Esta perspectivateórica, que da cuenta de los procesos que se ponen en marcha en la constitución del discurso y atiende, entre otras, la función de las marcas gráficas presentes en el texto escrito, propone un marco más amplio para abordar nuestro objeto. Son dos los objetivos principales de esta investigación: describir la operación de desterritorialización en el interior de este discurso y establecer relaciones entre algunos de los modelos que abordan el estudio de la alternancia de lenguas (S. Poplack: 1982; C. Myers-Scotton: 1993a y 1993b) y la teoría de las heterogeneidades enunciativas propuesta por J. Authier-Revuz (1984, 1995).
Resumo:
El mito de Heracles en los poemas de Baquílides no parece extremadamente profuso. Tradicionalmente se considera al ditirambo 16 como el poema más relevante del autor respecto del mito del héroe, particularmente en relación con Traquinias de Sófocles. Sin embargo, un análisis detenido del resto de las ocurrencias del mito en Baquílides demuestra que la influencia más trascendental del lírico excede los límites establecidos por el ditirambo. Los epinicios 5, 9 y 13, sumados a algunos fragmentos, representan una sorprendente fuente de originalidad, no sólo temática sino también formal. Es la intención del presente trabajo analizar dichos poemas en relación con Traquinias de Sófocles, de manera de determinar su influencia y/o relevancia para esta tragedia.
Resumo:
Este trabajo estudia la vida privada del pulpero rural de la campaña de Buenos Aires y las actividades que desarrolla cuando no se encuentra frente a su negocio. A través del análisis de testamentos e inventarios de pulperos rurales de Buenos Aires de fines del siglo XVIII y principios del XIX el estudio intenta penetrar en la intimidad y en las actividades alternativas que desempeñaban. El trabajo logra comprobar la existencia de un espacio protegido de la intromisión pública. Si bien la frontera que separaba ambos territorios muchas veces aparecía desfigurada, el espacio privado ha sido conquistado en mayor o menor medida por el pulpero rural. Con ello este artículo cuestiona la visión de rusticidad general que envolvía a la vida en la campaña y ubica a los pulperos dentro de los sectores medios que poblaban la campaña.
Resumo:
El concepto de "frontera" resulta problemático debido al uso corriente que se le da al término. Está naturalizada la noción de una frontera exclusiva: una barrera que divide un territorio A de un territorio no-A, rigiendo el principio aristotélico del tercero excluido. Para el estudio de sociedades de la antigüedad debemos necesariamente desembarazarnos de tales preconceptos. En el presente trabajo nos proponemos observar la factibilidad de utilizar tal concepto para entender las divisiones (no sólo físicas) en el Antiguo Egipto. Teniendo en cuenta el uso reiterado de estelas en la demarcación del espacio proponemos, a partir del estudio de las mismas, interrogarnos acerca de qué es exactamente lo que ellas delimitan y por qué se las utiliza para ello. Los casos testigo de las estelas que marcan el límite de la ciudad de Akhetatón y las llamadas falsa-puerta nos servirán para ilustrar nuestras tesis. Las primeras, erigidas para ser vistas, decretan un límite físico; las segundas, ocultas dentro de tumbas privadas, hacen las veces de límite entre el mundo de los vivos y el de los muertos. En apariencia diferentes, encierran en realidad una misma función: separar regiones cósmicas, manteniendo al Caos fuera del territorio donde reina el Orden.
Resumo:
La mayor parte delas personas que conviven con algún tipo de enfermedad, tienden a adoptar un mayor número de hábitos saludables, pudiendo crear nuevas maneras de ver la vida y a sí mismos. El objetivo de este estudio fue verificar la relación entre índices de calidad de vida y percepción de la imagen corporal de los pacientes incluidos en un programa de rehabilitación cardiovascular en Florianópolis-Brasil. La muestra estuvo compuesta por 24 sujetos varones con una edad de 62 ± 1,3 años, portadores de Enfermedad Arterial Coronaria. Para evaluar la calidad de vida, se utilizó el cuestionario Minnesota Living With Heart Failure Questionnaire (MLHFQ) y para identificar el grado de descontento de la muestra con la imagen corporal, se aplicó el cuestionario de Stunkard y Sorensen (1993). El análisis de las pruebas fue hecho a través de un programa de estadísticas utilizando para tal fin, el software SPSS 11.0. El grado de asociación entre variables fue estudiado a partir del test de Kendall. Se verificó que cuanto mayor es el IMC y la silueta actual, mayor el grado de insatisfacción con la imagen corporal. Los síntomas emocionales también parecen estar correlacionados significativamente con un deseo de obtener una menor silueta corporal y con indicadores de menor calidad de vida (r= 0,474 y r= 0,735; p mayor 0,05). Los síntomas físicostambién se encuentran correlacionados de manera significativa con los síntomas emocionales. Estos resultados sugieren que las variables referentes a la calidad de vida poseen un peso significativo en la imagen corporal y la satisfacción con ésta, parece correlacionar con una menor cantidad de problemas emocionales y en un mejor afrontamiento de la enfermedad. Los programas de rehabilitación cardiovascular que implementan actividad física en los hábitos diarios se muestran adecuados como herramienta para la mejora de dichas dolencias en esta fase post aguda
Resumo:
A la hora de abordar empíricamente la problemática de la marginalidad en la baja edad media y temprana modernidad, período cuando este fenómeno se expandió en múltiples formas, la categorización resulta en una dificultad epistemológica para el análisis. Así, se hace necesaria la revisión de las diversas propuestas teóricas para poder delimitar el problema. Veremos específicamente la definición teórica de la marginalidad de aquellos hombres que fueron estigmatizados por ser pobres y, a pesar de ello, no integrarse a la comunidad mediante el trabajo. Elaboraremos un estado de la cuestión, para poder así realizar un balance con críticas y aportes referentes al problema epistemológico planteado
Resumo:
Proponemos abordar la categoría de marginalidad desde los elementos que definen a los marginales, observando que se trata de un concepto con cualidades particulares en cada uno de los contextos en los cuales es considerada, además de presentar diferencias en cuanto a las causas específicas. Sin embargo, encontramos con carácter general la referencia a su transgresión de las reglas de la comunidad en que viven, lo cual es causa o consecuencia de la anomalía en su intervención en la economía, a pesar de lo cual los marginados no son separados físicamente
Resumo:
Pollen and macrofossil analysis of lake sediments revealed the complete development of vegetation from Riss late-glacial to early Würm glacial times at Samerberg (12°12' E, 47°45' N, 600 m a.s.l) on the northern border of the Alps. The pollen bearing sediments overlie three stratigraphic units, at the base a ground-moraine, then a 13 m thick layer of pollen free silt and clay, and then a younger moraine; all the sediments including the pollen bearing sediments, lie below the Würm moraine. The lake, which had developed in an older glacial basin, became extinct, when the ice of the river Inn glacier filled its basin during Würm full-glacial time at the latest. One interglacial, three interstadials, and the interdigitating treeless periods were identified at Samerberg. Whereas the cold periods cannot be distinguished from one another pollenanalytically, the interglacial and the two older interstadials have distinctive characteristics. A shrub phase with Juniperus initiated reforestation and was followed by a pine phase during the interglacial and each of the three interstadials. The further development of the interglacial vegetation proceeded with a phase when deciduous trees (mainly Quercus, oak) and hazel (Corylus) dominated, though spruce (Picea) was present at the same time in the area. A phase with abundant yew (Taxus) led to an apparently long lasting period with dominant spruce and fir (Abies) accompanied by some hornbeam (Carpinus). The vegetational development shows the main characteristics of the Riss/Würm interglacial, though certain differences in the vegetational development in the northern alpine foreland are obvious. These differences may result from the existence of an altitudinal zonation of the vegetation in the vicinity of the site and are the expression of its position at the border of the Alps. A greater age (e.g. the Holsteinian) can be excluded by reason of the vegetational development, and is also not indicated at first sight from the geological and stratigraphical data of the site. Characteristic of the Riss/Würm vegetational development in southern Germany - at least in the region between Lake Starnberg/Samerberg/Salzach - is the conspicuous yew phase. According to absolute pollen counts, yew not only displaced the deciduous species, but also displaced spruce preferentially, thus indicating climatic conditions less favourable for spruce, caused by mild winters (Ilex spreading!) and by short-term low precipitation, indicated by the reduced sedimentation rate. The oldest interstadials is bipartite, as due to the climatic deterioration the early vegetational development, culminating in a spruce phase, had been interrupted by another expansion of pine. A younger spruce-dominated period with fir and perhaps also with hornbeam and beech (Fagus) followed. An identical climatic development has been reported from other European sites with long pollen sequences (see chapter 6.7). However, different tree species are found in the same time intervals in Middle Europe during Early Würm times. Sediments of the last interglacial (Eem or Riss/Würm) have been found in all cases below the sediments of the bipartite interstadial, and in addition one more interstadial occurs in the overlying sediments. This proves that Eem and Riss/Würm of the north-european plain resp. of the alpine foreland are contemporaneous interglacials although this has been questioned by some authors. The climax vegetation of the second interstadial was a spruce forest without fir and without more demanding deciduous tree species. The vegetational development of the third interstadial is recorded fragmentary only. But it has been established that a spruce forest was present. The oldest interstadial must correspond to the danish Brørup interstadial as it is expressed in northern Germany, the second one to the Odderade interstadial. A third Early Würm interstadial, preserved fragmentarily at Samerberg, is known from other sites. The dutch Amersfoort interstadial most likely is the equivalent to the older part of the bipartite danish Brørup interstadial.
Resumo:
Exotic limestone masses with silicified fossils, enclosed within deep-water marine siliciclastic sediments of the Early to Middle Miocene Astoria Formation, are exposed along the north shore of the Columbia River in southwestern Washington, USA. Samples from four localities were studied to clarify the origin and diagenesis of these limestone deposits. The bioturbated and reworked limestones contain a faunal assemblage resembling that of modern and Cenozoic deep-water methane-seeps. Five phases make up the paragenetic sequence: (1) micrite and microspar; (2) fibrous, banded and botryoidal aragonite cement, partially replaced by silica or recrystallized to calcite; (3) yellow calcite; (4) quartz replacing carbonate phases and quartz cement; and (5) equant calcite spar and pseudospar. Layers of pyrite frequently separate different carbonate phases and generations, indicating periods of corrosion. Negative d13Ccarbonate values as low as -37.6 per mill V-PDB reveal an uptake of methane-derived carbon. In other cases, d13Ccarbonate values as high as 7.1 per mill point to a residual, 13C-enriched carbon pool affected by methanogenesis. Lipid biomarkers include 13C-depleted, archaeal 2,6,10,15,19-pentamethylicosane (PMI; d13C: -128 per mill), crocetane and phytane, as well as various iso- and anteiso-carbon chains, most likely derived from sulphate-reducing bacteria. The biomarker inventory proves that the majority of the carbonates formed as a consequence of sulphate-dependent anaerobic oxidation of methane. Silicification of fossils and early diagenetic carbonate cements as well as the precipitation of quartz cement - also observed in other methane-seep limestones enclosed in sediments with abundant diatoms or radiolarians - is a consequence of a preceding increase of alkalinity due to anaerobic oxidation of methane, inducing the dissolution of silica skeletons. Once anaerobic oxidation of methane has ceased, the pH drops again and silica phases can precipitate.
Resumo:
Offshore wind farms are beginning to form part of coastal and marine landscapes located in dynamic surroundings. An integral management model must therefore be applied to achieve not only technical and economic viability of the project but also respect for the environment. Amongst other aspects, the latter calls for an analysis of the possible impact these facilities may have on littoral processes and this requires the differences between littoral processes prior and subsequent to the facility’s construction to be known. The maritime climate, the composition of the coast, lay-out distribution and characteristics of the facility’s components need to be known, particularly foundations as they are the main obstacles waves and currents meet. This article first addresses different aspects related to an offshore wind farm’s influence on the analysis of how it affects littoral dynamics and, because of their importance in this study, pays special attention to foundations. Coastal erosion due to this type of facility is then examined. The main conclusion of this article is that, whilst there are certain opinions claiming the coast is not affected by the presence of this kind of facility since the distance from location to coast and between wind turbine generators themselves is long, the impact must be analysed in each specific case, at least until experience proves otherwise and criteria are adopted in this respect.
Resumo:
The use of fly ash (FA) as an admixture to concrete is broadly extended for two main reasons: the reduction of costs that supposes the substitution of cement and the micro structural changes motivated by the mineral admixture. Regarding this second point, there is a consensus that considers that the ash generates a more compact concrete and a reduction in the size of the pore. However, the measure in which this contributes to the pozzolanic activity or as filler is not well defined. There is also no justification to the influence of the physical parameters, fineness of the grain and free water, in its behavior. This work studies the use of FA as a partial substitute of the cement in concretes of different workability (dry and wet) and the influence in the reactivity of the ash. The concrete of dry consistency which serves as reference uses a cement dose of 250 Kg/m 3 and the concrete of fluid consistency utilized a dose of cement of 350 Kg/m 3 . Two trademark of Portland Cement Type 1 were used. The first reached the resistant class for its fineness of grain and the second one for its composition. Moreover, three doses of FA have been used, and the water/binder ratio was constant in all the mixtures. We have studied the mechanical properties and the micro-structure of the concretes by means of compressive strength tests, mercury intrusion porosimetry (MIP) and thermal analysis (TA). The results of compressive strength tests allow us to observe that concrete mixtures with cements of the same classification and similar dosage of binder do not present the same mechanical behavior. These results show that the effective water/binder ratio has a major role in the development of the mechanical properties of concrete. The study of different dosages using TA, thermo-gravimetry and differential thermal analysis, revealed that the portlandite content is not restrictive in any of the dosages studied. Again, this proves that the rheology of the material influences the reaction rate and content of hydrated cement products. We conclude that the available free water is determinant in the efficiency of pozzolanic reaction. It is so that in accordance to the availability of free water, the ashes can react as an active admixture or simply change the porous distribution. The MIP shows concretes that do not exhibit significant changes in their mechanical behavior, but have suffered significant variation in their porous structure
Resumo:
This paper presents and proves some fundamental results for independent and-parallelism (IAP). First, the paper treats the issues of correctness and efficiency: after defining strict and non-strict goal independence, it is proved that if strictly independent goals are executed in parallel the solutions obtained are the same as those produced by standard sequential execution. It is also shown that, in the absence of failure, the parallel proof procedure doesn't genérate any additional work (with respect to standard SLDresolution) while the actual execution time is reduced. The same results hold even if non-strictly independent goals are executed in parallel, provided a trivial rewriting of such goals is performed. In addition, and most importantly, treats the issue of compile-time generation of IAP by proposing conditions, to be written at compile-time, to efficiently check strict and non-strict goal independence at run-time and proving the sufficiency of such conditions. It is also shown how simpler conditions can be constructed if some information regarding the binding context of the goals to be executed in parallel is available to the compiler trough either local or program-level analysis. These results therefore provide a formal basis for the automatic compile-time generation of IAP. As a corollary of such results, the paper also proves that negative goals are always non-strictly independent, and that goals which share a first occurrence of an existential variable are never independent.
Resumo:
La temperatura es una preocupación que juega un papel protagonista en el diseño de circuitos integrados modernos. El importante aumento de las densidades de potencia que conllevan las últimas generaciones tecnológicas ha producido la aparición de gradientes térmicos y puntos calientes durante el funcionamiento normal de los chips. La temperatura tiene un impacto negativo en varios parámetros del circuito integrado como el retardo de las puertas, los gastos de disipación de calor, la fiabilidad, el consumo de energía, etc. Con el fin de luchar contra estos efectos nocivos, la técnicas de gestión dinámica de la temperatura (DTM) adaptan el comportamiento del chip en función en la información que proporciona un sistema de monitorización que mide en tiempo de ejecución la información térmica de la superficie del dado. El campo de la monitorización de la temperatura en el chip ha llamado la atención de la comunidad científica en los últimos años y es el objeto de estudio de esta tesis. Esta tesis aborda la temática de control de la temperatura en el chip desde diferentes perspectivas y niveles, ofreciendo soluciones a algunos de los temas más importantes. Los niveles físico y circuital se cubren con el diseño y la caracterización de dos nuevos sensores de temperatura especialmente diseñados para los propósitos de las técnicas DTM. El primer sensor está basado en un mecanismo que obtiene un pulso de anchura variable dependiente de la relación de las corrientes de fuga con la temperatura. De manera resumida, se carga un nodo del circuito y posteriormente se deja flotando de tal manera que se descarga a través de las corrientes de fugas de un transistor; el tiempo de descarga del nodo es la anchura del pulso. Dado que la anchura del pulso muestra una dependencia exponencial con la temperatura, la conversión a una palabra digital se realiza por medio de un contador logarítmico que realiza tanto la conversión tiempo a digital como la linealización de la salida. La estructura resultante de esta combinación de elementos se implementa en una tecnología de 0,35 _m. El sensor ocupa un área muy reducida, 10.250 nm2, y consume muy poca energía, 1.05-65.5nW a 5 muestras/s, estas cifras superaron todos los trabajos previos en el momento en que se publicó por primera vez y en el momento de la publicación de esta tesis, superan a todas las implementaciones anteriores fabricadas en el mismo nodo tecnológico. En cuanto a la precisión, el sensor ofrece una buena linealidad, incluso sin calibrar; se obtiene un error 3_ de 1,97oC, adecuado para tratar con las aplicaciones de DTM. Como se ha explicado, el sensor es completamente compatible con los procesos de fabricación CMOS, este hecho, junto con sus valores reducidos de área y consumo, lo hacen especialmente adecuado para la integración en un sistema de monitorización de DTM con un conjunto de monitores empotrados distribuidos a través del chip. Las crecientes incertidumbres de proceso asociadas a los últimos nodos tecnológicos comprometen las características de linealidad de nuestra primera propuesta de sensor. Con el objetivo de superar estos problemas, proponemos una nueva técnica para obtener la temperatura. La nueva técnica también está basada en las dependencias térmicas de las corrientes de fuga que se utilizan para descargar un nodo flotante. La novedad es que ahora la medida viene dada por el cociente de dos medidas diferentes, en una de las cuales se altera una característica del transistor de descarga |la tensión de puerta. Este cociente resulta ser muy robusto frente a variaciones de proceso y, además, la linealidad obtenida cumple ampliamente los requisitos impuestos por las políticas DTM |error 3_ de 1,17oC considerando variaciones del proceso y calibrando en dos puntos. La implementación de la parte sensora de esta nueva técnica implica varias consideraciones de diseño, tales como la generación de una referencia de tensión independiente de variaciones de proceso, que se analizan en profundidad en la tesis. Para la conversión tiempo-a-digital, se emplea la misma estructura de digitalización que en el primer sensor. Para la implementación física de la parte de digitalización, se ha construido una biblioteca de células estándar completamente nueva orientada a la reducción de área y consumo. El sensor resultante de la unión de todos los bloques se caracteriza por una energía por muestra ultra baja (48-640 pJ) y un área diminuta de 0,0016 mm2, esta cifra mejora todos los trabajos previos. Para probar esta afirmación, se realiza una comparación exhaustiva con más de 40 propuestas de sensores en la literatura científica. Subiendo el nivel de abstracción al sistema, la tercera contribución se centra en el modelado de un sistema de monitorización que consiste de un conjunto de sensores distribuidos por la superficie del chip. Todos los trabajos anteriores de la literatura tienen como objetivo maximizar la precisión del sistema con el mínimo número de monitores. Como novedad, en nuestra propuesta se introducen nuevos parámetros de calidad aparte del número de sensores, también se considera el consumo de energía, la frecuencia de muestreo, los costes de interconexión y la posibilidad de elegir diferentes tipos de monitores. El modelo se introduce en un algoritmo de recocido simulado que recibe la información térmica de un sistema, sus propiedades físicas, limitaciones de área, potencia e interconexión y una colección de tipos de monitor; el algoritmo proporciona el tipo seleccionado de monitor, el número de monitores, su posición y la velocidad de muestreo _optima. Para probar la validez del algoritmo, se presentan varios casos de estudio para el procesador Alpha 21364 considerando distintas restricciones. En comparación con otros trabajos previos en la literatura, el modelo que aquí se presenta es el más completo. Finalmente, la última contribución se dirige al nivel de red, partiendo de un conjunto de monitores de temperatura de posiciones conocidas, nos concentramos en resolver el problema de la conexión de los sensores de una forma eficiente en área y consumo. Nuestra primera propuesta en este campo es la introducción de un nuevo nivel en la jerarquía de interconexión, el nivel de trillado (o threshing en inglés), entre los monitores y los buses tradicionales de periféricos. En este nuevo nivel se aplica selectividad de datos para reducir la cantidad de información que se envía al controlador central. La idea detrás de este nuevo nivel es que en este tipo de redes la mayoría de los datos es inútil, porque desde el punto de vista del controlador sólo una pequeña cantidad de datos |normalmente sólo los valores extremos| es de interés. Para cubrir el nuevo nivel, proponemos una red de monitorización mono-conexión que se basa en un esquema de señalización en el dominio de tiempo. Este esquema reduce significativamente tanto la actividad de conmutación sobre la conexión como el consumo de energía de la red. Otra ventaja de este esquema es que los datos de los monitores llegan directamente ordenados al controlador. Si este tipo de señalización se aplica a sensores que realizan conversión tiempo-a-digital, se puede obtener compartición de recursos de digitalización tanto en tiempo como en espacio, lo que supone un importante ahorro de área y consumo. Finalmente, se presentan dos prototipos de sistemas de monitorización completos que de manera significativa superan la características de trabajos anteriores en términos de área y, especialmente, consumo de energía. Abstract Temperature is a first class design concern in modern integrated circuits. The important increase in power densities associated to recent technology evolutions has lead to the apparition of thermal gradients and hot spots during run time operation. Temperature impacts several circuit parameters such as speed, cooling budgets, reliability, power consumption, etc. In order to fight against these negative effects, dynamic thermal management (DTM) techniques adapt the behavior of the chip relying on the information of a monitoring system that provides run-time thermal information of the die surface. The field of on-chip temperature monitoring has drawn the attention of the scientific community in the recent years and is the object of study of this thesis. This thesis approaches the matter of on-chip temperature monitoring from different perspectives and levels, providing solutions to some of the most important issues. The physical and circuital levels are covered with the design and characterization of two novel temperature sensors specially tailored for DTM purposes. The first sensor is based upon a mechanism that obtains a pulse with a varying width based on the variations of the leakage currents on the temperature. In a nutshell, a circuit node is charged and subsequently left floating so that it discharges away through the subthreshold currents of a transistor; the time the node takes to discharge is the width of the pulse. Since the width of the pulse displays an exponential dependence on the temperature, the conversion into a digital word is realized by means of a logarithmic counter that performs both the timeto- digital conversion and the linearization of the output. The structure resulting from this combination of elements is implemented in a 0.35_m technology and is characterized by very reduced area, 10250 nm2, and power consumption, 1.05-65.5 nW at 5 samples/s, these figures outperformed all previous works by the time it was first published and still, by the time of the publication of this thesis, they outnumber all previous implementations in the same technology node. Concerning the accuracy, the sensor exhibits good linearity, even without calibration it displays a 3_ error of 1.97oC, appropriate to deal with DTM applications. As explained, the sensor is completely compatible with standard CMOS processes, this fact, along with its tiny area and power overhead, makes it specially suitable for the integration in a DTM monitoring system with a collection of on-chip monitors distributed across the chip. The exacerbated process fluctuations carried along with recent technology nodes jeop-ardize the linearity characteristics of the first sensor. In order to overcome these problems, a new temperature inferring technique is proposed. In this case, we also rely on the thermal dependencies of leakage currents that are used to discharge a floating node, but now, the result comes from the ratio of two different measures, in one of which we alter a characteristic of the discharging transistor |the gate voltage. This ratio proves to be very robust against process variations and displays a more than suficient linearity on the temperature |1.17oC 3_ error considering process variations and performing two-point calibration. The implementation of the sensing part based on this new technique implies several issues, such as the generation of process variations independent voltage reference, that are analyzed in depth in the thesis. In order to perform the time-to-digital conversion, we employ the same digitization structure the former sensor used. A completely new standard cell library targeting low area and power overhead is built from scratch to implement the digitization part. Putting all the pieces together, we achieve a complete sensor system that is characterized by ultra low energy per conversion of 48-640pJ and area of 0.0016mm2, this figure outperforms all previous works. To prove this statement, we perform a thorough comparison with over 40 works from the scientific literature. Moving up to the system level, the third contribution is centered on the modeling of a monitoring system consisting of set of thermal sensors distributed across the chip. All previous works from the literature target maximizing the accuracy of the system with the minimum number of monitors. In contrast, we introduce new metrics of quality apart form just the number of sensors; we consider the power consumption, the sampling frequency, the possibility to consider different types of monitors and the interconnection costs. The model is introduced in a simulated annealing algorithm that receives the thermal information of a system, its physical properties, area, power and interconnection constraints and a collection of monitor types; the algorithm yields the selected type of monitor, the number of monitors, their position and the optimum sampling rate. We test the algorithm with the Alpha 21364 processor under several constraint configurations to prove its validity. When compared to other previous works in the literature, the modeling presented here is the most complete. Finally, the last contribution targets the networking level, given an allocated set of temperature monitors, we focused on solving the problem of connecting them in an efficient way from the area and power perspectives. Our first proposal in this area is the introduction of a new interconnection hierarchy level, the threshing level, in between the monitors and the traditional peripheral buses that applies data selectivity to reduce the amount of information that is sent to the central controller. The idea behind this new level is that in this kind of networks most data are useless because from the controller viewpoint just a small amount of data |normally extreme values| is of interest. To cover the new interconnection level, we propose a single-wire monitoring network based on a time-domain signaling scheme that significantly reduces both the switching activity over the wire and the power consumption of the network. This scheme codes the information in the time domain and allows a straightforward obtention of an ordered list of values from the maximum to the minimum. If the scheme is applied to monitors that employ TDC, digitization resource sharing is achieved, producing an important saving in area and power consumption. Two prototypes of complete monitoring systems are presented, they significantly overcome previous works in terms of area and, specially, power consumption.
Resumo:
El Análisis de Consumo de Recursos o Análisis de Coste trata de aproximar el coste de ejecutar un programa como una función dependiente de sus datos de entrada. A pesar de que existen trabajos previos a esta tesis doctoral que desarrollan potentes marcos para el análisis de coste de programas orientados a objetos, algunos aspectos avanzados, como la eficiencia, la precisión y la fiabilidad de los resultados, todavía deben ser estudiados en profundidad. Esta tesis aborda estos aspectos desde cuatro perspectivas diferentes: (1) Las estructuras de datos compartidas en la memoria del programa son una pesadilla para el análisis estático de programas. Trabajos recientes proponen una serie de condiciones de localidad para poder mantener de forma consistente información sobre los atributos de los objetos almacenados en memoria compartida, reemplazando éstos por variables locales no almacenadas en la memoria compartida. En esta tesis presentamos dos extensiones a estos trabajos: la primera es considerar, no sólo los accesos a los atributos, sino también los accesos a los elementos almacenados en arrays; la segunda se centra en los casos en los que las condiciones de localidad no se cumplen de forma incondicional, para lo cual, proponemos una técnica para encontrar las precondiciones necesarias para garantizar la consistencia de la información acerca de los datos almacenados en memoria. (2) El objetivo del análisis incremental es, dado un programa, los resultados de su análisis y una serie de cambios sobre el programa, obtener los nuevos resultados del análisis de la forma más eficiente posible, evitando reanalizar aquellos fragmentos de código que no se hayan visto afectados por los cambios. Los analizadores actuales todavía leen y analizan el programa completo de forma no incremental. Esta tesis presenta un análisis de coste incremental, que, dado un cambio en el programa, reconstruye la información sobre el coste del programa de todos los métodos afectados por el cambio de forma incremental. Para esto, proponemos (i) un algoritmo multi-dominio y de punto fijo que puede ser utilizado en todos los análisis globales necesarios para inferir el coste, y (ii) una novedosa forma de almacenar las expresiones de coste que nos permite reconstruir de forma incremental únicamente las funciones de coste de aquellos componentes afectados por el cambio. (3) Las garantías de coste obtenidas de forma automática por herramientas de análisis estático no son consideradas totalmente fiables salvo que la implementación de la herramienta o los resultados obtenidos sean verificados formalmente. Llevar a cabo el análisis de estas herramientas es una tarea titánica, ya que se trata de herramientas de gran tamaño y complejidad. En esta tesis nos centramos en el desarrollo de un marco formal para la verificación de las garantías de coste obtenidas por los analizadores en lugar de analizar las herramientas. Hemos implementado esta idea mediante la herramienta COSTA, un analizador de coste para programas Java y KeY, una herramienta de verificación de programas Java. De esta forma, COSTA genera las garantías de coste, mientras que KeY prueba la validez formal de los resultados obtenidos, generando de esta forma garantías de coste verificadas. (4) Hoy en día la concurrencia y los programas distribuidos son clave en el desarrollo de software. Los objetos concurrentes son un modelo de concurrencia asentado para el desarrollo de sistemas concurrentes. En este modelo, los objetos son las unidades de concurrencia y se comunican entre ellos mediante llamadas asíncronas a sus métodos. La distribución de las tareas sugiere que el análisis de coste debe inferir el coste de los diferentes componentes distribuidos por separado. En esta tesis proponemos un análisis de coste sensible a objetos que, utilizando los resultados obtenidos mediante un análisis de apunta-a, mantiene el coste de los diferentes componentes de forma independiente. Abstract Resource Analysis (a.k.a. Cost Analysis) tries to approximate the cost of executing programs as functions on their input data sizes and without actually having to execute the programs. While a powerful resource analysis framework on object-oriented programs existed before this thesis, advanced aspects to improve the efficiency, the accuracy and the reliability of the results of the analysis still need to be further investigated. This thesis tackles this need from the following four different perspectives. (1) Shared mutable data structures are the bane of formal reasoning and static analysis. Analyses which keep track of heap-allocated data are referred to as heap-sensitive. Recent work proposes locality conditions for soundly tracking field accesses by means of ghost non-heap allocated variables. In this thesis we present two extensions to this approach: the first extension is to consider arrays accesses (in addition to object fields), while the second extension focuses on handling cases for which the locality conditions cannot be proven unconditionally by finding aliasing preconditions under which tracking such heap locations is feasible. (2) The aim of incremental analysis is, given a program, its analysis results and a series of changes to the program, to obtain the new analysis results as efficiently as possible and, ideally, without having to (re-)analyze fragments of code that are not affected by the changes. During software development, programs are permanently modified but most analyzers still read and analyze the entire program at once in a non-incremental way. This thesis presents an incremental resource usage analysis which, after a change in the program is made, is able to reconstruct the upper-bounds of all affected methods in an incremental way. To this purpose, we propose (i) a multi-domain incremental fixed-point algorithm which can be used by all global analyses required to infer the cost, and (ii) a novel form of cost summaries that allows us to incrementally reconstruct only those components of cost functions affected by the change. (3) Resource guarantees that are automatically inferred by static analysis tools are generally not considered completely trustworthy, unless the tool implementation or the results are formally verified. Performing full-blown verification of such tools is a daunting task, since they are large and complex. In this thesis we focus on the development of a formal framework for the verification of the resource guarantees obtained by the analyzers, instead of verifying the tools. We have implemented this idea using COSTA, a state-of-the-art cost analyzer for Java programs and KeY, a state-of-the-art verification tool for Java source code. COSTA is able to derive upper-bounds of Java programs while KeY proves the validity of these bounds and provides a certificate. The main contribution of our work is to show that the proposed tools cooperation can be used for automatically producing verified resource guarantees. (4) Distribution and concurrency are today mainstream. Concurrent objects form a well established model for distributed concurrent systems. In this model, objects are the concurrency units that communicate via asynchronous method calls. Distribution suggests that analysis must infer the cost of the diverse distributed components separately. In this thesis we propose a novel object-sensitive cost analysis which, by using the results gathered by a points-to analysis, can keep the cost of the diverse distributed components separate.
Resumo:
In this paper, a novel method to simulate radio propagation is presented. The method consists of two steps: automatic 3D scenario reconstruction and propagation modeling. For 3D reconstruction, a machine learning algorithm is adopted and improved to automatically recognize objects in pictures taken from target regions, and 3D models are generated based on the recognized objects. The propagation model employs a ray tracing algorithm to compute signal strength for each point on the constructed 3D map. Our proposition reduces, or even eliminates, infrastructure cost and human efforts during the construction of realistic 3D scenes used in radio propagation modeling. In addition, the results obtained from our propagation model proves to be both accurate and efficient