726 resultados para Pulsão invocante
Resumo:
In deserts, seedling emergence occurs only after precipitation threshold has been exceeded, however, the presence of trees modifies microenvironmental conditions that might affect the effectiveness of a water pulse. In the Monte desert, Prosopis flexuosa trees generate different micro-environmental conditions that might influence grass seedlings establishment. The objective of this work was: a) to know the effective minimum water input event that triggers the emergence of native perennial grass seedlings; b) to relate this fact with the effect of the shade of P. flexuosa canopy and the seasonal temperatures. Three important forage species of the Monte were studied: Pappophorum caespitosum and Trichloris crinita, with C4, and Jarava ichu, with C3 metabolism. Each season, seeds of these species were sown in pots placed at two light conditions: shade (similar to P. flexuosa cover) and open area, and with seven irrigation treatments (0, 10, 20, 30, 40, 2*10 and 3*10 mm). J. ichu did not emerge in any of the treatments. Significant seedling emergence was registered for P. caespitosum and T. crinita in shade conditions with 40 mm irrigation treatment in summer. Since 40 mm precipitation events are infrequent in the Monte, seedling emergence for these species would be restricted to exceptional rainy years. The facilitating effect of P. flexuosa shade would be important during the hot season.
Resumo:
Este artículo busca analizar el proceso de expansión urbana de la ciudad de San Carlos de Bariloche, desde un enfoque de la especialidad y la temporalidad, con miras a comprender, desde sus lógicas de crecimiento, el actual contexto de profunda desigualdad urbana. Los distintos actores hegemónicos, los cuales fueron cambiando a lo largo del tiempo, han marcado el pulso de la urbanización, la expansión del ejido municipal y la aprobación de los loteos que contribuyeron a un crecimiento acelerado, descontrolado y especulativo. Entre ellos se destaca el Estado que desde distintas esferas instituciones, jurisdiccionales y funcionales, ostenta con determinado protagonismo su rol doble como agente y árbitro. Este estudio se ha realizado a partir de un profundo rastreo y análisis de fuentes documentales, muchas inéditas, vinculadas al desarrollo urbano barilochense, desde su fundación en 1902 hasta 2010. Así, con rupturas y continuidades, el crecimiento de esta ciudad media da cuenta de la notable importancia del estudio de los factores que definen modelos de desarrollo urbanos para comprender la complejidad del mosaico urbano actual y su posible mejoramiento.
Resumo:
Lo que aquí se propone el autor será un armado, un recorrido, una puesta en relación del marco teórico del Dispositivo del Pase, con lo que le debemos a la experiencia psicoanalítica y el material testimonial de Pasadores, nominados con el título de Analistas de Escuela y Carteles, con el objetivo de establecer una correlación posible entre este dispositivo y el proceso analítico, destacando en ese cruce la importancia de la voz como objeto a. En el Dispositivo del Pase se trataría de cernir un saber correlativo a un cambio de posición del candidato en relación al saber, cierta certeza del encuentro con ese saber, junto a la caída del sujeto supuesto alsaber, lo que determina el ingreso a la operación del Pase. Por otra parte, el Pasador, encarna cierta nesciencia, cierta ignorancia, desde el mismo momento que desconoce su designación. Para cumplir esta función, la relativa inocencia permite asegurar la transmisión del testimonio. El Pasador es así ciegamente fiel a lo que informa y al mismo tiempo puede ser la placa sensible portadora de la huella del encuentro con un sujeto para quien el saber no es ya lo mismo. Ahora bien, ¿de que se sostiene el pasador en esa experiencia? De una posición de destitución subjetiva a la vez que se presta a 'encarnar', a dar voz (una vía) cierto trayecto pulsional, preservándose de los efectos excesivos de goce que ello podría inducir. Lacan en la primera versión de la Proposición (1967) sitúa al Pasador, en el lugar de la pulsión. El Pasador se presta en efecto a ese trayecto de la pulsión invocante: oír (su pasividad), ser oído (sus preguntas activas alpasante) y hacerse oír (por el Cartel). Según consta en aquellos materiales hay 'algo que pasa' en el momento del Dispositivo del Pase, 'algo' que se transmite desde el pasante al pasador, y que es verificado en algunos casos por los Carteles, con el consiguiente nombramiento. Partiendo ahora de lo que se le debe al psicoanálisis, en el trabajo analítico, no es otra cosa que la pulsión la que contesta por el sujeto del significante, cuando se le pide al analizante que hable. Así descifrar la metonimia pulsional en la palabra del analizante orienta nuestra interpretación hacia el goce buscado, o al conseguido que no es lo mismo. Si entonces el ser habla con su cuerpo y lo que responde por el sujeto del significante es la pulsión, rodeada, alcanzada, y descifrada a través de su dimensión metonímica en la palabra, el autor se pregunta sobre las vicisitudes de la pulsión al 'pasar el Pase', Pasadores y Cartel mediante. Dada la importancia localizada en aquello que 'contesta' o 'responde' por el ser, y/o por el sujeto del significante, se podría formular la articulación de homologar este proceso a esta otra práctica de lengua, que es el dispositivo del Pase, en cuanto que es guiado por la voz, único medio y único lazo entre los participantes. La voz por un lado y la función del pasador por otro 'encarnan', son una 'huella' o 'dan vida' a un cierto trayecto libidinal. Sería entonces, la voz, pero en su dimensión de voz como objeto a, lo que intervendría, en el paralelo aquí establecido entre el dispositivo del Pase como prácticas de lenguas y práctica de análisis
Resumo:
Hasta principios del siglo XX la región de Castilla y León no figuraba en el cómputo de las regiones migratorias, situadas básicamente en la periferia mediterránea o en el noroeste español. En este texto se examinan brevemente las causas de este débil pulso migratorio como las que provocaron luego el éxodo masivo a América. Se exponen luego muy sumariamente las políticas migratorias de Argentina, Cuba y Brasil, principales países a los que se dirigían los castellanos. Teniendo en cuenta la decisiva importancia que la emigración española desempeñó en la formación del mercado de trabajo, podremos conocer mejor la evolución del fenómeno migratorio si examinamos cuándo y por qué se plantearon las distintas políticas de inmigración. Finalmente se analiza cómo se concretaron esas políticas de inmigración para conocer los grados de preferencia por un tipo u otro de emigrantes.
Resumo:
Hasta principios del siglo XX la región de Castilla y León no figuraba en el cómputo de las regiones migratorias, situadas básicamente en la periferia mediterránea o en el noroeste español. En este texto se examinan brevemente las causas de este débil pulso migratorio como las que provocaron luego el éxodo masivo a América. Se exponen luego muy sumariamente las políticas migratorias de Argentina, Cuba y Brasil, principales países a los que se dirigían los castellanos. Teniendo en cuenta la decisiva importancia que la emigración española desempeñó en la formación del mercado de trabajo, podremos conocer mejor la evolución del fenómeno migratorio si examinamos cuándo y por qué se plantearon las distintas políticas de inmigración. Finalmente se analiza cómo se concretaron esas políticas de inmigración para conocer los grados de preferencia por un tipo u otro de emigrantes.
Resumo:
Lo que aquí se propone el autor será un armado, un recorrido, una puesta en relación del marco teórico del Dispositivo del Pase, con lo que le debemos a la experiencia psicoanalítica y el material testimonial de Pasadores, nominados con el título de Analistas de Escuela y Carteles, con el objetivo de establecer una correlación posible entre este dispositivo y el proceso analítico, destacando en ese cruce la importancia de la voz como objeto a. En el Dispositivo del Pase se trataría de cernir un saber correlativo a un cambio de posición del candidato en relación al saber, cierta certeza del encuentro con ese saber, junto a la caída del sujeto supuesto alsaber, lo que determina el ingreso a la operación del Pase. Por otra parte, el Pasador, encarna cierta nesciencia, cierta ignorancia, desde el mismo momento que desconoce su designación. Para cumplir esta función, la relativa inocencia permite asegurar la transmisión del testimonio. El Pasador es así ciegamente fiel a lo que informa y al mismo tiempo puede ser la placa sensible portadora de la huella del encuentro con un sujeto para quien el saber no es ya lo mismo. Ahora bien, ¿de que se sostiene el pasador en esa experiencia? De una posición de destitución subjetiva a la vez que se presta a 'encarnar', a dar voz (una vía) cierto trayecto pulsional, preservándose de los efectos excesivos de goce que ello podría inducir. Lacan en la primera versión de la Proposición (1967) sitúa al Pasador, en el lugar de la pulsión. El Pasador se presta en efecto a ese trayecto de la pulsión invocante: oír (su pasividad), ser oído (sus preguntas activas alpasante) y hacerse oír (por el Cartel). Según consta en aquellos materiales hay 'algo que pasa' en el momento del Dispositivo del Pase, 'algo' que se transmite desde el pasante al pasador, y que es verificado en algunos casos por los Carteles, con el consiguiente nombramiento. Partiendo ahora de lo que se le debe al psicoanálisis, en el trabajo analítico, no es otra cosa que la pulsión la que contesta por el sujeto del significante, cuando se le pide al analizante que hable. Así descifrar la metonimia pulsional en la palabra del analizante orienta nuestra interpretación hacia el goce buscado, o al conseguido que no es lo mismo. Si entonces el ser habla con su cuerpo y lo que responde por el sujeto del significante es la pulsión, rodeada, alcanzada, y descifrada a través de su dimensión metonímica en la palabra, el autor se pregunta sobre las vicisitudes de la pulsión al 'pasar el Pase', Pasadores y Cartel mediante. Dada la importancia localizada en aquello que 'contesta' o 'responde' por el ser, y/o por el sujeto del significante, se podría formular la articulación de homologar este proceso a esta otra práctica de lengua, que es el dispositivo del Pase, en cuanto que es guiado por la voz, único medio y único lazo entre los participantes. La voz por un lado y la función del pasador por otro 'encarnan', son una 'huella' o 'dan vida' a un cierto trayecto libidinal. Sería entonces, la voz, pero en su dimensión de voz como objeto a, lo que intervendría, en el paralelo aquí establecido entre el dispositivo del Pase como prácticas de lenguas y práctica de análisis
Resumo:
Hasta principios del siglo XX la región de Castilla y León no figuraba en el cómputo de las regiones migratorias, situadas básicamente en la periferia mediterránea o en el noroeste español. En este texto se examinan brevemente las causas de este débil pulso migratorio como las que provocaron luego el éxodo masivo a América. Se exponen luego muy sumariamente las políticas migratorias de Argentina, Cuba y Brasil, principales países a los que se dirigían los castellanos. Teniendo en cuenta la decisiva importancia que la emigración española desempeñó en la formación del mercado de trabajo, podremos conocer mejor la evolución del fenómeno migratorio si examinamos cuándo y por qué se plantearon las distintas políticas de inmigración. Finalmente se analiza cómo se concretaron esas políticas de inmigración para conocer los grados de preferencia por un tipo u otro de emigrantes.
Resumo:
Lo que aquí se propone el autor será un armado, un recorrido, una puesta en relación del marco teórico del Dispositivo del Pase, con lo que le debemos a la experiencia psicoanalítica y el material testimonial de Pasadores, nominados con el título de Analistas de Escuela y Carteles, con el objetivo de establecer una correlación posible entre este dispositivo y el proceso analítico, destacando en ese cruce la importancia de la voz como objeto a. En el Dispositivo del Pase se trataría de cernir un saber correlativo a un cambio de posición del candidato en relación al saber, cierta certeza del encuentro con ese saber, junto a la caída del sujeto supuesto alsaber, lo que determina el ingreso a la operación del Pase. Por otra parte, el Pasador, encarna cierta nesciencia, cierta ignorancia, desde el mismo momento que desconoce su designación. Para cumplir esta función, la relativa inocencia permite asegurar la transmisión del testimonio. El Pasador es así ciegamente fiel a lo que informa y al mismo tiempo puede ser la placa sensible portadora de la huella del encuentro con un sujeto para quien el saber no es ya lo mismo. Ahora bien, ¿de que se sostiene el pasador en esa experiencia? De una posición de destitución subjetiva a la vez que se presta a 'encarnar', a dar voz (una vía) cierto trayecto pulsional, preservándose de los efectos excesivos de goce que ello podría inducir. Lacan en la primera versión de la Proposición (1967) sitúa al Pasador, en el lugar de la pulsión. El Pasador se presta en efecto a ese trayecto de la pulsión invocante: oír (su pasividad), ser oído (sus preguntas activas alpasante) y hacerse oír (por el Cartel). Según consta en aquellos materiales hay 'algo que pasa' en el momento del Dispositivo del Pase, 'algo' que se transmite desde el pasante al pasador, y que es verificado en algunos casos por los Carteles, con el consiguiente nombramiento. Partiendo ahora de lo que se le debe al psicoanálisis, en el trabajo analítico, no es otra cosa que la pulsión la que contesta por el sujeto del significante, cuando se le pide al analizante que hable. Así descifrar la metonimia pulsional en la palabra del analizante orienta nuestra interpretación hacia el goce buscado, o al conseguido que no es lo mismo. Si entonces el ser habla con su cuerpo y lo que responde por el sujeto del significante es la pulsión, rodeada, alcanzada, y descifrada a través de su dimensión metonímica en la palabra, el autor se pregunta sobre las vicisitudes de la pulsión al 'pasar el Pase', Pasadores y Cartel mediante. Dada la importancia localizada en aquello que 'contesta' o 'responde' por el ser, y/o por el sujeto del significante, se podría formular la articulación de homologar este proceso a esta otra práctica de lengua, que es el dispositivo del Pase, en cuanto que es guiado por la voz, único medio y único lazo entre los participantes. La voz por un lado y la función del pasador por otro 'encarnan', son una 'huella' o 'dan vida' a un cierto trayecto libidinal. Sería entonces, la voz, pero en su dimensión de voz como objeto a, lo que intervendría, en el paralelo aquí establecido entre el dispositivo del Pase como prácticas de lenguas y práctica de análisis
Resumo:
En este proyecto, se presenta un sensor de temperatura integrado CMOS basado en la medida de una variable secundaria, cuyo valor es dependiente de la temperatura, como es el tiempo de subida que presenta una señal eléctrica en sus flancos de subida. Con el objetivo de reducir coste y potencia consumida, el sensor integrado de temperatura propuesto genera un pulso con un ancho proporcional a la temperatura medida. Este sensor para realizar la medida elimina la necesidad de tener una señal que sirva de referencia. El área ocupada por este modelo de sensor es de 1.8967mm2, siendo éste fabricado en tecnología CMOS de 0.35µm de 4 capas de metal. Gracias a la excelente linealidad que presenta la salida digital del sensor, el error de medida alcanzado es como máximo de ±0.520ºC. La resolución efectiva mostrada en el caso peor es de 0.7ºC, y el consumo de potencia se encuentra por debajo de los 263µW, con una velocidad de realización de medidas que puede llegar a alcanzar las 1.5x10^6 medidas por segundo.
Resumo:
La fisuración iniciada en la superficie de los pavimentos asfálticos constituye uno de los más frecuentes e importantes modos de deterioro que tienen lugar en los firmes bituminosos, como han demostrado los estudios teóricos y experimentales llevados a cabo en la última década. Sin embargo, este mecanismo de fallo no ha sido considerado por los métodos tradicionales de diseño de estos firmes. El concepto de firmes de larga duración se fundamenta en un adecuado seguimiento del proceso de avance en profundidad de estos deterioros y la intervención en el momento más apropiado para conseguir mantenerlos confinados como fisuras de profundidad parcial en la capa superficial más fácilmente accesible y reparable, de manera que pueda prolongarse la durabilidad y funcionalidad del firme y reducir los costes generalizados de su ciclo de vida. Por lo tanto, para la selección de la estrategia óptima de conservación de los firmes resulta esencial disponer de metodologías que posibiliten la identificación precisa in situ de la fisuración descendente, su seguimiento y control, y que además permitan una determinación fiable y con alto rendimiento de su profundidad y extensión. En esta Tesis Doctoral se presentan los resultados obtenidos mediante la investigación sistemática de laboratorio e in situ llevada a cabo para la obtención de datos sobre fisuración descendente en firmes asfálticos y para el estudio de procedimientos de evaluación de la profundidad de este tipo de fisuras empleando técnicas de ultrasonidos. Dichos resultados han permitido comprobar que la metodología no destructiva propuesta, de rápida ejecución, bajo coste y sencilla implementación (principalmente empleada hasta el momento en estructuras metálicas y de hormigón, debido a las dificultades que introduce la naturaleza viscoelástica de los materiales bituminosos) puede ser aplicada con suficiente fiabilidad y repetibilidad sobre firmes asfálticos. Las medidas resultan asimismo independientes del espesor total del firme. Además, permite resolver algunos de los inconvenientes frecuentes que presentan otros métodos de diagnóstico de las fisuras de pavimentos, tales como la extracción de testigos (sistema destructivo, de alto coste y prolongados tiempos de interrupción del tráfico) o algunas otras técnicas no destructivas como las basadas en medidas de deflexiones o el georradar, las cuales no resultan suficientemente precisas para la investigación de fisuras superficiales. Para ello se han realizado varias campañas de ensayos sobre probetas de laboratorio en las que se han estudiado diferentes condiciones empíricas como, por ejemplo, distintos tipos de mezclas bituminosas en caliente (AC, SMA y PA), espesores de firme y adherencias entre capas, temperaturas, texturas superficiales, materiales de relleno y agua en el interior de las grietas, posición de los sensores y un amplio rango de posibles profundidades de fisura. Los métodos empleados se basan en la realización de varias medidas de velocidad o de tiempo de transmisión del pulso ultrasónico sobre una única cara o superficie accesible del material, de manera que resulte posible obtener un coeficiente de transmisión de la señal (mediciones relativas o autocompensadas). Las mediciones se han realizado a bajas frecuencias de excitación mediante dos equipos de ultrasonidos diferentes dotados, en un caso, de transductores de contacto puntual seco (DPC) y siendo en el otro instrumento de contacto plano a través de un material especialmente seleccionado para el acoplamiento (CPC). Ello ha permitido superar algunos de los tradicionales inconvenientes que presenta el uso de los transductores convencionales y no precisar preparación previa de las superficies. La técnica de autocalibración empleada elimina los errores sistemáticos y la necesidad de una calibración local previa, demostrando el potencial de esta tecnología. Los resultados experimentales han sido comparados con modelos teóricos simplificados que simulan la propagación de las ondas ultrasónicas en estos materiales bituminosos fisurados, los cuales han sido deducidos previamente mediante un planteamiento analítico y han permitido la correcta interpretación de dichos datos empíricos. Posteriormente, estos modelos se han calibrado mediante los resultados de laboratorio, proporcionándose sus expresiones matemáticas generalizadas y gráficas para su uso rutinario en las aplicaciones prácticas. Mediante los ensayos con ultrasonidos efectuados en campañas llevadas a cabo in situ, acompañados de la extracción de testigos del firme, se han podido evaluar los modelos propuestos. El máximo error relativo promedio en la estimación de la profundidad de las fisuras al aplicar dichos modelos no ha superado el 13%, con un nivel de confianza del 95%, en el conjunto de todos los ensayos realizados. La comprobación in situ de los modelos ha permitido establecer los criterios y las necesarias recomendaciones para su utilización sobre firmes en servicio. La experiencia obtenida posibilita la integración de esta metodología entre las técnicas de auscultación para la gestión de su conservación. Abstract Surface-initiated cracking of asphalt pavements constitutes one of the most frequent and important types of distress that occur in flexible bituminous pavements, as clearly has been demonstrated in the technical and experimental studies done over the past decade. However, this failure mechanism has not been taken into consideration for traditional methods of flexible pavement design. The concept of long-lasting pavements is based on adequate monitoring of the depth and extent of these deteriorations and on intervention at the most appropriate moment so as to contain them in the surface layer in the form of easily-accessible and repairable partial-depth topdown cracks, thereby prolonging the durability and serviceability of the pavement and reducing the overall cost of its life cycle. Therefore, to select the optimal maintenance strategy for perpetual pavements, it becomes essential to have access to methodologies that enable precise on-site identification, monitoring and control of top-down propagated cracks and that also permit a reliable, high-performance determination of the extent and depth of cracking. This PhD Thesis presents the results of systematic laboratory and in situ research carried out to obtain information about top-down cracking in asphalt pavements and to study methods of depth evaluation of this type of cracking using ultrasonic techniques. These results have demonstrated that the proposed non-destructive methodology –cost-effective, fast and easy-to-implement– (mainly used to date for concrete and metal structures, due to the difficulties caused by the viscoelastic nature of bituminous materials) can be applied with sufficient reliability and repeatability to asphalt pavements. Measurements are also independent of the asphalt thickness. Furthermore, it resolves some of the common inconveniences presented by other methods used to evaluate pavement cracking, such as core extraction (a destructive and expensive procedure that requires prolonged traffic interruptions) and other non-destructive techniques, such as those based on deflection measurements or ground-penetrating radar, which are not sufficiently precise to measure surface cracks. To obtain these results, extensive tests were performed on laboratory specimens. Different empirical conditions were studied, such as various types of hot bituminous mixtures (AC, SMA and PA), differing thicknesses of asphalt and adhesions between layers, varied temperatures, surface textures, filling materials and water within the crack, different sensor positions, as well as an ample range of possible crack depths. The methods employed in the study are based on a series of measurements of ultrasonic pulse velocities or transmission times over a single accessible side or surface of the material that make it possible to obtain a signal transmission coefficient (relative or auto-calibrated readings). Measurements were taken at low frequencies by two short-pulse ultrasonic devices: one equipped with dry point contact transducers (DPC) and the other with flat contact transducers that require a specially-selected coupling material (CPC). In this way, some of the traditional inconveniences presented by the use of conventional transducers were overcome and a prior preparation of the surfaces was not required. The auto-compensating technique eliminated systematic errors and the need for previous local calibration, demonstrating the potential for this technology. The experimental results have been compared with simplified theoretical models that simulate ultrasonic wave propagation in cracked bituminous materials, which had been previously deduced using an analytical approach and have permitted the correct interpretation of the aforementioned empirical results. These models were subsequently calibrated using the laboratory results, providing generalized mathematical expressions and graphics for routine use in practical applications. Through a series of on-site ultrasound test campaigns, accompanied by asphalt core extraction, it was possible to evaluate the proposed models, with differences between predicted crack depths and those measured in situ lower than 13% (with a confidence level of 95%). Thereby, the criteria and the necessary recommendations for their implementation on in-service asphalt pavements have been established. The experience obtained through this study makes it possible to integrate this methodology into the evaluation techniques for pavement management systems.
Resumo:
El presente trabajo estudia el comportamiento de dos hormigones frente al ensayo de resistencia al hielo-deshielo de hormigones endurecidos. La incorporación de un aditivo aireante mejora de forma sensible el comportamiento del hormigón frente a este ensayo. Sin embargo, en hormigón pretensado con cordón adherente está prohibido el uso de aditivos aireantes. Una estrategia adecuada es emplear humo de sílice para mejorar la impermeabilidad del hormigón. En este trabajo se compara el comportamiento de un hormigón con aditivo aireante y otro con humo de sílice frente al ensayo de resistencia al hielo-deshielo. Además, estudia la viabilidad de emplear técnicas alternativas de medida del deterioro superficial: modificación de la velocidad de pulso ultrasónico y medida de la deformación superficial con galgas extensométricas. Ambas técnicas se muestran viables y aportan ventajas frente al peso de la masa superficial desprendida por descascarillamiento
Resumo:
Se ha caracterizado la infiltración de un suelo colocado en una columna de suelo de metacrilato, de base hexagonal de diagonal 1 m y 0,6 m de alto, con una densidad aparente de 1,5 g/cm3. El procedimiento utilizado ha sido la fibra óptica y el método denominado “Active Heating pulse method with Fiber Optic temperature sensing” AHFO method, que consiste en emitir un pulso óptico con láser y medir en el tiempo la señal reflejada, de baja intensidad, en diferentes puntos de la fibra óptica. Del espectro de luz reflejada solamente un rango de frecuencias específico, determinado por análisis de frecuencia, se correlaciona con la temperatura. La precisión en la medida es de ± 0,1ºC en una distancia de ± 12,5 cm. En el interior de la columna se colocó el cable de fibra óptica formando tres hélices concéntricas separadas 20 cm , 40 cm y 60 cm del centro. Asimismo, se cubrió la superficie del suelo con una altura media de agua que osciló entre 1,5 a 2,5 cm a lo largo de los 140 min que duró el proceso de calentamiento del cable. El incremento de temperatura antes y después del calentamiento se utilizó para determinar la infiltración instantánea a partir de la expresión de Perzlmaeir et al (2004) y de los números adimensional de Nusselt y Prandtl. Considerando los errores inherentes al procedimiento de cálculo, los resultados muestran que el AHFO method es una herramienta útil en el estudio de la variabilidad espacial de la infiltración en el suelo que permite, además, determinar su valor. Asimismo, muestra su potencial para incluir dichas estimaciones en la calibración de modelos relacionados con la gestión de recursos hídricos.
Resumo:
Aunque se conocen muchos métodos precisos para medidas de humedad puntuales, hasta hace muy poco, no existían métodos in situ para la medida del contenido de humedad a escala de metros o de kilómetros, importantes cuando pensamos a nivel de cuenca hidrográfica. La fibra óptica ha sido muy utilizada en el área de las comunicaciones. Sin embargo, entre sus aplicaciones más recientes, destaca la de su uso para medir la temperatura incluso en grandes distancias (hasta 10 km) y con una alta frecuencia temporal, lo que ha abierto un amplio abanico de posibilidades muy importantes en el seguimiento medioambiental (Selker et al. 2006a; 2006b, Tyler et al. 2008; Westhoff et al., 2007; Freifeld et al., 2008). La precisión en la medida puede alcanzar ± 0,2ºC en una distancia de ± 25 cm. El método utilizado en los ensayos explicados en esta comunicación es el denominado “Distributed Fiber Optic Temperature Measurement” (medida distribuida de la temperatura con fibra óptica) o DFOT, que consiste en emitir un impulso óptico con láser y medir en el tiempo la señal reflejada en diferentes puntos de la fibra. Este método se ha utilizado en el estudio de filtraciones de minas abandonadas (Selker et al. 2006a) y en proyectos relacionados con el cambio climático, como en el estudio del deshielo en glaciares y balances hídricos en pequeñas cuencas (Selker et al. 2006b). Además, en medios porosos, se ha usado, con buenos resultados para la detección de rotura de diques en presas (Perzlmaier et al. 2004a y 2004b) y para la detección de entrada de agua en vertederos urbanos con cubierta vegetal (Weiss, 2003b). Imhoff et al. (2006) en su revisión de técnicas de medidas de contenido de agua en el suelo destaca el uso del “DFOT heat pulse method” (método DFOT del pulso de calor).
Resumo:
La temperatura es una preocupación que juega un papel protagonista en el diseño de circuitos integrados modernos. El importante aumento de las densidades de potencia que conllevan las últimas generaciones tecnológicas ha producido la aparición de gradientes térmicos y puntos calientes durante el funcionamiento normal de los chips. La temperatura tiene un impacto negativo en varios parámetros del circuito integrado como el retardo de las puertas, los gastos de disipación de calor, la fiabilidad, el consumo de energía, etc. Con el fin de luchar contra estos efectos nocivos, la técnicas de gestión dinámica de la temperatura (DTM) adaptan el comportamiento del chip en función en la información que proporciona un sistema de monitorización que mide en tiempo de ejecución la información térmica de la superficie del dado. El campo de la monitorización de la temperatura en el chip ha llamado la atención de la comunidad científica en los últimos años y es el objeto de estudio de esta tesis. Esta tesis aborda la temática de control de la temperatura en el chip desde diferentes perspectivas y niveles, ofreciendo soluciones a algunos de los temas más importantes. Los niveles físico y circuital se cubren con el diseño y la caracterización de dos nuevos sensores de temperatura especialmente diseñados para los propósitos de las técnicas DTM. El primer sensor está basado en un mecanismo que obtiene un pulso de anchura variable dependiente de la relación de las corrientes de fuga con la temperatura. De manera resumida, se carga un nodo del circuito y posteriormente se deja flotando de tal manera que se descarga a través de las corrientes de fugas de un transistor; el tiempo de descarga del nodo es la anchura del pulso. Dado que la anchura del pulso muestra una dependencia exponencial con la temperatura, la conversión a una palabra digital se realiza por medio de un contador logarítmico que realiza tanto la conversión tiempo a digital como la linealización de la salida. La estructura resultante de esta combinación de elementos se implementa en una tecnología de 0,35 _m. El sensor ocupa un área muy reducida, 10.250 nm2, y consume muy poca energía, 1.05-65.5nW a 5 muestras/s, estas cifras superaron todos los trabajos previos en el momento en que se publicó por primera vez y en el momento de la publicación de esta tesis, superan a todas las implementaciones anteriores fabricadas en el mismo nodo tecnológico. En cuanto a la precisión, el sensor ofrece una buena linealidad, incluso sin calibrar; se obtiene un error 3_ de 1,97oC, adecuado para tratar con las aplicaciones de DTM. Como se ha explicado, el sensor es completamente compatible con los procesos de fabricación CMOS, este hecho, junto con sus valores reducidos de área y consumo, lo hacen especialmente adecuado para la integración en un sistema de monitorización de DTM con un conjunto de monitores empotrados distribuidos a través del chip. Las crecientes incertidumbres de proceso asociadas a los últimos nodos tecnológicos comprometen las características de linealidad de nuestra primera propuesta de sensor. Con el objetivo de superar estos problemas, proponemos una nueva técnica para obtener la temperatura. La nueva técnica también está basada en las dependencias térmicas de las corrientes de fuga que se utilizan para descargar un nodo flotante. La novedad es que ahora la medida viene dada por el cociente de dos medidas diferentes, en una de las cuales se altera una característica del transistor de descarga |la tensión de puerta. Este cociente resulta ser muy robusto frente a variaciones de proceso y, además, la linealidad obtenida cumple ampliamente los requisitos impuestos por las políticas DTM |error 3_ de 1,17oC considerando variaciones del proceso y calibrando en dos puntos. La implementación de la parte sensora de esta nueva técnica implica varias consideraciones de diseño, tales como la generación de una referencia de tensión independiente de variaciones de proceso, que se analizan en profundidad en la tesis. Para la conversión tiempo-a-digital, se emplea la misma estructura de digitalización que en el primer sensor. Para la implementación física de la parte de digitalización, se ha construido una biblioteca de células estándar completamente nueva orientada a la reducción de área y consumo. El sensor resultante de la unión de todos los bloques se caracteriza por una energía por muestra ultra baja (48-640 pJ) y un área diminuta de 0,0016 mm2, esta cifra mejora todos los trabajos previos. Para probar esta afirmación, se realiza una comparación exhaustiva con más de 40 propuestas de sensores en la literatura científica. Subiendo el nivel de abstracción al sistema, la tercera contribución se centra en el modelado de un sistema de monitorización que consiste de un conjunto de sensores distribuidos por la superficie del chip. Todos los trabajos anteriores de la literatura tienen como objetivo maximizar la precisión del sistema con el mínimo número de monitores. Como novedad, en nuestra propuesta se introducen nuevos parámetros de calidad aparte del número de sensores, también se considera el consumo de energía, la frecuencia de muestreo, los costes de interconexión y la posibilidad de elegir diferentes tipos de monitores. El modelo se introduce en un algoritmo de recocido simulado que recibe la información térmica de un sistema, sus propiedades físicas, limitaciones de área, potencia e interconexión y una colección de tipos de monitor; el algoritmo proporciona el tipo seleccionado de monitor, el número de monitores, su posición y la velocidad de muestreo _optima. Para probar la validez del algoritmo, se presentan varios casos de estudio para el procesador Alpha 21364 considerando distintas restricciones. En comparación con otros trabajos previos en la literatura, el modelo que aquí se presenta es el más completo. Finalmente, la última contribución se dirige al nivel de red, partiendo de un conjunto de monitores de temperatura de posiciones conocidas, nos concentramos en resolver el problema de la conexión de los sensores de una forma eficiente en área y consumo. Nuestra primera propuesta en este campo es la introducción de un nuevo nivel en la jerarquía de interconexión, el nivel de trillado (o threshing en inglés), entre los monitores y los buses tradicionales de periféricos. En este nuevo nivel se aplica selectividad de datos para reducir la cantidad de información que se envía al controlador central. La idea detrás de este nuevo nivel es que en este tipo de redes la mayoría de los datos es inútil, porque desde el punto de vista del controlador sólo una pequeña cantidad de datos |normalmente sólo los valores extremos| es de interés. Para cubrir el nuevo nivel, proponemos una red de monitorización mono-conexión que se basa en un esquema de señalización en el dominio de tiempo. Este esquema reduce significativamente tanto la actividad de conmutación sobre la conexión como el consumo de energía de la red. Otra ventaja de este esquema es que los datos de los monitores llegan directamente ordenados al controlador. Si este tipo de señalización se aplica a sensores que realizan conversión tiempo-a-digital, se puede obtener compartición de recursos de digitalización tanto en tiempo como en espacio, lo que supone un importante ahorro de área y consumo. Finalmente, se presentan dos prototipos de sistemas de monitorización completos que de manera significativa superan la características de trabajos anteriores en términos de área y, especialmente, consumo de energía. Abstract Temperature is a first class design concern in modern integrated circuits. The important increase in power densities associated to recent technology evolutions has lead to the apparition of thermal gradients and hot spots during run time operation. Temperature impacts several circuit parameters such as speed, cooling budgets, reliability, power consumption, etc. In order to fight against these negative effects, dynamic thermal management (DTM) techniques adapt the behavior of the chip relying on the information of a monitoring system that provides run-time thermal information of the die surface. The field of on-chip temperature monitoring has drawn the attention of the scientific community in the recent years and is the object of study of this thesis. This thesis approaches the matter of on-chip temperature monitoring from different perspectives and levels, providing solutions to some of the most important issues. The physical and circuital levels are covered with the design and characterization of two novel temperature sensors specially tailored for DTM purposes. The first sensor is based upon a mechanism that obtains a pulse with a varying width based on the variations of the leakage currents on the temperature. In a nutshell, a circuit node is charged and subsequently left floating so that it discharges away through the subthreshold currents of a transistor; the time the node takes to discharge is the width of the pulse. Since the width of the pulse displays an exponential dependence on the temperature, the conversion into a digital word is realized by means of a logarithmic counter that performs both the timeto- digital conversion and the linearization of the output. The structure resulting from this combination of elements is implemented in a 0.35_m technology and is characterized by very reduced area, 10250 nm2, and power consumption, 1.05-65.5 nW at 5 samples/s, these figures outperformed all previous works by the time it was first published and still, by the time of the publication of this thesis, they outnumber all previous implementations in the same technology node. Concerning the accuracy, the sensor exhibits good linearity, even without calibration it displays a 3_ error of 1.97oC, appropriate to deal with DTM applications. As explained, the sensor is completely compatible with standard CMOS processes, this fact, along with its tiny area and power overhead, makes it specially suitable for the integration in a DTM monitoring system with a collection of on-chip monitors distributed across the chip. The exacerbated process fluctuations carried along with recent technology nodes jeop-ardize the linearity characteristics of the first sensor. In order to overcome these problems, a new temperature inferring technique is proposed. In this case, we also rely on the thermal dependencies of leakage currents that are used to discharge a floating node, but now, the result comes from the ratio of two different measures, in one of which we alter a characteristic of the discharging transistor |the gate voltage. This ratio proves to be very robust against process variations and displays a more than suficient linearity on the temperature |1.17oC 3_ error considering process variations and performing two-point calibration. The implementation of the sensing part based on this new technique implies several issues, such as the generation of process variations independent voltage reference, that are analyzed in depth in the thesis. In order to perform the time-to-digital conversion, we employ the same digitization structure the former sensor used. A completely new standard cell library targeting low area and power overhead is built from scratch to implement the digitization part. Putting all the pieces together, we achieve a complete sensor system that is characterized by ultra low energy per conversion of 48-640pJ and area of 0.0016mm2, this figure outperforms all previous works. To prove this statement, we perform a thorough comparison with over 40 works from the scientific literature. Moving up to the system level, the third contribution is centered on the modeling of a monitoring system consisting of set of thermal sensors distributed across the chip. All previous works from the literature target maximizing the accuracy of the system with the minimum number of monitors. In contrast, we introduce new metrics of quality apart form just the number of sensors; we consider the power consumption, the sampling frequency, the possibility to consider different types of monitors and the interconnection costs. The model is introduced in a simulated annealing algorithm that receives the thermal information of a system, its physical properties, area, power and interconnection constraints and a collection of monitor types; the algorithm yields the selected type of monitor, the number of monitors, their position and the optimum sampling rate. We test the algorithm with the Alpha 21364 processor under several constraint configurations to prove its validity. When compared to other previous works in the literature, the modeling presented here is the most complete. Finally, the last contribution targets the networking level, given an allocated set of temperature monitors, we focused on solving the problem of connecting them in an efficient way from the area and power perspectives. Our first proposal in this area is the introduction of a new interconnection hierarchy level, the threshing level, in between the monitors and the traditional peripheral buses that applies data selectivity to reduce the amount of information that is sent to the central controller. The idea behind this new level is that in this kind of networks most data are useless because from the controller viewpoint just a small amount of data |normally extreme values| is of interest. To cover the new interconnection level, we propose a single-wire monitoring network based on a time-domain signaling scheme that significantly reduces both the switching activity over the wire and the power consumption of the network. This scheme codes the information in the time domain and allows a straightforward obtention of an ordered list of values from the maximum to the minimum. If the scheme is applied to monitors that employ TDC, digitization resource sharing is achieved, producing an important saving in area and power consumption. Two prototypes of complete monitoring systems are presented, they significantly overcome previous works in terms of area and, specially, power consumption.
Resumo:
Un estudio geofísico mediante resonancia se realiza mediante la excitación del agua del subsuelo a partir de la emisión de una intensidad variable a lo largo de un cable extendido sobre la superficie en forma cuadrada o circular. El volumen investigado depende del tamaño de dicho cable, lo cual, junto con la intensidad utilizada para la excitación del agua determina las diferentes profundidades del terreno de las que se va a extraer información, que se encuentran entre 10 y 100 m, habitualmente. La tesis doctoral presentada consiste en la adaptación del Método de Resonancia Magnética para su utilización en aplicaciones superficiales mediante bucles de tamaño reducido. Dicha información sobre el terreno en la escala desde decímetros a pocos metros es interesante en relación a la física de suelos y en general en relación a diferentes problemas de Ingeniería, tanto de extracción de agua como constructiva. Una vez realizada la revisión del estado de conocimiento actual del método en relación a sus aplicaciones usuales, se estudian los problemas inherentes a su adaptación a medidas superficiales. Para solventar dichos problemas se han considerado dos líneas de investigación principales: En primer lugar se realiza un estudio de la influencia de las características del pulso de excitación emitido por el equipo en la calidad de las medidas obtenidas, y las posibles estrategias para mejorar dicho pulso. El pulso de excitación es un parámetro clave en la extracción de información sobre diferentes profundidades del terreno. Por otro lado se busca la optimización del dispositivo de medida para su adaptación al estudio de los primeros metros del suelo mediante el equipo disponible, tratándose éste del equipo NumisLITE de la casa Iris Instruments. ABSTRACT Magnetic Resonance Sounding is a geophysical method performed through the excitation of the subsurface water by a variable electrical intensity delivered through a wire extended on the surface, forming a circle or a square. The investigated volume depends on the wire length and the intensity used, determining the different subsurface depths reached. In the usual application of the method, this depth ranges between 10 and 100 m. This thesis studies the adaptation of the above method to more superficial applications using smaller wire loops. Information about the subsurface in the range of decimeter to a few meters is interesting regarding physics of soils, as well as different Engineering problems, either for water extraction or for construction. After a review of the nowadays state of the art of the method regarding its usual applications, the special issues attached to its use to perform very shallow measures are studied. In order to sort out these problems two main research lines are considered: On the one hand, a study about the influence of the characteristics of the emitted pulse in the resulting measure quality is performed. Possible strategies in order to improve this pulse are investigated, as the excitation pulse is a key parameter to obtain information from different depths of the subsurface. On the other hand, the study tries to optimize the measurement device to its adaptation to the study of the first meters of the ground with the available instrumentation, the NumisLITE equipment from Iris Instruments.