998 resultados para Avaliação de literatura científica


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Los datos necesarios para llevar a cabo estudios bibliométricos se obtienen de fuentes de distinta naturaleza que, por lo general, no han sido diseñadas con ese propósito. Los aspectos cuantificables de la literatura científica están ligados a elementos de dato presentes en los documentos científicos tales como título, autores, afiliación institucional de los autores, resumen, palabras clave y referencias bibliográficas. Todos los estudios bibliométricos operan sobre alguno de estos elementos en función de sus objetivos y de la disponibilidad de la información necesaria para realizarlos. Se evalúan tres fuentes de datos con el objetivo de determinar la presencia o ausencia de los elementos mencionados, su normalización y su adecuación para realizar este tipo de estudios.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La evaluación es una herramienta de gestión que permite a las instituciones obtener información fiable para la toma de decisiones de distinta naturaleza. En la última década los procesos evaluativos se han venido desarrollando en diferentes organizaciones públicas y privadas. Las bibliotecas no han sido ajenas a estas cuestiones y han debido llevar adelante la evaluación de su gestión con el objetivo de justificar su utilidad en las instituciones de las que dependen. En nuestro país las bibliotecas de los institutos de investigación han sido históricamente relegadas considerándoselas meros reservorios bibliográficos, por tal motivo la evaluación de la gestión en este ámbito puede constituirse en un punto de partida para mejorar la visión que tienen los gestores de las instituciones mayores con respecto a sus bibliotecas. Llevar adelante un plan de evaluación de la colección puede constituirse en una herramienta de análisis y diagnóstico que facilite la elaboración de políticas y que mejore la calidad de los servicios que brindan las bibliotecas científicas. La determinación del grupo de publicaciones nucleares a considerar en el desarrollo de la colección de la Biblioteca del Instituto Argentino de Radioastronomía (IAR) es un elemento de relevancia en los procesos anteriormente mencionados. Para ello se realiza un estudio bibliométrico de la producción y el consumo de literatura científica de los investigadores de la institución a partir del análisis de referencias. Se determinan los índices de obsolescencia y la utilidad para la literatura consultada. Se determinan los frentes de investigación del instituto a partir del análisis de co-ocurrencia de palabras y el análisis de redes sociales.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Con el objetivo de determinar el grupo de publicaciones nucleares a considerar en el desarrollo de la colección de la Biblioteca del IAR, se realiza un estudio bibliométrico de la producción y del consumo de literatura científica de los investigadores de la institución a la que la biblioteca pertenece. A partir del análisis de referencias de los trabajos publicados por los investigadores se determinan la obsolescencia y la utilidad de la literatura consultada. Mediante la extracción de palabras clave y de los autores se determinan también los frentes de investigación del instituto y los grupos de investigadores que trabajan en esos frentes, aplicando los métodos de análisis de co-ocurrencia de palabras, coautorías y análisis de redes sociales. Los resultados dan cuenta de una baja obsolescencia para la literatura consultada, de una elevada preferencia para consultar y publicar en dos o tres títulos de publicaciones periódicas de la disciplina, y demuestran finalmente la existencia de dos frentes de investigación dentro de la institución

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Las enfermedades cardiovasculares son consideradas la principal causa de muerte de hombres y mujeres en todo el mundo, así como también en nuestro país. Existe en la bibliografía un número identificado de factores de riesgo que incluye el sedentarismo, el consumo de tabaco, una inadecuada dieta alimenticia, el distrés personal y laboral, la tendencia a la ira-hostilidad, la ansiedad y la depresión, los cambios sociales vinculados a los niveles socioeconómicos, y las catástrofes naturales y artificiales. Si bien estos factores de riesgo explican una condición favorable a su aparición, dando cuenta de una enfermedad arterial crónica, la presentación clínica del evento cardiovascular es habitualmente abrupta. Más de la mitad de los pacientes con infarto no son precedidos por patología previa o siquiera síntomas. La literatura científica ha estudiado la activación de los síndromes coronarios agudos, prestando un especial interés a la idea de que los comportamientos y las emociones pueden desencadenar ('gatillar") eventos cardíacos en personas susceptibles. La situación psicológica desencadenante puede ser un acontecimiento aparentemente banal si se la considera y valora de manera objetiva. Sin embargo, su importancia radica en su repercusión psicológica y en la significación que adquiere para el propio paciente en el contexto de sus vivencias actuales y pasadas. La investigación cualitativa aportada por los casos explorados a través de la corriente narrativa en medicina y psicología, y por los casos investigados mediante métodos psicoanalíticos constituyen las fuentes posibles de información acerca de los conflictos recientes vividos por los pacientes con síndrome coronario agudo. Objetivos y metodología: En el Servicio de Cardiología del Hospital de Alta Complejidad en Red 'El Cruce', de Florencio Varela, hemos comenzado a desarrollar un proyecto de investigación clínica con el propósito de evaluar en una serie de pacientes ingresados con diagnóstico confirmado de infarto agudo de miocardio o angina inestable, la prevalencia de situaciones emocionales negativas intensas estereotípicas en las horas o días previos al evento coronario. Para tal objetivo son realizadas entrevistas semidirigidas a cargo de un profesional psicólogo, a pacientes menores de 65 años de edad, en las cuales se toma en especial consideración el relato de la historia de vida reciente del paciente junto a posibles situaciones conflictivas previas que puedan acompañar el cuadro coronario agudo, la trama familiar y las personas significativas, el contexto e historia laboral, y la vida sexual del paciente. El estado de conciencia inadecuado para el interrogatorio y la existencia de eventos coronarios previos constituyen los criterios de exclusión para esta investigación. A su vez, se evaluará la correlación entre los hallazgos obtenidos en las entrevistas y una serie de test y cuestionarios reconocidos en la exploración de los factores emocionales en este tipo de pacientes: el Inventario de Hostilidad de Buss-Durkee y el score de situación de ira, la Escala de Depresión y Ansiedad Hospitalaria (HADS), el cuestionario Beck de depresión y el Cuestionario de Eventos Vitales. La reiteración en un porcentaje relevante de los casos de la identificación de la situación conflictiva estereotípica permitiría un avance significativo en esta línea de investigación fisiopatológica y psicológica, la ampliación del conocimiento relativo al síndrome coronario agudo, y facilitaría, a su vez, la elaboración de estrategias psicoterapéuticas orientadas al tratamiento y a la modificación pronóstica de la enfermedad

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Desde su génesis, las ciencias sociales han intentado legitimar sus criterios internos de cientificidad, que garanticen que el conocimiento generado por la investigación social sea científicamente válido y confiable. Con este objetivo se han elaborado una serie de técnicas, normas, procesos, reglas y procedimientos para lograr resultados de excelencia y calidad, que certifiquen que la investigación social ha sido concebida y ejecutada con la rigurosidad necesaria para definir sus resultados principales como ciencia. El concepto fundamental para responder a la necesidad de criterios científicos es la validez. El presente trabajo busca explorar las principales acepciones que presenta este concepto en la literatura científica social. En un primer momento se busca identificar las diversas adjetivaciones del concepto de validez en la bibliografía comúnmente utilizada para enseñar metodología en nuestras universidades (por ejemplo, validez predictiva, de criterio, etc.). En un segundo momento se examinarán las definiciones para cada uno de los conceptos identificados. Finalmente, en un tercer momento, se buscará sintetizar y/u organizar estos diversos conceptos de una forma que sea lógica y pedagógicamente coherente

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El éxito del movimiento de Acceso Abierto depende, en gran medida, del grado de adopción de las prácticas de publicación en acceso abierto por parte de los autores, principales actores en el proceso de comunicación de la ciencia. Con esta ponencia nos proponemos mostrar un avance de investigación cuyo objetivo es conocer las opiniones y actitudes de los investigadores argentinos en relación con el movimiento de acceso abierto a la literatura científica. Se exponen algunos de los resultados obtenidos y se presentan conclusiones preliminares.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Se presenta un panorama de la situación y perspectivas del movimiento de Acceso Abierto en Argentina, situándola en el contexto internacional mundial y de América Latina. Se describe el estado y la evolución de las dos principales vías del OA (dorada y verde) desde el análisis de las revistas y de los repositorios como principales canales de publicación y difusión de la literatura científica en acceso abierto. Se mencionan las principales medidas y políticas de apoyo e impulso al movimiento desde el ámbito gubernamental en la región latinoamericana, y en Argentina en particular. Se presentan resultados de estudios recientes sobre las prácticas de publicación y opiniones de investigadores argentinos en relación con el acceso abierto. Se concluye que las perspectivas de desarrollo del OA en Argentina tanto por la vía dorada como por la vía verde son favorables, aunque se advierten ventajas y limitaciones

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Se propone una estrategia pedagógica para la introducción de temas no propios, en este caso matemáticos, en las Escuelas de Bibliotecología y Ciencia de Ia Información (ByCI) a partir de un ejemplo centrado en un tema propio, su extensión a otros temas propios y la articulación del conjunto, con el objeto de alcanzar el máximo de "dilución" del tema matemático en temáticas pertinentes de ByCI. La propuesta se centra en la creación de un ambiente de aprendizaje a partir de las zonas de desarrollo próximo del estudiante. Se tratará de mostrar que discutiendo temas propios con enfoque cuantitativo, como la distribución de la literatura científica a partir de un modelo didáctico del difundido artículo de Bradford de 1934 se logra aprender, desde la ByCI, con el máximo de naturalidad y el mínimo de trauma psicológico, un conjunto de temas matemáticos elementales pero fundamentales para la mayoría de los Estudios Métricos de la Información. Se completa con propuestas de manejo del tema en las Escuelas, dirigidas a estudiantes, graduados, investigadores y docentes

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La necesidad de una movilidad más sostenible en nuestras ciudades hacen que la bicicleta tome cada vez mayor importancia como modo de transporte urbano. A su vez, también aumenta el interés de los investigadores por conocer mejor los factores relacionados con el uso de la bicicleta. Tradicionalmente se ha prestado atención a los factores relacionados con el uso de la bicicleta que son directamente observables, dejando en un segundo plano las percepciones, actitudes o normas sociales de los usuarios respecto a este modo de transporte. Esta tesis ha profundizado en este segundo tipo de factores mediante la búsqueda de variables latentes que puedan definirlos. Se parte contemplando las características de la bicicleta como modo urbano de transporte y los condicionantes territoriales para su uso. En los siguientes capítulos se hace un repaso exhaustivo de los factores que condicionan el uso de la bicicleta en la literatura científica. También se profundiza en el planteamiento de las teorías del comportamiento del usuario de transporte para poder desarrollar el marco teórico sobre el que enfocar la búsqueda de las variables latentes. Finalmente, se repasa el tratamiento recibido por la bicicleta en las técnicas de análisis de la demanda. La hipótesis de partida mantenida plantea que las variables psicosociales pueden ser especialmente influyentes en la decisión de usar la bicicleta. Estas variables, junto con las variables tradicionales de los usuarios de transporte, mejorarían el conocimiento que tenemos sobre los factores que inciden en su uso. Con la finalidad de poder explorar e identificar estas variables se propone una metodología basada en modelos de ecuaciones estructurales. Estos modelos permiten contemplar las interacciones entre variables y trabajar con variables latentes que medimos a través de indicadores. Aplicando la metodología propuesta a un caso de estudio en la Ciudad Universitaria de Madrid se ha podido identificar cuatro variables latentes: conveniencia, probici, limitaciones externas y condicionantes físicos. Estas variables mejoran el conocimiento sobre los factores explicativos de la decisión de usar la bicicleta entre los usuarios de Ciudad Universitaria.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Las tres edades que Tito Lucrecio Caro (99-55 a.C.) había reconocido en la Antigüedad para las épocas anteriores: Edad de Piedra, Edad del Bronce y Edad del Hierro, fueron asumidas en la primera mitad del siglo XIX para clasificar los objetos prehistóricos, cuando aún esta disciplina no era reconocida oficialmente y escasos investigadores la practicaban. Pero, frente a una clasificación tan estática, basada en los datos que hacían referencia exclusivamente a aspectos técnicos, con el desarrollo de nuevas disciplinas como la Geología y la Paleontología, que aportaban criterios de sucesión estratigráfica, se empezaron a observar algunas anomalías. Y más aún, después de la irrupción del paradigma darwinista, a partir de 1859, y la comprobación al mismo tiempo de que podían existir momentos intermedios o de transición (evolución sin ruptura) en el desarrollo cultural. La aparición de objetos de cobre puro, por ejemplo, permitiría plantear la existencia de una Edad del Cobre, situada entre la Edad de Piedra y la Edad del Bronce. El reconocimiento de la Edad del Cobre fue algo muy lento y el debate sobre su existencia o no llegó hasta bien entrado el siglo XX. El presente artículo se centra en el estudio historiográfico sobre cómo se llegó a aceptar la Edad del Cobre, que fue uno de los grandes temas de discusión del siglo XIX, y que hoy está injustificadamente olvidado en la literatura científica especializada.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este trabajo describe el diseño y la implementación de un laboratorio virtual de biotecnología, en el que uno o más estudiantes pueden realizar una práctica de ingeniería genética. Esta práctica consiste en modificar genéticamente un árbol (chopo) para dotarlo de una mayor resistencia a enfermedades, especialmente las producidas por hongos. Como parte de este trabajo, se ha realizado un análisis sobre plataformas existentes para la creación de entornos virtuales, tales como Second Life, Bitmanagement Software Collaborate System, OpenSimulator, Open Wonderland; además se han presentado otros trabajos similares a éste existentes en la literatura científica. En este análisis, la plataforma OpenSimulator fue seleccionada por ser gratuita y de código libre, además, al estar basada en Second Life, hereda su facilidad para la creación de mundos virtuales. Una práctica de laboratorio se modela como un protocolo o secuencia de acciones que se deben llevar a cabo. Para validar las acciones del estudiante se ha implementado un objeto, llamado tutor, que verifica la correcta realización de la práctica, y proporciona pistas sobre la siguiente acción a ejecutar. Este objeto posee una programación genérica, que se puede reutilizar en el desarrollo de otras prácticas de laboratorio a través de sencillas modificaciones en su configuración. Finalmente, en este trabajo se presentan los modelos y especificaciones para la construcción del laboratorio virtual.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Actualmente la detección del rostro humano es un tema difícil debido a varios parámetros implicados. Llega a ser de interés cada vez mayor en diversos campos de aplicaciones como en la identificación personal, la interface hombre-máquina, etc. La mayoría de las imágenes del rostro contienen un fondo que se debe eliminar/discriminar para poder así detectar el rostro humano. Así, este proyecto trata el diseño y la implementación de un sistema de detección facial humana, como el primer paso en el proceso, dejando abierto el camino, para en un posible futuro, ampliar este proyecto al siguiente paso, que sería, el Reconocimiento Facial, tema que no trataremos aquí. En la literatura científica, uno de los trabajos más importantes de detección de rostros en tiempo real es el algoritmo de Viola and Jones, que ha sido tras su uso y con las librerías de Open CV, el algoritmo elegido para el desarrollo de este proyecto. A continuación explicaré un breve resumen sobre el funcionamiento de mi aplicación. Mi aplicación puede capturar video en tiempo real y reconocer el rostro que la Webcam captura frente al resto de objetos que se pueden visualizar a través de ella. Para saber que el rostro es detectado, éste es recuadrado en su totalidad y seguido si este mueve. A su vez, si el usuario lo desea, puede guardar la imagen que la cámara esté mostrando, pudiéndola almacenar en cualquier directorio del PC. Además, incluí la opción de poder detectar el rostro humano sobre una imagen fija, cualquiera que tengamos guardada en nuestro PC, siendo mostradas el número de caras detectadas y pudiendo visualizarlas sucesivamente cuantas veces queramos. Para todo ello como bien he mencionado antes, el algoritmo usado para la detección facial es el de Viola and Jones. Este algoritmo se basa en el escaneo de toda la superficie de la imagen en busca del rostro humano, para ello, primero la imagen se transforma a escala de grises y luego se analiza dicha imagen, mostrando como resultado el rostro encuadrado. ABSTRACT Currently the detection of human face is a difficult issue due to various parameters involved. Becomes of increasing interest in various fields of applications such as personal identification, the man-machine interface, etc. Most of the face images contain a fund to be removed / discriminate in order to detect the human face. Thus, this project is the design and implementation of a human face detection system, as the first step in the process, leaving the way open for a possible future, extend this project to the next step would be, Facial Recognition , a topic not covered here. In the literature, one of the most important face detection in real time is the algorithm of Viola and Jones, who has been after use with Open CV libraries, the algorithm chosen for the development of this project. I will explain a brief summary of the performance of my application. My application can capture video in real time and recognize the face that the Webcam Capture compared to other objects that can be viewed through it. To know that the face is detected, it is fully boxed and followed if this move. In turn, if the user may want to save the image that the camera is showing, could store in any directory on your PC. I also included the option to detect the human face on a still image, whatever we have stored in your PC, being shown the number of faces detected and can view them on more times. For all as well I mentioned before, the algorithm used for face detection is that of Viola and Jones. This algorithm is based on scanning the entire surface of the image for the human face, for this, first the image is converted to gray-scale and then analyzed the image, showing results in the face framed.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Introducción. El número de personas que padecen síndrome metabólico ha incrementado a nivel mundial durante las últimas dos décadas. Existen numerosos estudios que tratan de comparar prevalencias según los diferentes criterios y estimaciones del riesgo metabólico. De ellos se puede concluir que el principal hallazgo ha sido recalcar la necesidad de una definición estándar universal. A pesar de estas discrepancias no hay lugar a duda sobre el problema de salud pública que esto conlleva. Se necesitan medidas y estrategias urgentes para prevenir y controlar esta emergente epidemia global y para ello se debe prestar especial atención a los cambios en el estilo de vida, fundamentalmente dieta y ejercicio. A pesar de todo, existe a día de hoy una importante controversia sobre el tipo de ejercicio más efectivo y su combinación con la dieta para conseguir mejoras en la salud. Objetivos. Estudiar los índices de riesgo metabólico empleados en la literatura científica y las terapias basadas en dieta y ejercicio para el tratamiento de los factores del síndrome metabólico en adultos con sobrepeso. Diseño de investigación. Los datos empleados en el análisis de esta tesis son, primeramente un estudio piloto, y posteriormente parte del estudio “Programas de Nutrición y Actividad Física para el tratamiento de la obesidad” (PRONAF). El estudio PRONAF es un proyecto consistente en un estudio clínico sobre programas de nutrición y actividad física para el sobrepeso y la obesidad, desarrollado en España durante varios años de intervenciones. Fue diseñado, en parte, para tratar de comparar protocolos de entrenamiento de resistencia, cargas y combinado en igualdad de volumen e intensidad, con el objetivo de evaluar su impacto en los factores de riesgo y la prevalencia del síndrome metabólico en personas con sobrepeso y obesidad. El diseño experimental es un control aleatorio y el protocolo incluye 3 modos de ejercicio (entrenamiento de resistencia, con cargas y combinado) y restricción dietética sobre diversas variables determinantes del estado de salud. Las principales variables para la investigación que comprende esta tesis fueron: actividad física habitual, marcadores de grasa corporal, niveles de insulina, glucosa, triglicéridos, colesterol total, colesterol HDL, colesterol LDL, presión arterial y parámetros relacionados con el ejercicio. Conclusiones. A) Los índices de riesgo metabólico estudiados presentan resultados contradictorios en relación al riesgo metabólico en un individuo, dependiendo de los métodos matemáticos empleados para el cálculo y de las variables introducidas, tanto en mujeres sanas como en adultos en sobrepeso. B) El protocolo de entrenamiento combinado (de cargas y de resistencia) junto con la dieta equilibrada propuesto en este estudio fue la mejor estrategia para la mejora del riesgo de síndrome metabólico en adultos con sobrepeso. C) Los protocolos de entrenamiento supervisado de resistencia, con cargas y combinado junto con la restricción nutricional, no obtuvieron mejoras sobre el perfil lipídico, más allá de los cambios conseguidos con el protocolo de dieta y recomendaciones generales de actividad física habitual en clínica, en adultos con sobrepeso. Background. Over the past two decades, a striking increase in the number of people with the MetS worldwide has taken place. Many studies compare prevalences using different criteria and metabolic risk estimation formulas, and perhaps their main achievement is to reinforce the need for a standardized international definition. Although these discrepancies, there is no doubt it is a public health problem. There is urgent need for strategies to prevent and manage the emerging global epidemic, special consideration should be given to behavioral and lifestyle, mainly diet and exercise. However, there is still controversy about the most effective type of exercise and diet combination to achieve improvements. Objectives. To study the metabolic risk scores used in the literature and the diet and exercise therapies for the treatment of the MetS factors in overweight adults. Research design. The data used in the analysis was collected firstly in a pilot study and lately, as a part of the “Programas de Nutrición y Actividad física para el tratamiento de la obesidad” study (PRONAF). The PRONAF Study is a clinical research project in nutrition and physical activity programs for overweight and obesity, carried out in Spain (2008-2011). Was designed, in part, to attempt to match the volume and intensity of endurance, strength and combined training protocols in order to evaluate their impact on risk factors and MetS prevalence in overweight and obese people. The design and protocol included three exercise modes (endurance, strength and combined training) and diet restriction, in a randomized controlled trial concerning diverse health status variables. The main variables under investigation were habitual physical activity, markers of body fat, fasting serum levels of insulin, glucose, triglycerides, total, LDL and HDL cholesterol, blood pressure and diet and exercise parameters. Main outcomes. A) The metabolic risk scores studied presented contradictory results in relation to the metabolic risk of an individual, depending on the mathematical method used and the variables included, both in healthy women and overweight adults. B) The protocol proposed for combination of strength and endurance training combined with a balance diet was the optimal strategy for the improvement of MetS risk in overweight adults. C) The intervention program of endurance, strength or combined supervised training protocol with diet restriction did not achieved further improvements in lipid profile than a habitual clinical practice protocol including dietary advice and standard physical activity recommendations, in overweight adults.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La temperatura es una preocupación que juega un papel protagonista en el diseño de circuitos integrados modernos. El importante aumento de las densidades de potencia que conllevan las últimas generaciones tecnológicas ha producido la aparición de gradientes térmicos y puntos calientes durante el funcionamiento normal de los chips. La temperatura tiene un impacto negativo en varios parámetros del circuito integrado como el retardo de las puertas, los gastos de disipación de calor, la fiabilidad, el consumo de energía, etc. Con el fin de luchar contra estos efectos nocivos, la técnicas de gestión dinámica de la temperatura (DTM) adaptan el comportamiento del chip en función en la información que proporciona un sistema de monitorización que mide en tiempo de ejecución la información térmica de la superficie del dado. El campo de la monitorización de la temperatura en el chip ha llamado la atención de la comunidad científica en los últimos años y es el objeto de estudio de esta tesis. Esta tesis aborda la temática de control de la temperatura en el chip desde diferentes perspectivas y niveles, ofreciendo soluciones a algunos de los temas más importantes. Los niveles físico y circuital se cubren con el diseño y la caracterización de dos nuevos sensores de temperatura especialmente diseñados para los propósitos de las técnicas DTM. El primer sensor está basado en un mecanismo que obtiene un pulso de anchura variable dependiente de la relación de las corrientes de fuga con la temperatura. De manera resumida, se carga un nodo del circuito y posteriormente se deja flotando de tal manera que se descarga a través de las corrientes de fugas de un transistor; el tiempo de descarga del nodo es la anchura del pulso. Dado que la anchura del pulso muestra una dependencia exponencial con la temperatura, la conversión a una palabra digital se realiza por medio de un contador logarítmico que realiza tanto la conversión tiempo a digital como la linealización de la salida. La estructura resultante de esta combinación de elementos se implementa en una tecnología de 0,35 _m. El sensor ocupa un área muy reducida, 10.250 nm2, y consume muy poca energía, 1.05-65.5nW a 5 muestras/s, estas cifras superaron todos los trabajos previos en el momento en que se publicó por primera vez y en el momento de la publicación de esta tesis, superan a todas las implementaciones anteriores fabricadas en el mismo nodo tecnológico. En cuanto a la precisión, el sensor ofrece una buena linealidad, incluso sin calibrar; se obtiene un error 3_ de 1,97oC, adecuado para tratar con las aplicaciones de DTM. Como se ha explicado, el sensor es completamente compatible con los procesos de fabricación CMOS, este hecho, junto con sus valores reducidos de área y consumo, lo hacen especialmente adecuado para la integración en un sistema de monitorización de DTM con un conjunto de monitores empotrados distribuidos a través del chip. Las crecientes incertidumbres de proceso asociadas a los últimos nodos tecnológicos comprometen las características de linealidad de nuestra primera propuesta de sensor. Con el objetivo de superar estos problemas, proponemos una nueva técnica para obtener la temperatura. La nueva técnica también está basada en las dependencias térmicas de las corrientes de fuga que se utilizan para descargar un nodo flotante. La novedad es que ahora la medida viene dada por el cociente de dos medidas diferentes, en una de las cuales se altera una característica del transistor de descarga |la tensión de puerta. Este cociente resulta ser muy robusto frente a variaciones de proceso y, además, la linealidad obtenida cumple ampliamente los requisitos impuestos por las políticas DTM |error 3_ de 1,17oC considerando variaciones del proceso y calibrando en dos puntos. La implementación de la parte sensora de esta nueva técnica implica varias consideraciones de diseño, tales como la generación de una referencia de tensión independiente de variaciones de proceso, que se analizan en profundidad en la tesis. Para la conversión tiempo-a-digital, se emplea la misma estructura de digitalización que en el primer sensor. Para la implementación física de la parte de digitalización, se ha construido una biblioteca de células estándar completamente nueva orientada a la reducción de área y consumo. El sensor resultante de la unión de todos los bloques se caracteriza por una energía por muestra ultra baja (48-640 pJ) y un área diminuta de 0,0016 mm2, esta cifra mejora todos los trabajos previos. Para probar esta afirmación, se realiza una comparación exhaustiva con más de 40 propuestas de sensores en la literatura científica. Subiendo el nivel de abstracción al sistema, la tercera contribución se centra en el modelado de un sistema de monitorización que consiste de un conjunto de sensores distribuidos por la superficie del chip. Todos los trabajos anteriores de la literatura tienen como objetivo maximizar la precisión del sistema con el mínimo número de monitores. Como novedad, en nuestra propuesta se introducen nuevos parámetros de calidad aparte del número de sensores, también se considera el consumo de energía, la frecuencia de muestreo, los costes de interconexión y la posibilidad de elegir diferentes tipos de monitores. El modelo se introduce en un algoritmo de recocido simulado que recibe la información térmica de un sistema, sus propiedades físicas, limitaciones de área, potencia e interconexión y una colección de tipos de monitor; el algoritmo proporciona el tipo seleccionado de monitor, el número de monitores, su posición y la velocidad de muestreo _optima. Para probar la validez del algoritmo, se presentan varios casos de estudio para el procesador Alpha 21364 considerando distintas restricciones. En comparación con otros trabajos previos en la literatura, el modelo que aquí se presenta es el más completo. Finalmente, la última contribución se dirige al nivel de red, partiendo de un conjunto de monitores de temperatura de posiciones conocidas, nos concentramos en resolver el problema de la conexión de los sensores de una forma eficiente en área y consumo. Nuestra primera propuesta en este campo es la introducción de un nuevo nivel en la jerarquía de interconexión, el nivel de trillado (o threshing en inglés), entre los monitores y los buses tradicionales de periféricos. En este nuevo nivel se aplica selectividad de datos para reducir la cantidad de información que se envía al controlador central. La idea detrás de este nuevo nivel es que en este tipo de redes la mayoría de los datos es inútil, porque desde el punto de vista del controlador sólo una pequeña cantidad de datos |normalmente sólo los valores extremos| es de interés. Para cubrir el nuevo nivel, proponemos una red de monitorización mono-conexión que se basa en un esquema de señalización en el dominio de tiempo. Este esquema reduce significativamente tanto la actividad de conmutación sobre la conexión como el consumo de energía de la red. Otra ventaja de este esquema es que los datos de los monitores llegan directamente ordenados al controlador. Si este tipo de señalización se aplica a sensores que realizan conversión tiempo-a-digital, se puede obtener compartición de recursos de digitalización tanto en tiempo como en espacio, lo que supone un importante ahorro de área y consumo. Finalmente, se presentan dos prototipos de sistemas de monitorización completos que de manera significativa superan la características de trabajos anteriores en términos de área y, especialmente, consumo de energía. Abstract Temperature is a first class design concern in modern integrated circuits. The important increase in power densities associated to recent technology evolutions has lead to the apparition of thermal gradients and hot spots during run time operation. Temperature impacts several circuit parameters such as speed, cooling budgets, reliability, power consumption, etc. In order to fight against these negative effects, dynamic thermal management (DTM) techniques adapt the behavior of the chip relying on the information of a monitoring system that provides run-time thermal information of the die surface. The field of on-chip temperature monitoring has drawn the attention of the scientific community in the recent years and is the object of study of this thesis. This thesis approaches the matter of on-chip temperature monitoring from different perspectives and levels, providing solutions to some of the most important issues. The physical and circuital levels are covered with the design and characterization of two novel temperature sensors specially tailored for DTM purposes. The first sensor is based upon a mechanism that obtains a pulse with a varying width based on the variations of the leakage currents on the temperature. In a nutshell, a circuit node is charged and subsequently left floating so that it discharges away through the subthreshold currents of a transistor; the time the node takes to discharge is the width of the pulse. Since the width of the pulse displays an exponential dependence on the temperature, the conversion into a digital word is realized by means of a logarithmic counter that performs both the timeto- digital conversion and the linearization of the output. The structure resulting from this combination of elements is implemented in a 0.35_m technology and is characterized by very reduced area, 10250 nm2, and power consumption, 1.05-65.5 nW at 5 samples/s, these figures outperformed all previous works by the time it was first published and still, by the time of the publication of this thesis, they outnumber all previous implementations in the same technology node. Concerning the accuracy, the sensor exhibits good linearity, even without calibration it displays a 3_ error of 1.97oC, appropriate to deal with DTM applications. As explained, the sensor is completely compatible with standard CMOS processes, this fact, along with its tiny area and power overhead, makes it specially suitable for the integration in a DTM monitoring system with a collection of on-chip monitors distributed across the chip. The exacerbated process fluctuations carried along with recent technology nodes jeop-ardize the linearity characteristics of the first sensor. In order to overcome these problems, a new temperature inferring technique is proposed. In this case, we also rely on the thermal dependencies of leakage currents that are used to discharge a floating node, but now, the result comes from the ratio of two different measures, in one of which we alter a characteristic of the discharging transistor |the gate voltage. This ratio proves to be very robust against process variations and displays a more than suficient linearity on the temperature |1.17oC 3_ error considering process variations and performing two-point calibration. The implementation of the sensing part based on this new technique implies several issues, such as the generation of process variations independent voltage reference, that are analyzed in depth in the thesis. In order to perform the time-to-digital conversion, we employ the same digitization structure the former sensor used. A completely new standard cell library targeting low area and power overhead is built from scratch to implement the digitization part. Putting all the pieces together, we achieve a complete sensor system that is characterized by ultra low energy per conversion of 48-640pJ and area of 0.0016mm2, this figure outperforms all previous works. To prove this statement, we perform a thorough comparison with over 40 works from the scientific literature. Moving up to the system level, the third contribution is centered on the modeling of a monitoring system consisting of set of thermal sensors distributed across the chip. All previous works from the literature target maximizing the accuracy of the system with the minimum number of monitors. In contrast, we introduce new metrics of quality apart form just the number of sensors; we consider the power consumption, the sampling frequency, the possibility to consider different types of monitors and the interconnection costs. The model is introduced in a simulated annealing algorithm that receives the thermal information of a system, its physical properties, area, power and interconnection constraints and a collection of monitor types; the algorithm yields the selected type of monitor, the number of monitors, their position and the optimum sampling rate. We test the algorithm with the Alpha 21364 processor under several constraint configurations to prove its validity. When compared to other previous works in the literature, the modeling presented here is the most complete. Finally, the last contribution targets the networking level, given an allocated set of temperature monitors, we focused on solving the problem of connecting them in an efficient way from the area and power perspectives. Our first proposal in this area is the introduction of a new interconnection hierarchy level, the threshing level, in between the monitors and the traditional peripheral buses that applies data selectivity to reduce the amount of information that is sent to the central controller. The idea behind this new level is that in this kind of networks most data are useless because from the controller viewpoint just a small amount of data |normally extreme values| is of interest. To cover the new interconnection level, we propose a single-wire monitoring network based on a time-domain signaling scheme that significantly reduces both the switching activity over the wire and the power consumption of the network. This scheme codes the information in the time domain and allows a straightforward obtention of an ordered list of values from the maximum to the minimum. If the scheme is applied to monitors that employ TDC, digitization resource sharing is achieved, producing an important saving in area and power consumption. Two prototypes of complete monitoring systems are presented, they significantly overcome previous works in terms of area and, specially, power consumption.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El hormigón es uno de los materiales de construcción más empleados en la actualidad debido a sus buenas prestaciones mecánicas, moldeabilidad y economía de obtención, entre otras ventajas. Es bien sabido que tiene una buena resistencia a compresión y una baja resistencia a tracción, por lo que se arma con barras de acero para formar el hormigón armado, material que se ha convertido por méritos propios en la solución constructiva más importante de nuestra época. A pesar de ser un material profusamente utilizado, hay aspectos del comportamiento del hormigón que todavía no son completamente conocidos, como es el caso de su respuesta ante los efectos de una explosión. Este es un campo de especial relevancia, debido a que los eventos, tanto intencionados como accidentales, en los que una estructura se ve sometida a una explosión son, por desgracia, relativamente frecuentes. La solicitación de una estructura ante una explosión se produce por el impacto sobre la misma de la onda de presión generada en la detonación. La aplicación de esta carga sobre la estructura es muy rápida y de muy corta duración. Este tipo de acciones se denominan cargas impulsivas, y pueden ser hasta cuatro órdenes de magnitud más rápidas que las cargas dinámicas impuestas por un terremoto. En consecuencia, no es de extrañar que sus efectos sobre las estructuras y sus materiales sean muy distintos que las que producen las cargas habitualmente consideradas en ingeniería. En la presente tesis doctoral se profundiza en el conocimiento del comportamiento material del hormigón sometido a explosiones. Para ello, es crucial contar con resultados experimentales de estructuras de hormigón sometidas a explosiones. Este tipo de resultados es difícil de encontrar en la literatura científica, ya que estos ensayos han sido tradicionalmente llevados a cabo en el ámbito militar y los resultados obtenidos no son de dominio público. Por otra parte, en las campañas experimentales con explosiones llevadas a cabo por instituciones civiles el elevado coste de acceso a explosivos y a campos de prueba adecuados no permite la realización de ensayos con un elevado número de muestras. Por este motivo, la dispersión experimental no es habitualmente controlada. Sin embargo, en elementos de hormigón armado sometidos a explosiones, la dispersión experimental es muy acusada, en primer lugar, por la propia heterogeneidad del hormigón, y en segundo, por la dificultad inherente a la realización de ensayos con explosiones, por motivos tales como dificultades en las condiciones de contorno, variabilidad del explosivo, o incluso cambios en las condiciones atmosféricas. Para paliar estos inconvenientes, en esta tesis doctoral se ha diseñado un novedoso dispositivo que permite ensayar hasta cuatro losas de hormigón bajo la misma detonación, lo que además de proporcionar un número de muestras estadísticamente representativo, supone un importante ahorro de costes. Con este dispositivo se han ensayado 28 losas de hormigón, tanto armadas como en masa, de dos dosificaciones distintas. Pero además de contar con datos experimentales, también es importante disponer de herramientas de cálculo para el análisis y diseño de estructuras sometidas a explosiones. Aunque existen diversos métodos analíticos, hoy por hoy las técnicas de simulación numérica suponen la alternativa más avanzada y versátil para el cálculo de elementos estructurales sometidos a cargas impulsivas. Sin embargo, para obtener resultados fiables es crucial contar con modelos constitutivos de material que tengan en cuenta los parámetros que gobiernan el comportamiento para el caso de carga en estudio. En este sentido, cabe destacar que la mayoría de los modelos constitutivos desarrollados para el hormigón a altas velocidades de deformación proceden del ámbito balístico, donde dominan las grandes tensiones de compresión en el entorno local de la zona afectada por el impacto. En el caso de los elementos de hormigón sometidos a explosiones, las tensiones de compresión son mucho más moderadas, siendo las tensiones de tracción generalmente las causantes de la rotura del material. En esta tesis doctoral se analiza la validez de algunos de los modelos disponibles, confirmando que los parámetros que gobiernan el fallo de las losas de hormigón armado ante explosiones son la resistencia a tracción y su ablandamiento tras rotura. En base a los resultados anteriores se ha desarrollado un modelo constitutivo para el hormigón ante altas velocidades de deformación, que sólo tiene en cuenta la rotura por tracción. Este modelo parte del de fisura cohesiva embebida con discontinuidad fuerte, desarrollado por Planas y Sancho, que ha demostrado su capacidad en la predicción de la rotura a tracción de elementos de hormigón en masa. El modelo ha sido modificado para su implementación en el programa comercial de integración explícita LS-DYNA, utilizando elementos finitos hexaédricos e incorporando la dependencia de la velocidad de deformación para permitir su utilización en el ámbito dinámico. El modelo es estrictamente local y no requiere de remallado ni conocer previamente la trayectoria de la fisura. Este modelo constitutivo ha sido utilizado para simular dos campañas experimentales, probando la hipótesis de que el fallo de elementos de hormigón ante explosiones está gobernado por el comportamiento a tracción, siendo de especial relevancia el ablandamiento del hormigón. Concrete is nowadays one of the most widely used building materials because of its good mechanical properties, moldability and production economy, among other advantages. As it is known, it has high compressive and low tensile strengths and for this reason it is reinforced with steel bars to form reinforced concrete, a material that has become the most important constructive solution of our time. Despite being such a widely used material, there are some aspects of concrete performance that are not yet fully understood, as it is the case of its response to the effects of an explosion. This is a topic of particular relevance because the events, both intentional and accidental, in which a structure is subjected to an explosion are, unfortunately, relatively common. The loading of a structure due to an explosive event occurs due to the impact of the pressure shock wave generated in the detonation. The application of this load on the structure is very fast and of very short duration. Such actions are called impulsive loads, and can be up to four orders of magnitude faster than the dynamic loads imposed by an earthquake. Consequently, it is not surprising that their effects on structures and materials are very different than those that cause the loads usually considered in engineering. This thesis broadens the knowledge about the material behavior of concrete subjected to explosions. To that end, it is crucial to have experimental results of concrete structures subjected to explosions. These types of results are difficult to find in the scientific literature, as these tests have traditionally been carried out by armies of different countries and the results obtained are classified. Moreover, in experimental campaigns with explosives conducted by civil institutions the high cost of accessing explosives and the lack of proper test fields does not allow for the testing of a large number of samples. For this reason, the experimental scatter is usually not controlled. However, in reinforced concrete elements subjected to explosions the experimental dispersion is very pronounced. First, due to the heterogeneity of concrete, and secondly, because of the difficulty inherent to testing with explosions, for reasons such as difficulties in the boundary conditions, variability of the explosive, or even atmospheric changes. To overcome these drawbacks, in this thesis we have designed a novel device that allows for testing up to four concrete slabs under the same detonation, which apart from providing a statistically representative number of samples, represents a significant saving in costs. A number of 28 slabs were tested using this device. The slabs were both reinforced and plain concrete, and two different concrete mixes were used. Besides having experimental data, it is also important to have computational tools for the analysis and design of structures subjected to explosions. Despite the existence of several analytical methods, numerical simulation techniques nowadays represent the most advanced and versatile alternative for the assessment of structural elements subjected to impulsive loading. However, to obtain reliable results it is crucial to have material constitutive models that take into account the parameters that govern the behavior for the load case under study. In this regard it is noteworthy that most of the developed constitutive models for concrete at high strain rates arise from the ballistic field, dominated by large compressive stresses in the local environment of the area affected by the impact. In the case of concrete elements subjected to an explosion, the compressive stresses are much more moderate, while tensile stresses usually cause material failure. This thesis discusses the validity of some of the available models, confirming that the parameters governing the failure of reinforced concrete slabs subjected to blast are the tensile strength and softening behaviour after failure. Based on these results we have developed a constitutive model for concrete at high strain rates, which only takes into account the ultimate tensile strength. This model is based on the embedded Cohesive Crack Model with Strong Discontinuity Approach developed by Planas and Sancho, which has proved its ability in predicting the tensile fracture of plain concrete elements. The model has been modified for its implementation in the commercial explicit integration program LS-DYNA, using hexahedral finite elements and incorporating the dependence of the strain rate, to allow for its use in dynamic domain. The model is strictly local and does not require remeshing nor prior knowledge of the crack path. This constitutive model has been used to simulate two experimental campaigns, confirming the hypothesis that the failure of concrete elements subjected to explosions is governed by their tensile response, being of particular relevance the softening behavior of concrete.