998 resultados para COLECCIÓN BIBLIOTECA ELECTRÓNICA


Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo del presente trabajo es describir la experiencia de implementación del Sistema Integrado de Gestión Bibliotecaria (SIGB) Koha en una biblioteca especializada en el campo de las ciencias sociales, la Biblioteca de Ciencias Sociales "Enzo Faletto" de la Facultad Latinoamericana de Ciencias Sociales, Sede Académica Argentina. El software seleccionado responde a la intención de adaptar sus procesos a los avances tecnológicos y estándares internacionales que permitan la interoperabilidad con otros sistemas, así como al trabajo cooperativo con otras bibliotecas que facilite el intercambio de datos. De igual forma se corresponde con la política institucional de la Facultad de utilización de software libre. Se exponen las etapas de trabajo aplicadas para el cambio de sistema: tareas iniciales de evaluación de todos los tipos de datos registrados en los catálogos de la biblioteca y las correcciones y homogeneización de los mismos. Asimismo, se detalla el proceso de migración, a través de una proceso de reformateo, de los formatos CEPAL y RELAP, que incluyen registros bibliográficos de ;obras monográficas, artículos y revistas en diversos soportes físicos, al formato MARC21 empleado por Koha. Se destaca la captación de la experiencia realizada por una biblioteca universitaria en este aspecto para resolver de modo cooperativo la problemática de la migración de datos. Se presenta también una de las principales dificultades de la biblioteca de no contar con un número de identificación unívoco que identifique cada ítem existente en su colección, requisito indispensable para todos los SIGB, y la solución adoptada ante esta problemática. Finalmente, se exponen la etapa ;de instalación y configuración del software en su versión 3.16.01.000, y las tareas de adaptación y ajustes del catálogo para su consulta en línea por los usuarios finales, con opciones enriquecidas para las búsquedas de diferente tipo y la navegabilidad de los resultados

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La edición de historietas en Argentina ha sido marcada, en la última década, por una radical modificación de los mecanismos y formatos de edición y, por consiguiente, de los contratos de lectura correspondientes. El abandono de la revista de antología de venta en kioscos, como modelo dominante, y el paso al libro y la edición electrónica produjeron cambios en la producción y consumo que están todavía en proceso. La creciente importancia del libro como soporte para la edición de historietas pone en primer plano las deudas que la historieta, como lenguaje con una legitimidad social siempre en discusión, tiene con la literatura. Esa deuda se establece en la imitación de diversos paratextos propios de la edición literaria y, en particular, en la multiplicación de prólogos que, más allá de las lecturas que proponen, ofrecen a la historieta la jerarquía de un objeto digno de esas lecturas. Y es la literatura la institución que distribuye los dones de la legitimidad a los demás lenguajes, a través de la figura privilegiada del escritor. En la presente ponencia se examinan en particular los prólogos de escritores paralas historietas incluidas en la "Biblioteca Clarín de Historietas" (2004) y en la "Nueva Biblioteca Clarín de Historietas" (2006)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo de la colección de una biblioteca universitaria es satisfacer las necesidades de información que demandan las actividades académico-científicas de la institución. Una manera de comprobar si la biblioteca cumple dichas funciones es evaluar la colección aplicando métodos y técnicas que permitan valorar la adecuación a estas necesidades. De acuerdo a los objetivos que se persigan los métodos más utilizados para evaluar las colecciones pueden dividirse en dos grandes grupos: los centrados en el uso y los centrados en la colección. Dentro de éste último se ubican las llamadas listas de control (catálogos, bibliografías, programas de estudio, etc.). Utilizando como fuente de datos los programas de estudio de las 37 materias que conforman la carrera de Licenciatura en Geología que se dicta en la Facultad de Ciencias Naturales y Museo de la UNLP, se capturaron las referencias bibliográficas de los libros impresos y se cotejaron con el catálogo de la biblioteca, con el objetivo de determinar el porcentaje de adecuación de la colección; el promedio de ejemplares por título; la capacidad idiomática y la antigüedad de la colección en la temática. Los resultados obtenidos permitieron verificar el grado de adecuación de la colección de Geología a las necesidades de enseñanza del grado académico, además de generar información sobre los títulos ausentes en la colección que la biblioteca debería adquirir para aumentar su capacidad de respuesta.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La presente ponencia estudia La Biblioteca Internacional de Obras Famosas desde los enfoques y las metodologías provenientes de la moderna historia del libro y la edición. En este sentido, se procura enlazar el análisis de los públicos lectores y los circuitos de circulación de dicha colección con la siempre compleja cuestión de las resonancias simbólicas que producen las obras de autores nacionales incluidas en el repertorio.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La edición de historietas en Argentina ha sido marcada, en la última década, por una radical modificación de los mecanismos y formatos de edición y, por consiguiente, de los contratos de lectura correspondientes. El abandono de la revista de antología de venta en kioscos, como modelo dominante, y el paso al libro y la edición electrónica produjeron cambios en la producción y consumo que están todavía en proceso. La creciente importancia del libro como soporte para la edición de historietas pone en primer plano las deudas que la historieta, como lenguaje con una legitimidad social siempre en discusión, tiene con la literatura. Esa deuda se establece en la imitación de diversos paratextos propios de la edición literaria y, en particular, en la multiplicación de prólogos que, más allá de las lecturas que proponen, ofrecen a la historieta la jerarquía de un objeto digno de esas lecturas. Y es la literatura la institución que distribuye los dones de la legitimidad a los demás lenguajes, a través de la figura privilegiada del escritor. En la presente ponencia se examinan en particular los prólogos de escritores paralas historietas incluidas en la "Biblioteca Clarín de Historietas" (2004) y en la "Nueva Biblioteca Clarín de Historietas" (2006)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La evaluación es una herramienta de gestión que permite a las instituciones obtener información fiable para la toma de decisiones de distinta naturaleza. En la última década los procesos evaluativos se han venido desarrollando en diferentes organizaciones públicas y privadas. Las bibliotecas no han sido ajenas a estas cuestiones y han debido llevar adelante la evaluación de su gestión con el objetivo de justificar su utilidad en las instituciones de las que dependen. En nuestro país las bibliotecas de los institutos de investigación han sido históricamente relegadas considerándoselas meros reservorios bibliográficos, por tal motivo la evaluación de la gestión en este ámbito puede constituirse en un punto de partida para mejorar la visión que tienen los gestores de las instituciones mayores con respecto a sus bibliotecas. Llevar adelante un plan de evaluación de la colección puede constituirse en una herramienta de análisis y diagnóstico que facilite la elaboración de políticas y que mejore la calidad de los servicios que brindan las bibliotecas científicas. La determinación del grupo de publicaciones nucleares a considerar en el desarrollo de la colección de la Biblioteca del Instituto Argentino de Radioastronomía (IAR) es un elemento de relevancia en los procesos anteriormente mencionados. Para ello se realiza un estudio bibliométrico de la producción y el consumo de literatura científica de los investigadores de la institución a partir del análisis de referencias. Se determinan los índices de obsolescencia y la utilidad para la literatura consultada. Se determinan los frentes de investigación del instituto a partir del análisis de co-ocurrencia de palabras y el análisis de redes sociales.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Partiendo de un análisis general de los conceptos de "colección", "desarrollo de la colección" y "gestión de la colección", se introduce el tema de la política de gestión de colecciones, estableciendo una definición unívoca, explicando las ventajas y dificultades que conlleva su elaboración y proponiendo un modelo a seguir para la redacción de este tipo de plan en una biblioteca

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta presentación pretende mostrar una forma concreta de vehiculizar el acceso abierto en las instituciones científico-académicas a través de la construcción de repositorios institucionales, tomando como ejemplos concretos tres casos exitosos que se están desarrollando en el ámbito de las bibliotecas universitarias argentinas: Memoria Académica de la Facultad de Humanidades y Ciencias de la Educación de la Universidad Nacional de La Plata (FaHCE-UNLP), la Biblioteca Digital de la Universidad Nacional de Cuyo (UnCuyo)y la Biblioteca Digital de la Facultad de Ciencias Exactas y Naturales de la Universidad de Buenos Aires (FCEN-UBA). Se repasarán las características principales de estos proyectos, su génesis, desarrollo, implementación y resultados obtenidos a la fecha, con la idea de mostrar como las bibliotecas pueden convertirse en espacios propicios dentro de las instituciones para desarrollar estas propuestas. Al mismo tiempo, se pretende mostrar cómo estas iniciativas pueden convivir y complementarse sin competir con la edición tradicional de revistas, libros y otros materiales tanto en papel como en formato electrónico

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Con el objetivo de determinar el grupo de publicaciones nucleares a considerar en el desarrollo de la colección de la Biblioteca del IAR, se realiza un estudio bibliométrico de la producción y del consumo de literatura científica de los investigadores de la institución a la que la biblioteca pertenece. A partir del análisis de referencias de los trabajos publicados por los investigadores se determinan la obsolescencia y la utilidad de la literatura consultada. Mediante la extracción de palabras clave y de los autores se determinan también los frentes de investigación del instituto y los grupos de investigadores que trabajan en esos frentes, aplicando los métodos de análisis de co-ocurrencia de palabras, coautorías y análisis de redes sociales. Los resultados dan cuenta de una baja obsolescencia para la literatura consultada, de una elevada preferencia para consultar y publicar en dos o tres títulos de publicaciones periódicas de la disciplina, y demuestran finalmente la existencia de dos frentes de investigación dentro de la institución

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo del presente trabajo es describir la experiencia de implementación del Sistema Integrado de Gestión Bibliotecaria (SIGB) Koha en una biblioteca especializada en el campo de las ciencias sociales, la Biblioteca de Ciencias Sociales "Enzo Faletto" de la Facultad Latinoamericana de Ciencias Sociales, Sede Académica Argentina. El software seleccionado responde a la intención de adaptar sus procesos a los avances tecnológicos y estándares internacionales que permitan la interoperabilidad con otros sistemas, así como al trabajo cooperativo con otras bibliotecas que facilite el intercambio de datos. De igual forma se corresponde con la política institucional de la Facultad de utilización de software libre. Se exponen las etapas de trabajo aplicadas para el cambio de sistema: tareas iniciales de evaluación de todos los tipos de datos registrados en los catálogos de la biblioteca y las correcciones y homogeneización de los mismos. Asimismo, se detalla el proceso de migración, a través de una proceso de reformateo, de los formatos CEPAL y RELAP, que incluyen registros bibliográficos de ;obras monográficas, artículos y revistas en diversos soportes físicos, al formato MARC21 empleado por Koha. Se destaca la captación de la experiencia realizada por una biblioteca universitaria en este aspecto para resolver de modo cooperativo la problemática de la migración de datos. Se presenta también una de las principales dificultades de la biblioteca de no contar con un número de identificación unívoco que identifique cada ítem existente en su colección, requisito indispensable para todos los SIGB, y la solución adoptada ante esta problemática. Finalmente, se exponen la etapa ;de instalación y configuración del software en su versión 3.16.01.000, y las tareas de adaptación y ajustes del catálogo para su consulta en línea por los usuarios finales, con opciones enriquecidas para las búsquedas de diferente tipo y la navegabilidad de los resultados

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo de la colección de una biblioteca universitaria es satisfacer las necesidades de información que demandan las actividades académico-científicas de la institución. Una manera de comprobar si la biblioteca cumple dichas funciones es evaluar la colección aplicando métodos y técnicas que permitan valorar la adecuación a estas necesidades. De acuerdo a los objetivos que se persigan los métodos más utilizados para evaluar las colecciones pueden dividirse en dos grandes grupos: los centrados en el uso y los centrados en la colección. Dentro de éste último se ubican las llamadas listas de control (catálogos, bibliografías, programas de estudio, etc.). Utilizando como fuente de datos los programas de estudio de las 37 materias que conforman la carrera de Licenciatura en Geología que se dicta en la Facultad de Ciencias Naturales y Museo de la UNLP, se capturaron las referencias bibliográficas de los libros impresos y se cotejaron con el catálogo de la biblioteca, con el objetivo de determinar el porcentaje de adecuación de la colección; el promedio de ejemplares por título; la capacidad idiomática y la antigüedad de la colección en la temática. Los resultados obtenidos permitieron verificar el grado de adecuación de la colección de Geología a las necesidades de enseñanza del grado académico, además de generar información sobre los títulos ausentes en la colección que la biblioteca debería adquirir para aumentar su capacidad de respuesta.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objetivo de este trabajo es el mostrar cómo las herramientas de simulación electrónica pueden apoyar didácticamente al profesor en la enseñanza de asignaturas relacionadas con la electrónica de potencia. Se va a presentar un ejemplo guiado de uso de este tipo de herramientas en para el diseño del circuito de control de un convertidor CC/CC para una aplicación de alimentación dual en el entorno del automóvil. Para diseñar el circuito de control es necesario determinar en primer lugar la respuesta en frecuencia del convertidor. Se va a hacer uso del programa Simplorer con la biblioteca SMPS Library como herramienta de simulación para este ejemplo. Existen modelos en dicha biblioteca que permiten obtener la respuesta en frecuencia del circuito de forma directa. Este artículo explica los pasos que deben seguirse para diseñar el circuito de control de un convertidor Buck multi-fase usando tanto modelos promediados como modelos conmutados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La temperatura es una preocupación que juega un papel protagonista en el diseño de circuitos integrados modernos. El importante aumento de las densidades de potencia que conllevan las últimas generaciones tecnológicas ha producido la aparición de gradientes térmicos y puntos calientes durante el funcionamiento normal de los chips. La temperatura tiene un impacto negativo en varios parámetros del circuito integrado como el retardo de las puertas, los gastos de disipación de calor, la fiabilidad, el consumo de energía, etc. Con el fin de luchar contra estos efectos nocivos, la técnicas de gestión dinámica de la temperatura (DTM) adaptan el comportamiento del chip en función en la información que proporciona un sistema de monitorización que mide en tiempo de ejecución la información térmica de la superficie del dado. El campo de la monitorización de la temperatura en el chip ha llamado la atención de la comunidad científica en los últimos años y es el objeto de estudio de esta tesis. Esta tesis aborda la temática de control de la temperatura en el chip desde diferentes perspectivas y niveles, ofreciendo soluciones a algunos de los temas más importantes. Los niveles físico y circuital se cubren con el diseño y la caracterización de dos nuevos sensores de temperatura especialmente diseñados para los propósitos de las técnicas DTM. El primer sensor está basado en un mecanismo que obtiene un pulso de anchura variable dependiente de la relación de las corrientes de fuga con la temperatura. De manera resumida, se carga un nodo del circuito y posteriormente se deja flotando de tal manera que se descarga a través de las corrientes de fugas de un transistor; el tiempo de descarga del nodo es la anchura del pulso. Dado que la anchura del pulso muestra una dependencia exponencial con la temperatura, la conversión a una palabra digital se realiza por medio de un contador logarítmico que realiza tanto la conversión tiempo a digital como la linealización de la salida. La estructura resultante de esta combinación de elementos se implementa en una tecnología de 0,35 _m. El sensor ocupa un área muy reducida, 10.250 nm2, y consume muy poca energía, 1.05-65.5nW a 5 muestras/s, estas cifras superaron todos los trabajos previos en el momento en que se publicó por primera vez y en el momento de la publicación de esta tesis, superan a todas las implementaciones anteriores fabricadas en el mismo nodo tecnológico. En cuanto a la precisión, el sensor ofrece una buena linealidad, incluso sin calibrar; se obtiene un error 3_ de 1,97oC, adecuado para tratar con las aplicaciones de DTM. Como se ha explicado, el sensor es completamente compatible con los procesos de fabricación CMOS, este hecho, junto con sus valores reducidos de área y consumo, lo hacen especialmente adecuado para la integración en un sistema de monitorización de DTM con un conjunto de monitores empotrados distribuidos a través del chip. Las crecientes incertidumbres de proceso asociadas a los últimos nodos tecnológicos comprometen las características de linealidad de nuestra primera propuesta de sensor. Con el objetivo de superar estos problemas, proponemos una nueva técnica para obtener la temperatura. La nueva técnica también está basada en las dependencias térmicas de las corrientes de fuga que se utilizan para descargar un nodo flotante. La novedad es que ahora la medida viene dada por el cociente de dos medidas diferentes, en una de las cuales se altera una característica del transistor de descarga |la tensión de puerta. Este cociente resulta ser muy robusto frente a variaciones de proceso y, además, la linealidad obtenida cumple ampliamente los requisitos impuestos por las políticas DTM |error 3_ de 1,17oC considerando variaciones del proceso y calibrando en dos puntos. La implementación de la parte sensora de esta nueva técnica implica varias consideraciones de diseño, tales como la generación de una referencia de tensión independiente de variaciones de proceso, que se analizan en profundidad en la tesis. Para la conversión tiempo-a-digital, se emplea la misma estructura de digitalización que en el primer sensor. Para la implementación física de la parte de digitalización, se ha construido una biblioteca de células estándar completamente nueva orientada a la reducción de área y consumo. El sensor resultante de la unión de todos los bloques se caracteriza por una energía por muestra ultra baja (48-640 pJ) y un área diminuta de 0,0016 mm2, esta cifra mejora todos los trabajos previos. Para probar esta afirmación, se realiza una comparación exhaustiva con más de 40 propuestas de sensores en la literatura científica. Subiendo el nivel de abstracción al sistema, la tercera contribución se centra en el modelado de un sistema de monitorización que consiste de un conjunto de sensores distribuidos por la superficie del chip. Todos los trabajos anteriores de la literatura tienen como objetivo maximizar la precisión del sistema con el mínimo número de monitores. Como novedad, en nuestra propuesta se introducen nuevos parámetros de calidad aparte del número de sensores, también se considera el consumo de energía, la frecuencia de muestreo, los costes de interconexión y la posibilidad de elegir diferentes tipos de monitores. El modelo se introduce en un algoritmo de recocido simulado que recibe la información térmica de un sistema, sus propiedades físicas, limitaciones de área, potencia e interconexión y una colección de tipos de monitor; el algoritmo proporciona el tipo seleccionado de monitor, el número de monitores, su posición y la velocidad de muestreo _optima. Para probar la validez del algoritmo, se presentan varios casos de estudio para el procesador Alpha 21364 considerando distintas restricciones. En comparación con otros trabajos previos en la literatura, el modelo que aquí se presenta es el más completo. Finalmente, la última contribución se dirige al nivel de red, partiendo de un conjunto de monitores de temperatura de posiciones conocidas, nos concentramos en resolver el problema de la conexión de los sensores de una forma eficiente en área y consumo. Nuestra primera propuesta en este campo es la introducción de un nuevo nivel en la jerarquía de interconexión, el nivel de trillado (o threshing en inglés), entre los monitores y los buses tradicionales de periféricos. En este nuevo nivel se aplica selectividad de datos para reducir la cantidad de información que se envía al controlador central. La idea detrás de este nuevo nivel es que en este tipo de redes la mayoría de los datos es inútil, porque desde el punto de vista del controlador sólo una pequeña cantidad de datos |normalmente sólo los valores extremos| es de interés. Para cubrir el nuevo nivel, proponemos una red de monitorización mono-conexión que se basa en un esquema de señalización en el dominio de tiempo. Este esquema reduce significativamente tanto la actividad de conmutación sobre la conexión como el consumo de energía de la red. Otra ventaja de este esquema es que los datos de los monitores llegan directamente ordenados al controlador. Si este tipo de señalización se aplica a sensores que realizan conversión tiempo-a-digital, se puede obtener compartición de recursos de digitalización tanto en tiempo como en espacio, lo que supone un importante ahorro de área y consumo. Finalmente, se presentan dos prototipos de sistemas de monitorización completos que de manera significativa superan la características de trabajos anteriores en términos de área y, especialmente, consumo de energía. Abstract Temperature is a first class design concern in modern integrated circuits. The important increase in power densities associated to recent technology evolutions has lead to the apparition of thermal gradients and hot spots during run time operation. Temperature impacts several circuit parameters such as speed, cooling budgets, reliability, power consumption, etc. In order to fight against these negative effects, dynamic thermal management (DTM) techniques adapt the behavior of the chip relying on the information of a monitoring system that provides run-time thermal information of the die surface. The field of on-chip temperature monitoring has drawn the attention of the scientific community in the recent years and is the object of study of this thesis. This thesis approaches the matter of on-chip temperature monitoring from different perspectives and levels, providing solutions to some of the most important issues. The physical and circuital levels are covered with the design and characterization of two novel temperature sensors specially tailored for DTM purposes. The first sensor is based upon a mechanism that obtains a pulse with a varying width based on the variations of the leakage currents on the temperature. In a nutshell, a circuit node is charged and subsequently left floating so that it discharges away through the subthreshold currents of a transistor; the time the node takes to discharge is the width of the pulse. Since the width of the pulse displays an exponential dependence on the temperature, the conversion into a digital word is realized by means of a logarithmic counter that performs both the timeto- digital conversion and the linearization of the output. The structure resulting from this combination of elements is implemented in a 0.35_m technology and is characterized by very reduced area, 10250 nm2, and power consumption, 1.05-65.5 nW at 5 samples/s, these figures outperformed all previous works by the time it was first published and still, by the time of the publication of this thesis, they outnumber all previous implementations in the same technology node. Concerning the accuracy, the sensor exhibits good linearity, even without calibration it displays a 3_ error of 1.97oC, appropriate to deal with DTM applications. As explained, the sensor is completely compatible with standard CMOS processes, this fact, along with its tiny area and power overhead, makes it specially suitable for the integration in a DTM monitoring system with a collection of on-chip monitors distributed across the chip. The exacerbated process fluctuations carried along with recent technology nodes jeop-ardize the linearity characteristics of the first sensor. In order to overcome these problems, a new temperature inferring technique is proposed. In this case, we also rely on the thermal dependencies of leakage currents that are used to discharge a floating node, but now, the result comes from the ratio of two different measures, in one of which we alter a characteristic of the discharging transistor |the gate voltage. This ratio proves to be very robust against process variations and displays a more than suficient linearity on the temperature |1.17oC 3_ error considering process variations and performing two-point calibration. The implementation of the sensing part based on this new technique implies several issues, such as the generation of process variations independent voltage reference, that are analyzed in depth in the thesis. In order to perform the time-to-digital conversion, we employ the same digitization structure the former sensor used. A completely new standard cell library targeting low area and power overhead is built from scratch to implement the digitization part. Putting all the pieces together, we achieve a complete sensor system that is characterized by ultra low energy per conversion of 48-640pJ and area of 0.0016mm2, this figure outperforms all previous works. To prove this statement, we perform a thorough comparison with over 40 works from the scientific literature. Moving up to the system level, the third contribution is centered on the modeling of a monitoring system consisting of set of thermal sensors distributed across the chip. All previous works from the literature target maximizing the accuracy of the system with the minimum number of monitors. In contrast, we introduce new metrics of quality apart form just the number of sensors; we consider the power consumption, the sampling frequency, the possibility to consider different types of monitors and the interconnection costs. The model is introduced in a simulated annealing algorithm that receives the thermal information of a system, its physical properties, area, power and interconnection constraints and a collection of monitor types; the algorithm yields the selected type of monitor, the number of monitors, their position and the optimum sampling rate. We test the algorithm with the Alpha 21364 processor under several constraint configurations to prove its validity. When compared to other previous works in the literature, the modeling presented here is the most complete. Finally, the last contribution targets the networking level, given an allocated set of temperature monitors, we focused on solving the problem of connecting them in an efficient way from the area and power perspectives. Our first proposal in this area is the introduction of a new interconnection hierarchy level, the threshing level, in between the monitors and the traditional peripheral buses that applies data selectivity to reduce the amount of information that is sent to the central controller. The idea behind this new level is that in this kind of networks most data are useless because from the controller viewpoint just a small amount of data |normally extreme values| is of interest. To cover the new interconnection level, we propose a single-wire monitoring network based on a time-domain signaling scheme that significantly reduces both the switching activity over the wire and the power consumption of the network. This scheme codes the information in the time domain and allows a straightforward obtention of an ordered list of values from the maximum to the minimum. If the scheme is applied to monitors that employ TDC, digitization resource sharing is achieved, producing an important saving in area and power consumption. Two prototypes of complete monitoring systems are presented, they significantly overcome previous works in terms of area and, specially, power consumption.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Publicado con motivo de la celebración de las "Bodas de oro" del Nacionalismo Vasco, 1882-1932