110 resultados para Tarjetas electrónicas-Fabricación
Resumo:
La mayoría de las estructuras de hormigón pretensadas construidas en los últimos 50 años han demostrado una excelente durabilidad cuando su construcción se realiza atendiendo las recomendaciones de un buen diseño así como una buena ejecución y puesta en obra de la estructura. Este hecho se debe en gran parte al temor que despierta el fenómeno de la corrosión bajo tensión típico de las armaduras de acero de alta resistencia. Menos atención se ha prestado a la susceptibilidad a la corrosión bajo tensión de los anclajes de postensado, posiblemente debido a que se han reportado pocos casos de fallos catastróficos. El concepto de Tolerancia al Daño y la Mecánica de la Fractura en estructuras de Ingeniería Civil ha empezado a incorporarse recientemente en algunas normas de diseño y cálculo de estructuras metálicas, sin embargo, aún está lejos de ser asimilado y empleado habitualmente por los ingenieros en sus cálculos cuando la ocasión lo requiere. Este desconocimiento de los aspectos relacionados con la Tolerancia al Daño genera importantes gastos de mantenimiento y reparación. En este trabajo se ha estudiado la aplicabilidad de los conceptos de la Mecánica de la Fractura a los componentes de los sistemas de postensado empleados en ingeniería civil, empleándolo para analizar la susceptibilidad de las armaduras activas frente a la corrosión bajo tensiones y a la pérdida de capacidad portante de las cabezas de anclajes de postensado debido a la presencia de defectos. Con este objeto se han combinado tanto técnicas experimentales como numéricas. Los defectos superficiales en los alambres de pretensado no se presentan de manera aislada si no que existe una cierta continuidad en la dirección axial así como un elevado número de defectos. Por este motivo se ha optado por un enfoque estadístico, que es más apropiado que el determinístico. El empleo de modelos estadísticos basados en la teoría de valores extremos ha permitido caracterizar el estado superficial en alambres de 5,2 mm de diámetro. Por otro lado la susceptibilidad del alambre frente a la corrosión bajo tensión ha sido evaluada mediante la realización de una campaña de ensayos de acuerdo con la actual normativa que ha permitido caracterizar estadísticamente su comportamiento. A la vista de los resultados ha sido posible evaluar como los parámetros que definen el estado superficial del alambre pueden determinar la durabilidad de la armadura atendiendo a su resistencia frente a la corrosión bajo tensión, evaluada mediante los ensayos que especifica la normativa. En el caso de las cabezas de anclaje de tendones de pretensado, los defectos se presentan de manera aislada y tienen su origen en marcas, arañazos o picaduras de corrosión que pueden producirse durante el proceso de fabricación, transporte, manipulación o puesta en obra. Dada la naturaleza de los defectos, el enfoque determinístico es más apropiado que el estadístico. La evaluación de la importancia de un defecto en un elemento estructural requiere la estimación de la solicitación local que genera el defecto, que permite conocer si el defecto es crítico o si puede llegar a serlo, si es que progresa con el tiempo (por fatiga, corrosión, una combinación de ambas, etc.). En este trabajo los defectos han sido idealizados como grietas, de manera que el análisis quedara del lado de la seguridad. La evaluación de la solicitación local del defecto ha sido calculada mediante el empleo de modelos de elementos finitos de la cabeza de anclaje que simulan las condiciones de trabajo reales de la cabeza de anclaje durante su vida útil. A partir de estos modelos numéricos se ha analizado la influencia en la carga de rotura del anclaje de diversos factores como la geometría del anclaje, las condiciones del apoyo, el material del anclaje, el tamaño del defecto su forma y su posición. Los resultados del análisis numérico han sido contrastados satisfactoriamente mediante la realización de una campaña experimental de modelos a escala de cabezas de anclaje de Polimetil-metacrilato en los que artificialmente se han introducido defectos de diversos tamaños y en distintas posiciones. ABSTRACT Most of the prestressed concrete structures built in the last 50 years have demonstrated an excellent durability when they are constructed in accordance with the rules of good design, detailing and execution. This is particularly true with respect to the feared stress corrosion cracking, which is typical of high strength prestressing steel wires. Less attention, however, has been paid to the stress corrosion cracking susceptibility of anchorages for steel tendons for prestressing concrete, probably due to the low number of reported failure cases. Damage tolerance and fracture mechanics concepts in civil engineering structures have recently started to be incorporated in some design and calculation rules for metallic structures, however it is still far from being assimilated and used by civil engineers in their calculations on a regular basis. This limited knowledge of the damage tolerance basis could lead to significant repair and maintenance costs. This work deals with the applicability of fracture mechanics and damage tolerance concepts to the components of prestressed systems, which are used in civil engineering. Such concepts have been applied to assess the susceptibility of the prestressing steel wires to stress corrosion cracking and the reduction of load bearing capability of anchorage devices due to the presence of defects. For this purpose a combination of experimental work and numerical techniques have been performed. Surface defects in prestressing steel wires are not shown alone, though a certain degree of continuity in the axial direction exist. A significant number of such defects is also observed. Hence a statistical approach was used, which is assumed to be more appropriate than the deterministic approach. The use of statistical methods based in extreme value theories has allowed the characterising of the surface condition of 5.2 mm-diameter wires. On the other hand the stress corrosion cracking susceptibility of the wire has been assessed by means of an experimental testing program in line with the current regulations, which has allowed statistical characterisasion of their performances against stress corrosion cracking. In the light of the test results, it has been possible to evaluate how the surface condition parameters could determine the durability of the active metal armour regarding to its resistance against stress corrosion cracking assessed by means of the current testing regulations. In the case of anchorage devices for steel tendons for prestressing concrete, the damage is presented as point defects originating from dents, scratches or corrosion pits that could be produced during the manufacturing proccess, transport, handling, assembly or use. Due to the nature of these defects, in this case the deterministic approach is more appropriate than the statistical approach. The assessment of the relevancy of defect in a structural component requires the computation of the stress intensity factors, which in turn allow the evaluation of whether the size defect is critical or could become critical with the progress of time (due to fatigue, corrosion or a combination of both effects). In this work the damage is idealised as tiny cracks, a conservative hypothesis. The stress intensity factors have been calculated by means of finite element models of the anchorage representing the real working conditions during its service life. These numeric models were used to assess the impact of some factors on the rupture load of the anchorage, such the anchorage geometry, material, support conditions, defect size, shape and its location. The results from the numerical analysis have been succesfully correlated against the results of the experimental testing program of scaled models of the anchorages in poly-methil methacrylate in which artificial damage in several sizes and locations were introduced.
Resumo:
En la situación actual, tanto las posibilidades de contratar como los resultados económicos de un astillero, dependen de su capacidad para construir un buque en el plazo mas corto posible. Dentro de los trabajos de diseño y construcción de de un buque el trabajo de tuberías ha sido el que tradicionalmente ha condicionado los plazos de construcción. En este estudio se considerara que se han tenido en cuenta los criterios necesarios para que las instalaciones del buque funcionen correctamente y se verá como los sistemas de diseño influyen en el coste y plazo del buque y, por tanto, en la productividad del astillero. Se estudian los distintos procesos de diseño, fabricación y montaje de tuberías, la evolución de estos procesos a lo largo del tiempo, los módulos de armamento que se realizan en los astilleros, los modelos de cámara de máquinas, y los sistemas de ayuda al diseño por ordenador. El autor, en su puesto de Jefe de la Oficina Tecnológica de la Factoría de Sevilla de Astilleros Españoles en los últimos 12 años, ha tomado parte activa en esta evolución, formando parte de un equipo que ha situado a este astillero entre los mas avanzarlos de Europa. Todo lo anterior sirve de base para la segunda parte de este estudio, donde se abordan las que, en opinión del autor, son las nuevas tendencias en el diseño de tuberías en la construcción naval. V Integración del CAD/CAM o CIM : CAD = computer aided design o diseño asistido por ordenador, CAM = computer aided manufacturing o fabricación asistida por ordenador, CIM = computer integrated manufacturing o fabricación integrada por ordenador. Se estudia la integración de los procesos de diseño con el resto de los procesos de gestión y de producción de un astillero, proponiéndose un modelo de cómo el autor ve esta integración. Se comenta la actual tendencia a pasar de las automatizaciones duras con maquinas especializadas para cada proceso, a las automatizaciones blandas en las que un robot puede realizar distintos procesos modificando su programación. Se estudian las nuevas posibilidades de la normal i zacio'n, de los planos parametrizados y de la tecnología de grupos aportando algunos ejemplos. Se estudia también como los procesos anteriores conducirán a una optimización del producto en sí, es decir a conseguir mejores buques. En las conclusiones destacamos como el camino que tienen los países desarrollados, como el nuestro, para mantener una industria competitiva de construcción naval va por la mecanización de los procesos constructivos siguiendo las tendencias anteriores y obteniendo buques optimizados. vi SUMMARY Under the present situation the possibilities to contract and the economical results of a Shipyard depend on its capacity to build a ship within the shortest time. i Within the works of design and construction of a ship, piping work has traditionally conditioned the construction time. In this study it shall be considered that the necessary criteria for the ship installations to operate correctly have been taken into account and it shall be noticed how the design systems influence on the cost and time of a ship and therefore on the Shipyard's productivity. Studies are made of different design processes, manufacturing and installation of piping, evolution of these processes along the time, outfitting modules made in the Shipyard, engine room models and computerized design aid systems. The author, in his post of Chief of the Technological Office of Sevilla Shipyard of Astilleros Españoles for the last 12 years, has taken an active part in this evolution, making part of a team which has placed this Shipyard among the most advanced in Europe. All of the above is used for the second part of this study, whereby an approach is made to those who, in the author's opinion, are the new trends in the piping design of shipbuilding. vii Integration of CAD/CAM or CIM: CAD = computer aided design, CAM = computer aided manufacturing, CIM = computer integrated manufacturing. i A study is made of the integration of design processes with the remaining step and production Shipyard processes, proposing a model of how the author views this integration. Comments are made on the present trend to go from hard automations with specialized machines for each process to soft automations, in which a robot can carry out different processes modifying its programmes. Studies are made of: New possibility of standardization, parametrized drawings and group technology, bringing some examples. It is also studied how the above processes shall lead to optimize the product itself, that is, to obtain better ships. In the conclusions we stand out how the way of developed countries (as ours) to maintain a competitive shipbuilding industry is by computerizing constructive processes, following the above trends and obtaining better ships.
Resumo:
En la actualidad, las personas infectadas por el VIH con acceso a tratamiento retrasan indefinidamente su entrada en la fase SIDA de la enfermedad, convirtiéndose en pacientes crónicos. Un mayor conocimiento del comportamiento del virus y de cómo afecta a las personas infectadas podría conducirnos a optimizar el tratamiento y con ello mejorar la calidad de vida de los pacientes. En este contexto aparece la minería de datos, un conjunto de metodologías que, aplicadas a grandes bases de datos, nos permiten obtener información novedosa y potencialmente útil oculta en ellas. Este trabajo de investigación realiza una primera aproximación al problema mediante la búsqueda de asociaciones en una base de datos en la que se registran las historias clínicas electrónicas de personas infectadas que son tratadas en el Hospital Clínic de Barcelona.
Resumo:
La intensa relación de las infotecnologías con el ámbito educativo no es algo nuevo. Ha ido pasando por diferentes etapas marcadas por uno u otro modelo para el proceso de enseñanza-aprendizaje: tele-enseñanza o educación a distancia, Computer-Based Learning (CBL), E-Learning, Blended Learning o B-Learning son algunos de ellos. En cada caso se han incorporando diferentes tecnologías, desde las cintas magnéticas de audio y vídeo hasta los portátiles, las tabletas y las pizarras electrónicas, pasando por la vídeoconferencia o la mensajería instantánea. Hoy hablamos de E-Learning 2.0 (Downes, 2005) y Technology-Enhanced Learning (TEL). Todos esos modelos y sus metáforas asociadas han ido integrando, además de las diferentes capacidades tecnologías disponibles, distintas teorías pedagógicas, empezando por las tradicionalmente conocidas en la literatura del ámbito de la psicología educativa: el conductismo, el constructivismo o el constructivismo social. En la tabla 1 puede encontrar el lector esa asociación sintética, conjeturando con la definición de los roles de enseñante y aprendiz en cada modelo. Los cambios de “paradigma” –que habitualmente obvian la naturaleza original de este término para generalizarlo de forma poco rigurosa- anunciados y demandados en el ámbito educativo durante décadas se articulaban en (Barr y Tagg, 1995) alrededor de elementos como la misión y los objetivos de las instituciones educativas, la estructuración de los procesos educativos, su coste y productividad, los roles de los diferentes actores involucrados, la definición teórica del proceso de enseñanza-aprendizaje o las métricas de tal proceso. Downes (2005) lo resume de forma muy sintética con la siguiente afirmación (la traducción es mía): “el modelo de E-Learning que lo define en términos de unos contenidos, producidos por los editores, organizados y estructurados en cursos y consumidos por los estudiantes, se está dando la vuelta. En lo que se refiere al contenido, es mucho más probable que sea usado antes que “leído” y, en cualquier caso, es mucho más probable que sea producido por los propios estudiantes que por los autores especializados en la producción de cursos. En lo que se refiere a la estructura, es más probable que se parezca más a un idioma o una conversación que a un manual o libro de texto”. La irrupción en la escena tecnológica de la Web 2.0 como fenómeno social, sociotécnico en los términos de (Fumero, Roca y Sáez Vacas, 2007), ha hecho que se recuperen antiguas ambiciones teóricas asociadas a algunas de aquellas teorías clásicas, especialmente las que tienen que ver con el constructivismo cognitivo de J. Piaget (1964) y el constructivismo social de L. Vygotsky (1978). Esas teorías, enriquecidas con apuestas más atrevidas como el “conectivismo” (Siemens, 2004), han dado lugar al relanzamiento de modelos pedagógicos como el aprendizaje auto-gestionado o auto-dirigido, con sus matices de formulación (Self-Managed vs. Self-Directed Learning) que se han ido complementando a lo largo del tiempo con modelos de intervención asistidos, basados en un proceso de “andamiaje” o ‘scaffolding’ (véase en el capítulo 3, bajo el epígrafe “Psicología educativa para ingenieros”). Hoy podemos ver cómo, mientras se empieza a consolidar la reorganización del escenario institucional de la Educación Superior en Europa, tras el agotamiento de todos los plazos y las prórrogas contempladas por el acuerdo de Bolonia para su implementación –véase, por ejemplo, (Ortega, 2005) y su reflexión acerca de los “ingenieros creativos” en relación con esta reforma- se ha vuelto a plantear la implantación de procesos educativos basados en el aprendizaje informal (frente al formal y dando lugar a la definición del aprendizaje “no formal”), procesos que realmente se implementan como experiencias de aprendizaje mutuo (peer learning), en comunidad y ayudados por unas infotecnologías que, a pesar de su característica “cotidianeidad” (véase en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana”) siguen arrastrando el atributo de “educativas”. Evidentemente, la “tecnificación” de las instituciones de enseñanza superior ha ido consolidando algunos elementos tecnológicos que hoy son estándares de facto, como por ejemplo los sistemas integrados de gestión conocidos por sus siglas anglosajonas, LMS (Learning Management Systems). Los enormes esfuerzos, organizativos y técnicos, de integración que se han ido desarrollando en ese sentido –véase por ejemplo en (Aguirre, 2012)- han permanecido un tanto insensibles al desarrollo paralelo que, animados por la proliferación de herramientas más ricas y accesibles, llevaban a cabo los usuarios (profesores y alumnos; enseñantes y aprendices) que, manteniendo algún tipo de relación con una de esas instituciones (véase el escenario a que dan lugar en la figura 4) hacían un uso creativo de las tecnologías que la Red ponía a su alcance. En el escenario actual –aun predominando la excitación tecnológica- han acabado encontrándose ambas corrientes, generando un nuevo espacio de incertidumbre (léase de oportunidades) en el que se encuentran las soluciones establecidas, en forma de LMS, con las primeras formulaciones de esas combinaciones creativas de herramientas, metodologías y modelos, también conocidos como entornos personales de aprendizaje (Personal Learning Environments, PLE), que han revitalizado otras propuestas tecnológicas, como los e-Portfolios, o pedagógicas, como los contratos de aprendizaje (véase su aplicación en el caso de estudio del proyecto iCamp, en el capítulo 4). Es en ese escenario y desde una perspectiva interdisciplinar, híbrida, mestiza y conciliadora, donde tiene sentido plantear, como objeto de un trabajo de investigación consistente, la consolidación de un modelo que nos ayude a contextualizar la situación de cambio infotecnológico, organizativo y social a la que nos enfrentamos y que nos guíe en su instrumentalización para afrontar “situaciones de complejidad” similares que, sin duda, tendremos que abordar en el medio plazo. Esto me lleva a contemplar el problema desde una perspectiva suficientemente amplia, pero con un foco bien definido sobre los procesos educativos –de enseñanza y aprendizaje- en el ámbito de la Educación Superior y, específicamente, en lo referente a la formación de los infoprofesionales. Un escenario en el que se dan cita necesariamente la Tecnología Educativa y la Web 2.0 como fenómeno sociotécnico y que me llevan al análisis de modelos de intervención basados en lo que se conoce como “software social” –en sentido amplio, considerando herramientas, tecnologías y metodologías-, ensayados en ese ámbito extendido a la capacitación y la formación profesionales. Se establece, por tanto, como escenario del trabajo de investigación –y ámbito para el diseño de aquellas intervenciones- el de las organizaciones educativas, aplicando la definición sintética que recoge el propio Fernando Sáez Vacas (FSV) de la reingeniería de procesos (la negrita y las anotaciones, entre paréntesis, son mías), “que consiste en reinventar la forma de desarrollar las operaciones de la empresa (institución educativa, universitaria por ejemplo), partiendo de nuevos enfoques muy orientados a las necesidades de los clientes (los aprendices o estudiantes), con rotura de las tradicionales formas organizativas verticales y del desempeño humano y un uso masivo de las modernas tecnologías de la información y de la comunicación”; y que se aplicarán de acuerdo con la integración de los elementos metodológicos y conceptuales, que conformarán las bases de una SocioTecnología de la Información y Cultura (STIC) y que hunden sus raíces en la complejidad y la sistémica (véase en el Prontuario). El objetivo genérico que se planteaba en la propuesta original de tesis doctoral era ambicioso: “desarrollar y potenciar las bases de un ‘movimiento’ de I+D+i (+d) –con “d” minúscula de difusión, divulgación, diseminación-, sobre socioinfotecnocultura enfocado en el contexto de este trabajo específicamente en su difusión educativa y principalmente en el ámbito de la Educación Superior” y para la formación de los infoprofesionales. El objetivo específico del mismo era el de “diseñar un (conjunto) instrumental cognitivo básico, aunque relativamente complejo y denso en su formulación, para los infoprofesionales, considerados como agentes activos de la infotecnología con visión y aplicación social”. La tesis de partida es que existe –en palabras de FSV- la necesidad “de desarrollar educativamente los conocimientos y modelos socioinfotecnoculturales para nutrir una actitud en principio favorable a los progresos infotecnológicos, pero encauzada por una mentalidad “abierta, positiva, crítica, activa y responsable” y orientar con la mayor profundidad posible a los infoprofesionales y, en un grado razonable, a los infociudadanos hacia usos positivos desde puntos de vista humanos y sociales”. Justificar, documentar y caracterizar esa necesidad latente –y en muchos aspectos patente en el actual escenario educativo- será parte importante del trabajo; así como elaborar los elementos necesarios que ofrezcan coherencia y consistencia suficientes al marco conceptual de esa nueva “socioinfotecnocultura” que en la formulación adoptada aquí será el marco tecnocultural básico de una SocioTecnología de la Información y Cultura (STIC), debiendo integrar esos elementos en el proceso educativo de enseñanza-aprendizaje de tal manera que puedan ser objeto de diseño y experimentación, particularizándolo sobre los infoprofesionales en primera instancia, aunque dentro de un proyecto amplio para el desarrollo y promoción social de una STIC. Mi planteamiento aquí, si bien incorpora elementos y modelos considerados previamente en algunos de mis trabajos de análisis, investigación, experimentación y diseminación realizados a lo largo del periodo de formación –modelos de intervención desarrollados en el proyecto iCamp, ampliamente documentados en (Fiedler, 2006) o (Fiedler y Kieslinger, 2007) y comentados en el capítulo 4-, en gran parte, por simple coherencia, estará constituido por elementos propios y/o adaptados de FSV que constituirán el marco tecnocultural de una teoría general de la STIC, que está en la base de este planteamiento. La asimilación en términos educativos de ese marco tecnocultural supondrá un esfuerzo considerable de reingeniería y se apoyará en el circuito cognitivo individual ampliado de “información-esfuerzo-conocimiento-esfuerzo-acción” que se recoge en el Prontuario (figura 34) y que parte de (Sáez Vacas, 1991a). La mejor forma de visualizar la formulación de ese proceso educativo es ponerlo en los términos del modelo OITP (Organización, Individuos, Tecnologías y Procesos) tal y como se ilustra en el Prontuario (figura 25) y que se puede encontrar descrito brevemente por su autor en (Sáez Vacas, 1995), de la misma forma que se planteaba la experiencia INTL 2.0 en (Sáez Vacas, Fumero et al., 2007) y que es objeto de análisis en el capítulo 5. En este caso, el plano que atraviesa el Proceso (educativo) será el marco tecnocultural de nuestra STIC; la Organización será, en genérico, el ámbito institucional de la Educación Superior y, en concreto, el dedicado a la formación de los infoprofesionales –entendidos en el sentido amplio que se planteaba en (Sáez Vacas, 1983b)-, que serán los Individuos, la componente (I) del modelo OITP. Este trabajo de tesis doctoral es uno de los resultados del proyecto de investigación propuesto y comprometido con esos objetivos, que se presenta aquí como un “proyecto tecnocultural” más amplio (véase el epígrafe homónimo en el capítulo 1). Un resultado singular, por lo que representa en el proceso de formación y acreditación del investigador que lo suscribe. En este sentido, este trabajo constituye, por un lado, la base de un elemento divulgativo que se sumará a los esfuerzos de I+D+i+d (véase textículo 3), recogidos en parte como resultados de la investigación; mientras que, por el otro lado, incorpora elementos metodológicos teóricos originales que contribuyen al objetivo genérico planteado en la propuesta de tesis, además de constituir una parte importante de los procesos de instrumentalización, recogidos en parte en los objetivos específicos de la propuesta, que en este entregable formarán parte de líneas futuras de trabajo, que se presentan en el capítulo 6 de conclusiones y discusión de resultados. Dentro de esos elementos metodológicos, teóricos, resulta especialmente relevante –en términos de los objetivos planteados originalmente-, la simplificación instrumental de las aportaciones teóricas previas, que han sido fruto del esfuerzo de análisis sistemático e implementación de diferentes intervenciones en el ámbito educativo, que se centran específicamente en el proyecto iCamp (véase en el capítulo 4) y la experiencia INTL 2.0 (véase en el capítulo 5, junto a otras experiencias instrumentales en la UPM). Esa simplificación, como elaboración teórica y proceso de modelización, se realiza extrayendo elementos de la validación teórica y experimental, que de alguna forma proporcionan los casos de estudio (capítulos 4 y 5), para incorporarlos como argumentos en la consolidación de un enfoque tecnocultural que está en la base de la construcción de una SocioTecnología de la Información y Cultura (STIC) consistente, basada en el sistemismo aplicado en diferentes situaciones de complejidad y que requerirán de una inter/multidisciplinariedad que vaya más allá de la simple “yuxtaposición” de especialidades que conocemos en nuestra actual Universidad (me refiero, con mayúscula, a la institución universitaria en toda su extensión). Esa será la base para el diseño y la construcción de experiencias educativas, basadas en el generalismo sistémico, para infoprofesionales (véase en el capítulo 1) en particular e infociudadanos en general, que nos permitirán “cimentar, con suficientes garantías, un cierto nivel de humanismo en el proceso de construcción de una sociedad de la información y del conocimiento”. En el caso de iCamp pudimos experimentar, desde un enfoque (véase en el capítulo 4) basado en diseño (Design-based Research, DbR), con tres elementos que se pueden trasladar fácilmente al concepto de competencias –o incluso en su implementación funcional, como habilidades o capacidades instrumentales percibidas, léase ‘affordances’- y que introducen tres niveles de complejidad asociados (véase, en el Prontuario, el modelo de tres niveles de complejidad), a saber el aprendizaje auto-dirigido (complejidad individual), la colaboración (complejidad sistémica) y la construcción de una red de aprendizaje (complejidad sociotécnica). Esa experimentación nos llevó a evolucionar el propio concepto de entorno personal de aprendizaje (PLE, Personal Learning Environment), partiendo de su concepción originalmente tecnológica e instrumental, para llegar a una concepción más amplia y versátil desde el punto de vista de la intervención, basada en una visión “ecológica” de los sistemas abiertos de aprendizaje (véase en el capítulo 3). En el caso de las experiencias en la UPM (capítulo 5), el caso singular de INTL 2.0 nos muestra cómo el diseño basado en la sistémica aplicada a problemas (léase situaciones de complejidad específicas) no estructurados, como los procesos de enseñanza-aprendizaje, dan lugar a intervenciones coherentes con esa visión ecológica basada en la teoría de la actividad y con los elementos comunes de la psicología educativa moderna, que parte del constructivismo social de L. Vygotsky (1978). La contraposición de ese caso con otras realizaciones, centradas en la configuración instrumental de experiencias basadas en la “instrucción” o educación formal, debe llevarnos al rediseño –o al menos a la reformulación- de ciertos componentes ya consolidados en ese tipo de formación “institucionalizada” (véase en el capítulo 5), como pueden ser el propio curso, unidad académica de programación incuestionable, los procedimientos de acreditación, certificación y evaluación, ligados a esa planificación temporal de “entrega” de contenidos y la conceptualización misma del “aula” virtual como espacio para el intercambio en la Red y fuera de ella. Todas esas observaciones (empíricas) y argumentaciones (teóricas) que derivan de la situación de complejidad específica que aquí nos ocupa sirven, a la postre –tal y como requiere el objetivo declarado de este trabajo de investigación- para ir “sedimentando” unas bases sólidas de una teoría general de la SocioTecnología de la Información y Cultura (STIC) que formen parte de un marco tecnocultural más amplio que, a su vez, servirá de guía para su aplicación en otras situaciones de complejidad, en ámbitos distintos. En este sentido, aceptando como parte de ese marco tecnocultural las características de convivencialidad y cotidianeidad (véase, en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana, TVIC”) de una “infotecnología-uso” (modelo de las cinco subculturas infotecnológicas, también recogido en el Prontuario), consideraremos como aportaciones relevantes (véase capítulo 2): 1) la argumentación sociotécnica del proceso de popularización de la retórica informática del cambio de versión, de la que deriva el fenómeno de la Web 2.0; 2) el papel estelar del móvil inteligente y su capacidad para transformar las capacidades percibidas para la acción dentro del Nuevo Entorno Tecnosocial (NET), especialmente en la situación de complejidad que nos ocupa, que ya desarrollaran Rodríguez Sánchez, Sáez Vacas y García Hervás (2010) dentro del mismo marco teórico que caracterizamos aquí como enfoque STIC; 3) y la existencia de una cierta “inteligencia tecnosocial”, que ya conjeturara FSV en (Sáez Vacas, 2011d) y que cobra cada vez más relevancia por cuanto que resulta coherente con otros modelos consolidados, como el de las inteligencias múltiples de Gardner (2000), así como con las observaciones realizadas por otros autores en relación con la aparición de nuevos alfabetismos que conformarían “una nueva generación de inteligencia” (Fumero y Espiritusanto, 2011). En rigor, el método científico –entiéndase este trabajo como parte de un proceso de investigación tecnocientífica- implica el desarrollo de una componente dialéctica asociada a la presentación de resultados; aunque, evidentemente, la misma se apoya en una actitud crítica para la discusión de los resultados aportados, que debe partir, necesariamente, como condición sine qua non de un profundo escepticismo debidamente informado. Es ese el espíritu con el que se ha afrontado la redacción de este documento, que incluye, en el capítulo 6, una serie de argumentos específicamente destinados a plantear esa discusión de resultados a partir de estas aportaciones que he vertido sintéticamente en este resumen, que no persigue otra cosa que motivar al lector para adentrarse en la lectura de este texto al completo, tarea que requiere de un esfuerzo personal dirigido (véase el epígrafe “Cómo leer este texto” en el índice) que contará con elementos de apoyo, tanto hipertextuales (Fumero, 2012a y 2012b) como textuales, formando parte del contenido de este documento entregable de tesis doctoral (véase el Prontuario, o el Texticulario).
Resumo:
Este proyecto nace de la necesidad de automatizar el estudio de sistemas hidráulicos y de control de roturas en presas. Para realizar el estudio de sistemas hidráulicos se usarán un número indeterminado de sensores de nivel, presión y caudal. El número de sensores que se pueden utilizar viene determinado por el material disponible. Estos sensores se conectarán a unas tarjetas de National Instruments modelo NI 9208 y éstas a su vez a un chasis modelo CompactDAQ NI-9174 con cuatro ranuras. Conectando este chasis al ordenador podremos obtener los datos provenientes de los sensores. También se podrá controlar una válvula para determinar la cantidad de agua que fluye en nuestro experimento. Está válvula está conectada a una tarjeta NI-9264 que se conectará al chasis en su última posición Para detectar y estudiar posibles roturas en presas se dispone de un motor y un láser con los cuales se puede barrer la superficie de una presa y obtener una imagen en tres dimensiones de la misma procesando los datos provenientes del laser. Para recoger los datos de los sensores y controlar una válvula se ha desarrollado una aplicación utilizando LabVIEW, un programa creado por National Instruments. Para poder controlar el motor y el láser se parte de una aplicación que ya estaba realizada en LabVIEW. El objetivo ha sido detectar y corregir una serie de errores en la misma. Dentro del proyecto, además de la explicación detallada de la aplicación para los sensores y la válvula, y las pruebas realizadas para detectar y corregir los errores de la aplicación del láser y el motor, existe: una breve introducción a la programación en LabVIEW, la descripción de los pasos realizados para el conexionado de los sensores con las tarjetas, los manuales de usuario de las aplicaciones y la descripción de los equipos utilizados. This project stars from the need to automate the study of hydraulic systems and control dam breaks. For the study of hydraulic systems it will be used an unspecified number of level, pressure and flow sensors. The number of sensors that can be used is determined by the available material. These sensors are connected to a NI 9208 National Instruments target and these cards to a NI-9174 CompactDAQ chassis with four slots. Connecting the chassis to a computer we will obtain data from the sensors. We also can control a valve to determine the amount of water flowing in our experiment. This valve is connected to a NI-9264 card and this card to the last position of the chassis. To detect and study dams breakage it used a motor and a laser. With these two devices we can scan the surface of a dam and obtain a three-dimensional image processing data from the laser. To collect data from the sensors and control the valve it has developed an application using LabVIEW, a program created by National Instruments. To control the motor and the laser it is used an application that was already created using LabVIEW. The aim of this part has been detect and correct a number of errors in this application. Within the project, in addition to the detailed explanation of the application for sensors and valve, and tests to detect and correct errors in the application of lasers and the motor, there is: a brief introduction to programming in LabVIEW, the description of the steps taken for connecting the sensors with cards, user manuals and application description of the equipment used.
Resumo:
La implantación de las tecnologías Internet ha permitido la extensión del uso de estrategias e-manufacturing y el desarrollo de herramientas para la recopilación, transformación y sincronización de datos de fabricación vía web. En este ámbito, un área de potencial desarrollo es la extensión del virtual manufacturing a los procesos de Performance Management (PM), área crítica para la toma de decisiones y ejecución de acciones de mejora en fabricación. Este trabajo doctoral propone un Arquitectura de Información para el desarrollo de herramientas virtuales en el ámbito PM. Su aplicación permite asegurar la interoperabilidad necesaria en los procesos de tratamiento de información de toma de decisión. Está formado por tres sub-sistemas: un modelo conceptual, un modelo de objetos y un marco Web compuesto de una plataforma de información y una arquitectura de servicios Web (WS). El modelo conceptual y el modelo de objetos se basa en el desarrollo de toda la información que se necesita para definir y obtener los diferentes indicadores de medida que requieren los procesos PM. La plataforma de información hace uso de las tecnologías XML y B2MML para estructurar un nuevo conjunto de esquemas de mensajes de intercambio de medición de rendimiento (PMXML). Esta plataforma de información se complementa con una arquitectura de servicios web que hace uso de estos esquemas para integrar los procesos de codificación, decodificación, traducción y evaluación de los performance key indicators (KPI). Estos servicios realizan todas las transacciones que permiten transformar los datos origen en información inteligente usable en los procesos de toma de decisión. Un caso práctico de intercambio de datos en procesos de medición del área de mantenimiento de equipos es mostrado para verificar la utilidad de la arquitectura. ABSTRAC The implementation of Internet technologies has led to e-Manufacturing technologies becoming more widely used and to the development of tools for compiling, transforming and synchronizing manufacturing data through the Web. In this context, a potential area for development is the extension of virtual manufacturing to Performance Measurement (PM) processes, a critical area for decision-making and implementing improvement actions in manufacturing. This thesis proposes a Information Architecture to integrate decision support systems in e-manufacturing. Specifically, the proposed architecture offers a homogeneous PM information exchange model that can be applied trough decision support in emanufacturing environment. Its application improves the necessary interoperability in decision-making data processing tasks. It comprises three sub-systems: a data model, a object model and Web Framework which is composed by a PM information platform and PM-Web services architecture. . The data model and the object model are based on developing all the information required to define and acquire the different indicators required by PM processes. The PM information platform uses XML and B2MML technologies to structure a new set of performance measurement exchange message schemas (PM-XML). This PM information platform is complemented by a PM-Web Services architecture that uses these schemas to integrate the coding, decoding, translation and assessment processes of the key performance indicators (KPIs). These services perform all the transactions that enable the source data to be transformed into smart data that can be used in the decision-making processes. A practical example of data exchange for measurement processes in the area of equipment maintenance is shown to demonstrate the utility of the architecture.
Resumo:
La visión por computador es una parte de la inteligencia artificial que tiene una aplicación industrial muy amplia, desde la detección de piezas defectuosas al control de movimientos de los robots para la fabricación de piezas. En el ámbito aeronáutico, la visión por computador es una herramienta de ayuda a la navegación, pudiendo usarse como complemento al sistema de navegación inercial, como complemento a un sistema de posicionamiento como el GPS, o como sistema de navegación visual autónomo.Este proyecto establece una primera aproximación a los sistemas de visión articial y sus aplicaciones en aeronaves no tripuladas. La aplicación que se desarrollará será la de apoyo al sistema de navegación, mediante una herramienta que a través de las imágenes capturadas por una cámara embarcada, dé la orden al autopiloto para posicionar el aparato frente la pista en la maniobra de aterrizaje.Para poder realizar ese cometido, hay que estudiar las posibilidades y los desarrollos que el mercado ofrece en este campo, así como los esfuerzos investigadores de los diferentes centros de investigación, donde se publican multitud soluciones de visión por computador para la navegación de diferentes vehículos no tripulados, en diferentes entornos. Ese estudio llevará a cabo el proceso de la aplicación de un sistema de visión articial desde su inicio. Para ello, lo primero que se realizará será definir una solución viable dentro de las posibilidades que la literatura permita conocer. Además, se necesitará realizar un estudio de las necesidades del sistema, tanto de hardware como de software, y acudir al mercado para adquirir la opción más adecuada que satisfaga esas necesidades. El siguiente paso es el planteamiento y desarrollo de la aplicación, mediante la defnición de un algoritmo y un programa informático que aplique el algoritmo y analizar los resultados de los ensayos y las simulaciones de la solución. Además, se estudiará una propuesta de integración en una aeronave y la interfaz de la estación de tierra que debe controlar el proceso. Para finalizar, se exponen las conclusiones y los trabajos futuros para continuar la labor de desarrollo de este proyecto.
Resumo:
Uno de los problemas que más amenazan el bienestar de la sociedad actual es el fenómeno del cambio climático, y este es debido al aumento de las emisiones de gases de efecto invernadero, principalmente CO2, al medio ambiente. El sector industrial es uno de los que más contribuyen a dicho fenómeno debido, entre otros factores, al consumo energético. Por ello, crece cada vez más el interés de atribuir responsabilidades a las industrias con el fin de que sus actividades contribuyan en menor medida a los impactos ambientales, también en el sector de la construcción. Con base a esto, se promueve el empleo de herramientas o metodologías con el fin de conocer, valuar y reducir la energía empleada en una edificación. En este trabajo se realizará un estudio comparativo de la cantidad total de energía consumida y el valor de las emisiones de CO2 derivadas de este consumo de energía, entre cuatro de los tipos de fachada más representativos empleados en edificación actualmente: una fachada tradicional de ladrillo, dos tipologías de piezas prefabricadas de hormigón y un muro cortina. Para ello este estudio estará dividido en dos partes: Primero mediante el empleo de la herramienta del Análisis Ciclo de Vida que lo podemos definir como un proceso objetivo para evaluar las cargas ambientales asociadas a un producto, proceso o actividad identificando y cuantificando el uso de materia y energía y los residuos que genera. Se medirán las emisiones de CO2 emitidas al medio ambiente durante la fabricación, transporte, demolición y posterior tratamiento de residuos de todos lo materiales necesarios para la construcción de las fachadas estudiadas. Para completar este primer estudio, y como todos los resultados encontrados ponen de manifiesto que la fase operacional es la responsable del mayor consumo energético y por lo tanto es la que más contribuye al fenómeno del cambio climático, también calcularemos la demanda energética del edificio necesaria para mantener unas determinadas condiciones de confort en su interior. El valor de esta demanda, a la que se denominará eficiencia energética, varía entre otros factores en función de las características de la fachada del edificio estudiado. Por ello dependiendo de la utilización de cada una de las cuatro tipologías de fachada a estudiar obtendremos un volumen de emisiones. Una vez realizados ambos estudios, obtendremos una comparativa de los valores de CO2 emitidos al medio ambiente durante toda la vida del edificio, en función del tipo de fachada que este disponga.
Resumo:
El hormigón armado es el material estructural más empleado en construcción, lo que exige un exhaustivo control tanto de los materiales que lo componen como de su ejecución, con el fin de garantizar la vida útil para la que ha sido proyectado. Uno de los principales problemas de la durabilidad del hormigón armado, es la corrosión de sus armaduras. Existen en la actualidad diferentes métodos que intentan detener el proceso de corrosión, entre ellos, los inhibidores superficiales de corrosión. El continuo incremento en la producción de acero desde el siglo XIX, ha producido un desequilibrio entre los productos fabricados en las industrias siderúrgicas y los residuos generados. Como consecuencia, toneladas de residuos son depositados en vertederos, provocando graves daños medioambientales con el paso del tiempo. El volumen de escorias producidas en la industria siderúrgica en España asciende a 2,55Mt al año, de ahí la importancia del reciclaje de estos productos y de su integración como materia prima en el proceso de fabricación de otros materiales. Partiendo de estas premisas, en el presente trabajo de investigación se ha estudiado el comportamiento a corrosión, de barras de acero de armar embebidas en probetas de mortero, en las que se ha sustituido parcialmente el árido y el cemento por escorias blancas de horno cuchara (LFS), mediante técnicas electroquímicas y gravimétricas. Para ello, se han fabricado probetas prismáticas de 6 x 8 x 2 cm3 con diferentes porcentajes de ión cloruro, introducidos en el momento del amasado, tanto en probetas patrón como en probetas con escorias LFS. El análisis de los resultados obtenidos permite concluir que las probetas patrón y las probetas con escorias LFS tienen comportamientos similares en presencia de cloruros por encima del 0,4% en peso de cemento y por tanto que la sustitución de escorias LFS por arena (25%) y cemento (30%) no afecta negativamente a la corrosión de las armaduras. Por tanto, el uso de escorias LFS en el proceso de fabricación de hormigón armado es una práctica que presenta ventajas competitivas respecto a las técnicas de construcción tradicionales, desde el punto de vista económico y medioambiental. En cuanto a los inhibidores superficiales de corrosión, no han resultado eficaces en probetas con escorias LFS, independientemente del porcentaje de ión cloruro, mientras que en probetas patrón han sido eficaces para porcentajes de ión cloruro igual o inferior al 0,8% en peso de cemento. ABSTRACT Reinforced concrete is the most widely used structural material. This implies that rigorous control must be applied in order to guarantee the life-span and performance of structures made using this composite material. One of the main problems regarding concrete durability is bar corrosion. At present, there are different methods adopted to stop the corrosion process, among them, surface corrosion inhibitors. The continuous growth in steel production since the 19th century has led to an imbalance between waste products generated in steel production processes and their subsequent use. As a consequence, mass dumping at waste disposal sites has been causing a significant environmental problem over the years. The amount of slag produced by the steel industry each year in Spain amounts to 2.55Mt, hence the importance of recycling by-products from steel production so they can be used as primary material in the manufacturing process of other materials. Starting from this working hypothesis, and using electrochemical and gravimetric techniques, this research work aims to analyse and study the corrosion behaviour of steel rebars embedded in mortar specimens, containing ladle furnace slag in partial substitution for aggregate and cement. Prisms were manufactured from 6 x 8 x 2 cm3 with different percentages of chloride ion introduced at the time of mixing, in standard specimens and specimens with LFS slag. Results from the analysis show that the standard specimens and those containing LFS slag display a similar behaviour in the presence of chlorides. Furthermore, when LFS slag is replaced by sand (25%) and cement (30%) corrosion of rebars is not negatively affected. Additionally, the use of LFS slag in the manufacture of reinforced structures is a practice that represents a competitive advantage over traditional construction techniques, from both an economic and environmental point of view Finally, as for surface corrosion inhibitors, they have not proved effective in specimens containing LFS slag, regardless of the percentage of the chloride ion, whereas in standard specimens they have been effective in chloride ion percentages not exceeding 0.8% (as to the cement amount).
Resumo:
Abstract This work is a contribution to the research and development of the intermediate band solar cell (IBSC), a high efficiency photovoltaic concept that features the advantages of both low and high bandgap solar cells. The resemblance with a low bandgap solar cell comes from the fact that the IBSC hosts an electronic energy band -the intermediate band (IB)- within the semiconductor bandgap. This IB allows the collection of sub-bandgap energy photons by means of two-step photon absorption processes, from the valence band (VB) to the IB and from there to the conduction band (CB). The exploitation of these low energy photons implies a more efficient use of the solar spectrum. The resemblance of the IBSC with a high bandgap solar cell is related to the preservation of the voltage: the open-circuit voltage (VOC) of an IBSC is not limited by any of the sub-bandgaps (involving the IB), but only by the fundamental bandgap (defined from the VB to the CB). Nevertheless, the presence of the IB allows new paths for electronic recombination and the performance of the IBSC is degraded at 1 sun operation conditions. A theoretical argument is presented regarding the need for the use of concentrated illumination in order to circumvent the degradation of the voltage derived from the increase in the recombi¬nation. This theory is supported by the experimental verification carried out with our novel characterization technique consisting of the acquisition of photogenerated current (IL)-VOC pairs under low temperature and concentrated light. Besides, at this stage of the IBSC research, several new IB materials are being engineered and our novel character¬ization tool can be very useful to provide feedback on their capability to perform as real IBSCs, verifying or disregarding the fulfillment of the “voltage preservation” principle. An analytical model has also been developed to assess the potential of quantum-dot (QD)-IBSCs. It is based on the calculation of band alignment of III-V alloyed heterojunc-tions, the estimation of the confined energy levels in a QD and the calculation of the de¬tailed balance efficiency. Several potentially useful QD materials have been identified, such as InAs/AlxGa1-xAs, InAs/GaxIn1-xP, InAs1-yNy/AlAsxSb1-x or InAs1-zNz/Alx[GayIn1-y]1-xP. Finally, a model for the analysis of the series resistance of a concentrator solar cell has also been developed to design and fabricate IBSCs adapted to 1,000 suns. Resumen Este trabajo contribuye a la investigación y al desarrollo de la célula solar de banda intermedia (IBSC), un concepto fotovoltaico de alta eficiencia que auna las ventajas de una célula solar de bajo y de alto gap. La IBSC se parece a una célula solar de bajo gap (o banda prohibida) en que la IBSC alberga una banda de energía -la banda intermedia (IB)-en el seno de la banda prohibida. Esta IB permite colectar fotones de energía inferior a la banda prohibida por medio de procesos de absorción de fotones en dos pasos, de la banda de valencia (VB) a la IB y de allí a la banda de conducción (CB). El aprovechamiento de estos fotones de baja energía conlleva un empleo más eficiente del espectro solar. La semejanza antre la IBSC y una célula solar de alto gap está relacionada con la preservación del voltaje: la tensión de circuito abierto (Vbc) de una IBSC no está limitada por ninguna de las fracciones en las que la IB divide a la banda prohibida, sino que está únicamente limitada por el ancho de banda fundamental del semiconductor (definido entre VB y CB). No obstante, la presencia de la IB posibilita nuevos caminos de recombinación electrónica, lo cual degrada el rendimiento de la IBSC a 1 sol. Este trabajo argumenta de forma teórica la necesidad de emplear luz concentrada para evitar compensar el aumento de la recom¬binación de la IBSC y evitar la degradación del voltage. Lo anterior se ha verificado experimentalmente por medio de nuestra novedosa técnica de caracterización consistente en la adquisicin de pares de corriente fotogenerada (IL)-VOG en concentración y a baja temperatura. En esta etapa de la investigación, se están desarrollando nuevos materiales de IB y nuestra herramienta de caracterizacin está siendo empleada para realimentar el proceso de fabricación, comprobando si los materiales tienen capacidad para operar como verdaderas IBSCs por medio de la verificación del principio de preservación del voltaje. También se ha desarrollado un modelo analítico para evaluar el potencial de IBSCs de puntos cuánticos. Dicho modelo está basado en el cálculo del alineamiento de bandas de energía en heterouniones de aleaciones de materiales III-V, en la estimación de la energía de los niveles confinados en un QD y en el cálculo de la eficiencia de balance detallado. Este modelo ha permitido identificar varios materiales de QDs potencialmente útiles como InAs/AlxGai_xAs, InAs/GaxIni_xP, InAsi_yNy/AlAsxSbi_x ó InAsi_zNz/Alx[GayIni_y]i_xP. Finalmente, también se ha desarrollado un modelado teórico para el análisis de la resistencia serie de una célula solar de concentración. Gracias a dicho modelo se han diseñado y fabricado IBSCs adaptadas a 1.000 soles.
Resumo:
Uno de los retos actuales aún pendiente de lograr trabajando con espumas de aluminio, es el desarrollo de métodos de unión fácilmente reproducibles a nivel industrial que permitan la unión de espumas de aluminio entre sí o con otros componentes tipo pletinas, para así poder fabricar piezas de mayor tamaño o con formas complejas, a la vez que se conserven las propiedades y características principales de las espumas de aluminio, tanto en la zona principal de unión o cordón, como en la interfase y zona afectada térmicamente, que se encuentran anexa. Los actuales procesos de unión más utilizados con espumas de aluminio, se basan principalmente en adhesivos y uniones mecánicas. Estas soluciones a priori válidas, añaden problemas técnicos a determinadas aplicaciones de las espumas que frenan la completa integración de estos materiales en un entorno de fabricación flexible y global. Por esta razón, los actuales procesos de producción de las espumas de aluminio se restringen a determinadas ofertas hechas a la medida del cliente, no pudiendo atender por falta de soluciones, a una gran parte del potencial mercado de estos materiales. En el presente trabajo de investigación se han desarrollado y caracterizado diferentes métodos de unión de espumas de aluminio, en configuración a tope y de espumas de aluminio con pletinas en configuración a solape, basados en procesos por soldeo térmico. One of the current challenges even pending of being achieved working with aluminium foams, is the development of easily reproducible methods at industrial level that allow the joint of aluminium foams between them or with other elements as for example aluminium plates for making bigger pieces or with more complex forms, remaining simultaneously in the weld bead the properties and main characteristics of aluminium foam, so much in the joint area or interface, since in the affected closer thermal zone. Currently, the most used joint processes for applying to aluminium foams are based mainly on adhesives and mechanical joins. These solutions initially valid, add technical problems to certain aluminium foams applications, which stop the complete integration of these materials in a more flexible and global manufacture environment. For this reason, current aluminium foam manufacturing processes are restricted to certain offers done to a specific customer requirement, not being able to attend for lack of available solutions, to a great potential market of these materials. In the present work, different joint methods between aluminium foams and between aluminium foams and plates for butt and lap configurations have been developed and characterized based on thermal welding processes.
Resumo:
El objetivo de la presente tesis doctoral es el desarrollo de un nuevo concepto de biosensor óptico sin marcado, basado en una combinación de técnicas de caracterización óptica de interrogación vertical y estructuras sub-micrométricas fabricadas sobre chips de silicio. Las características más importantes de dicho dispositivo son su simplicidad, tanto desde el punto de vista de medida óptica como de introducción de las muestras a medir en el área sensible, aspectos que suelen ser críticos en la mayoría de sensores encontrados en la literatura. Cada uno de los aspectos relacionados con el diseño de un biosensor, que son fundamentalmente cuatro (diseño fotónico, caracterización óptica, fabricación y fluídica/inmovilización química) son desarrollados en detalle en los capítulos correspondientes. En la primera parte de la tesis se hace una introducción al concepto de biosensor, en qué consiste, qué tipos hay y cuáles son los parámetros más comunes usados para cuantificar su comportamiento. Posteriormente se realiza un análisis del estado del arte en la materia, enfocado en particular en el área de biosensores ópticos sin marcado. Se introducen también cuáles son las reacciones bioquímicas a estudiar (inmunoensayos). En la segunda parte se describe en primer lugar cuáles son las técnicas ópticas empleadas en la caracterización: Reflectometría, Elipsometría y Espectrometría; además de los motivos que han llevado a su empleo. Posteriormente se introducen diversos diseños de las denominadas "celdas optofluídicas", que son los dispositivos en los que se va a producir la interacción bioquímica. Se presentan cuatro dispositivos diferentes, y junto con ellos, se proponen diversos métodos de cálculo teórico de la respuesta óptica esperada. Posteriormente se procede al cálculo de la sensibilidad esperada para cada una de las celdas, así como al análisis de los procesos de fabricación de cada una de ellas y su comportamiento fluídico. Una vez analizados todos los aspectos críticos del comportamiento del biosensor, se puede realizar un proceso de optimización de su diseño. Esto se realiza usando un modelo de cálculo simplificado (modelo 1.5-D) que permite la obtención de parámetros como la sensibilidad y el límite de detección de un gran número de dispositivos en un tiempo relativamente reducido. Para este proceso se escogen dos de las celdas optofluídicas propuestas. En la parte final de la tesis se muestran los resultados experimentales obtenidos. En primer lugar, se caracteriza una celda basada en agujeros sub-micrométricos como sensor de índice de refracción, usando para ello diferentes líquidos orgánicos; dichos resultados experimentales presentan una buena correlación con los cálculos teóricos previos, lo que permite validar el modelo conceptual presentado. Finalmente, se realiza un inmunoensayo químico sobre otra de las celdas propuestas (pilares nanométricos de polímero SU-8). Para ello se utiliza el inmunoensayo de albumina de suero bovino (BSA) y su anticuerpo (antiBSA). Se detalla el proceso de obtención de la celda, la funcionalización de la superficie con los bioreceptores (en este caso, BSA) y el proceso de biorreconocimiento. Este proceso permite dar una primera estimación de cuál es el límite de detección esperable para este tipo de sensores en un inmunoensayo estándar. En este caso, se alcanza un valor de 2.3 ng/mL, que es competitivo comparado con otros ensayos similares encontrados en la literatura. La principal conclusión de la tesis es que esta tipología de dispositivos puede ser usada como inmunosensor, y presenta ciertas ventajas respecto a los actualmente existentes. Estas ventajas vienen asociadas, de nuevo, a su simplicidad, tanto a la hora de medir ópticamente, como dentro del proceso de introducción de los bioanalitos en el área sensora (depositando simplemente una gota sobre la micro-nano-estructura). Los cálculos teorícos realizados en los procesos de optimización sugieren a su vez que el comportamiento del sensor, medido en magnitudes como límite de detección biológico puede ser ampliamente mejorado con una mayor compactación de pilares, alcanzandose un valor mínimo de 0.59 ng/mL). The objective of this thesis is to develop a new concept of optical label-free biosensor, based on a combination of vertical interrogation optical techniques and submicron structures fabricated over silicon chips. The most important features of this device are its simplicity, both from the point of view of optical measurement and regarding to the introduction of samples to be measured in the sensing area, which are often critical aspects in the majority of sensors found in the literature. Each of the aspects related to the design of biosensors, which are basically four (photonic design, optical characterization, fabrication and fluid / chemical immobilization) are developed in detail in the relevant chapters. The first part of the thesis consists of an introduction to the concept of biosensor: which elements consists of, existing types and the most common parameters used to quantify its behavior. Subsequently, an analysis of the state of the art in this area is presented, focusing in particular in the area of label free optical biosensors. What are also introduced to study biochemical reactions (immunoassays). The second part describes firstly the optical techniques used in the characterization: reflectometry, ellipsometry and spectrometry; in addition to the reasons that have led to their use. Subsequently several examples of the so-called "optofluidic cells" are introduced, which are the devices where the biochemical interactions take place. Four different devices are presented, and their optical response is calculated by using various methods. Then is exposed the calculation of the expected sensitivity for each of the cells, and the analysis of their fabrication processes and fluidic behavior at the sub-micrometric range. After analyzing all the critical aspects of the biosensor, it can be performed a process of optimization of a particular design. This is done using a simplified calculation model (1.5-D model calculation) that allows obtaining parameters such as sensitivity and the detection limit of a large number of devices in a relatively reduced time. For this process are chosen two different optofluidic cells, from the four previously proposed. The final part of the thesis is the exposition of the obtained experimental results. Firstly, a cell based sub-micrometric holes is characterized as refractive index sensor using different organic fluids, and such experimental results show a good correlation with previous theoretical calculations, allowing to validate the conceptual model presented. Finally, an immunoassay is performed on another typology of cell (SU-8 polymer pillars). This immunoassay uses bovine serum albumin (BSA) and its antibody (antiBSA). The processes for obtaining the cell surface functionalization with the bioreceptors (in this case, BSA) and the biorecognition (antiBSA) are detailed. This immunoassay can give a first estimation of which are the expected limit of detection values for this typology of sensors in a standard immunoassay. In this case, it reaches a value of 2.3 ng/mL, which is competitive with other similar assays found in the literature. The main conclusion of the thesis is that this type of device can be used as immunosensor, and has certain advantages over the existing ones. These advantages are associated again with its simplicity, by the simpler coupling of light and in the process of introduction of bioanalytes into the sensing areas (by depositing a droplet over the micro-nano-structure). Theoretical calculations made in optimizing processes suggest that the sensor Limit of detection can be greatly improved with higher compacting of the lattice of pillars, reaching a minimum value of 0.59 ng/mL).
Resumo:
Bats are animals that posses high maneuvering capabilities. Their wings contain dozens of articulations that allow the animal to perform aggressive maneuvers by means of controlling the wing shape during flight (morphing-wings). There is no other flying creature in nature with this level of wing dexterity and there is biological evidence that the inertial forces produced by the wings have a key role in the attitude movements of the animal. This can inspire the design of highly articulated morphing-wing micro air vehicles (not necessarily bat-like) with a significant wing-to-body mass ratio. This thesis presents the development of a novel bat-like micro air vehicle (BaTboT) inspired by the morphing-wing mechanism of bats. BaTboT’s morphology is alike in proportion compared to its biological counterpart Cynopterus brachyotis, which provides the biological foundations for developing accurate mathematical models and methods that allow for mimicking bat flight. In nature bats can achieve an amazing level of maneuverability by combining flapping and morphing wingstrokes. Attempting to reproduce the biological wing actuation system that provides that kind of motion using an artificial counterpart requires the analysis of alternative actuation technologies more likely muscle fiber arrays instead of standard servomotor actuators. Thus, NiTinol Shape Memory Alloys (SMAs) acting as artificial biceps and triceps muscles are used for mimicking the morphing wing mechanism of the bat flight apparatus. This antagonistic configuration of SMA-muscles response to an electrical heating power signal to operate. This heating power is regulated by a proper controller that allows for accurate and fast SMA actuation. Morphing-wings will enable to change wings geometry with the unique purpose of enhancing aerodynamics performance. During the downstroke phase of the wingbeat motion both wings are fully extended aimed at increasing the area surface to properly generate lift forces. Contrary during the upstroke phase of the wingbeat motion both wings are retracted to minimize the area and thus reducing drag forces. Morphing-wings do not only improve on aerodynamics but also on the inertial forces that are key to maneuver. Thus, a modeling framework is introduced for analyzing how BaTboT should maneuver by means of changing wing morphology. This allows the definition of requirements for achieving forward and turning flight according to the kinematics of the wing modulation. Motivated by the biological fact about the influence of wing inertia on the production of body accelerations, an attitude controller is proposed. The attitude control law incorporates wing inertia information to produce desired roll (φ) and pitch (θ) acceleration commands. This novel flight control approach is aimed at incrementing net body forces (Fnet) that generate propulsion. Mimicking the way how bats take advantage of inertial and aerodynamical forces produced by the wings in order to both increase lift and maneuver is a promising way to design more efficient flapping/morphing wings MAVs. The novel wing modulation strategy and attitude control methodology proposed in this thesis provide a totally new way of controlling flying robots, that eliminates the need of appendices such as flaps and rudders, and would allow performing more efficient maneuvers, especially useful in confined spaces. As a whole, the BaTboT project consists of five major stages of development: - Study and analysis of biological bat flight data reported in specialized literature aimed at defining design and control criteria. - Formulation of mathematical models for: i) wing kinematics, ii) dynamics, iii) aerodynamics, and iv) SMA muscle-like actuation. It is aimed at modeling the effects of modulating wing inertia into the production of net body forces for maneuvering. - Bio-inspired design and fabrication of: i) skeletal structure of wings and body, ii) SMA muscle-like mechanisms, iii) the wing-membrane, and iv) electronics onboard. It is aimed at developing the bat-like platform (BaTboT) that allows for testing the methods proposed. - The flight controller: i) control of SMA-muscles (morphing-wing modulation) and ii) flight control (attitude regulation). It is aimed at formulating the proper control methods that allow for the proper modulation of BaTboT’s wings. - Experiments: it is aimed at quantifying the effects of properly wing modulation into aerodynamics and inertial production for maneuvering. It is also aimed at demonstrating and validating the hypothesis of improving flight efficiency thanks to the novel control methods presented in this thesis. This thesis introduces the challenges and methods to address these stages. Windtunnel experiments will be oriented to discuss and demonstrate how the wings can considerably affect the dynamics/aerodynamics of flight and how to take advantage of wing inertia modulation that the morphing-wings enable to properly change wings’ geometry during flapping. Resumen: Los murciélagos son mamíferos con una alta capacidad de maniobra. Sus alas están conformadas por docenas de articulaciones que permiten al animal maniobrar gracias al cambio geométrico de las alas durante el vuelo. Esta característica es conocida como (alas mórficas). En la naturaleza, no existe ningún especimen volador con semejante grado de dexteridad de vuelo, y se ha demostrado, que las fuerzas inerciales producidas por el batir de las alas juega un papel fundamental en los movimientos que orientan al animal en vuelo. Estas características pueden inspirar el diseño de un micro vehículo aéreo compuesto por alas mórficas con redundantes grados de libertad, y cuya proporción entre la masa de sus alas y el cuerpo del robot sea significativa. Esta tesis doctoral presenta el desarrollo de un novedoso robot aéreo inspirado en el mecanismo de ala mórfica de los murciélagos. El robot, llamado BaTboT, ha sido diseñado con parámetros morfológicos muy similares a los descritos por su símil biológico Cynopterus brachyotis. El estudio biológico de este especimen ha permitido la definición de criterios de diseño y modelos matemáticos que representan el comportamiento del robot, con el objetivo de imitar lo mejor posible la biomecánica de vuelo de los murciélagos. La biomecánica de vuelo está definida por dos tipos de movimiento de las alas: aleteo y cambio de forma. Intentar imitar como los murciélagos cambian la forma de sus alas con un prototipo artificial, requiere el análisis de métodos alternativos de actuación que se asemejen a la biomecánica de los músculos que actúan las alas, y evitar el uso de sistemas convencionales de actuación como servomotores ó motores DC. En este sentido, las aleaciones con memoria de forma, ó por sus siglas en inglés (SMA), las cuales son fibras de NiTinol que se contraen y expanden ante estímulos térmicos, han sido usados en este proyecto como músculos artificiales que actúan como bíceps y tríceps de las alas, proporcionando la funcionalidad de ala mórfica previamente descrita. De esta manera, los músculos de SMA son mecánicamente posicionados en una configuración antagonista que permite la rotación de las articulaciones del robot. Los actuadores son accionados mediante una señal de potencia la cual es regulada por un sistema de control encargado que los músculos de SMA respondan con la precisión y velocidad deseada. Este sistema de control mórfico de las alas permitirá al robot cambiar la forma de las mismas con el único propósito de mejorar el desempeño aerodinámico. Durante la fase de bajada del aleteo, las alas deben estar extendidas para incrementar la producción de fuerzas de sustentación. Al contrario, durante el ciclo de subida del aleteo, las alas deben contraerse para minimizar el área y reducir las fuerzas de fricción aerodinámica. El control de alas mórficas no solo mejora el desempeño aerodinámico, también impacta la generación de fuerzas inerciales las cuales son esenciales para maniobrar durante el vuelo. Con el objetivo de analizar como el cambio de geometría de las alas influye en la definición de maniobras y su efecto en la producción de fuerzas netas, simulaciones y experimentos han sido llevados a cabo para medir cómo distintos patrones de modulación de las alas influyen en la producción de aceleraciones lineales y angulares. Gracias a estas mediciones, se propone un control de vuelo, ó control de actitud, el cual incorpora información inercial de las alas para la definición de referencias de aceleración angular. El objetivo de esta novedosa estrategia de control radica en el incremento de fuerzas netas para la adecuada generación de movimiento (Fnet). Imitar como los murciélagos ajustan sus alas con el propósito de incrementar las fuerzas de sustentación y mejorar la maniobra en vuelo es definitivamente un tópico de mucho interés para el diseño de robots aéros mas eficientes. La propuesta de control de vuelo definida en este trabajo de investigación podría dar paso a una nueva forma de control de vuelo de robots aéreos que no necesitan del uso de partes mecánicas tales como alerones, etc. Este control también permitiría el desarrollo de vehículos con mayor capacidad de maniobra. El desarrollo de esta investigación se centra en cinco etapas: - Estudiar y analizar el vuelo de los murciélagos con el propósito de definir criterios de diseño y control. - Formular modelos matemáticos que describan la: i) cinemática de las alas, ii) dinámica, iii) aerodinámica, y iv) actuación usando SMA. Estos modelos permiten estimar la influencia de modular las alas en la producción de fuerzas netas. - Diseño y fabricación de BaTboT: i) estructura de las alas y el cuerpo, ii) mecanismo de actuación mórfico basado en SMA, iii) membrana de las alas, y iv) electrónica abordo. - Contro de vuelo compuesto por: i) control de la SMA (modulación de las alas) y ii) regulación de maniobra (actitud). - Experimentos: están enfocados en poder cuantificar cuales son los efectos que ejercen distintos perfiles de modulación del ala en el comportamiento aerodinámico e inercial. El objetivo es demostrar y validar la hipótesis planteada al inicio de esta investigación: mejorar eficiencia de vuelo gracias al novedoso control de orientación (actitud) propuesto en este trabajo. A lo largo del desarrollo de cada una de las cinco etapas, se irán presentando los retos, problemáticas y soluciones a abordar. Los experimentos son realizados utilizando un túnel de viento con la instrumentación necesaria para llevar a cabo las mediciones de desempeño respectivas. En los resultados se discutirá y demostrará que la inercia producida por las alas juega un papel considerable en el comportamiento dinámico y aerodinámico del sistema y como poder tomar ventaja de dicha característica para regular patrones de modulación de las alas que conduzcan a mejorar la eficiencia del robot en futuros vuelos.
Resumo:
Esta tesis doctoral se enmarca dentro de la computación con membranas. Se trata de un tipo de computación bio-inspirado, concretamente basado en las células de los organismos vivos, en las que se producen múltiples reacciones de forma simultánea. A partir de la estructura y funcionamiento de las células se han definido diferentes modelos formales, denominados P sistemas. Estos modelos no tratan de modelar el comportamiento biológico de una célula, sino que abstraen sus principios básicos con objeto de encontrar nuevos paradigmas computacionales. Los P sistemas son modelos de computación no deterministas y masivamente paralelos. De ahí el interés que en los últimos años estos modelos han suscitado para la resolución de problemas complejos. En muchos casos, consiguen resolver de forma teórica problemas NP-completos en tiempo polinómico o lineal. Por otra parte, cabe destacar también la aplicación que la computación con membranas ha tenido en la investigación de otros muchos campos, sobre todo relacionados con la biología. Actualmente, una gran cantidad de estos modelos de computación han sido estudiados desde el punto de vista teórico. Sin embargo, el modo en que pueden ser implementados es un reto de investigación todavía abierto. Existen varias líneas en este sentido, basadas en arquitecturas distribuidas o en hardware dedicado, que pretenden acercarse en lo posible a su carácter no determinista y masivamente paralelo, dentro de un contexto de viabilidad y eficiencia. En esta tesis doctoral se propone la realización de un análisis estático del P sistema, como vía para optimizar la ejecución del mismo en estas plataformas. Se pretende que la información recogida en tiempo de análisis sirva para configurar adecuadamente la plataforma donde se vaya a ejecutar posteriormente el P sistema, obteniendo como consecuencia una mejora en el rendimiento. Concretamente, en esta tesis se han tomado como referencia los P sistemas de transiciones para llevar a cabo el estudio de dicho análisis estático. De manera un poco más específica, el análisis estático propuesto en esta tesis persigue que cada membrana sea capaz de determinar sus reglas activas de forma eficiente en cada paso de evolución, es decir, aquellas reglas que reúnen las condiciones adecuadas para poder ser aplicadas. En esta línea, se afronta el problema de los estados de utilidad de una membrana dada, que en tiempo de ejecución permitirán a la misma conocer en todo momento las membranas con las que puede comunicarse, cuestión que determina las reglas que pueden aplicarse en cada momento. Además, el análisis estático propuesto en esta tesis se basa en otra serie de características del P sistema como la estructura de membranas, antecedentes de las reglas, consecuentes de las reglas o prioridades. Una vez obtenida toda esta información en tiempo de análisis, se estructura en forma de árbol de decisión, con objeto de que en tiempo de ejecución la membrana obtenga las reglas activas de la forma más eficiente posible. Por otra parte, en esta tesis se lleva a cabo un recorrido por un número importante de arquitecturas hardware y software que diferentes autores han propuesto para implementar P sistemas. Fundamentalmente, arquitecturas distribuidas, hardware dedicado basado en tarjetas FPGA y plataformas basadas en microcontroladores PIC. El objetivo es proponer soluciones que permitan implantar en dichas arquitecturas los resultados obtenidos del análisis estático (estados de utilidad y árboles de decisión para reglas activas). En líneas generales, se obtienen conclusiones positivas, en el sentido de que dichas optimizaciones se integran adecuadamente en las arquitecturas sin penalizaciones significativas. Summary Membrane computing is the focus of this doctoral thesis. It can be considered a bio-inspired computing type. Specifically, it is based on living cells, in which many reactions take place simultaneously. From cell structure and operation, many different formal models have been defined, named P systems. These models do not try to model the biological behavior of the cell, but they abstract the basic principles of the cell in order to find out new computational paradigms. P systems are non-deterministic and massively parallel computational models. This is why, they have aroused interest when dealing with complex problems nowadays. In many cases, they manage to solve in theory NP problems in polynomial or lineal time. On the other hand, it is important to note that membrane computing has been successfully applied in many researching areas, specially related to biology. Nowadays, lots of these computing models have been sufficiently characterized from a theoretical point of view. However, the way in which they can be implemented is a research challenge, that it is still open nowadays. There are some lines in this way, based on distributed architectures or dedicated hardware. All of them are trying to approach to its non-deterministic and parallel character as much as possible, taking into account viability and efficiency. In this doctoral thesis it is proposed carrying out a static analysis of the P system in order to optimize its performance in a computing platform. The general idea is that after data are collected in analysis time, they are used for getting a suitable configuration of the computing platform in which P system is going to be performed. As a consequence, the system throughput will improve. Specifically, this thesis has made use of Transition P systems for carrying out the study in static analysis. In particular, the static analysis proposed in this doctoral thesis tries to achieve that every membrane can efficiently determine its active rules in every evolution step. These rules are the ones that can be applied depending on the system configuration at each computational step. In this line, we are going to tackle the problem of the usefulness states for a membrane. This state will allow this membrane to know the set of membranes with which communication is possible at any time. This is a very important issue in determining the set of rules that can be applied. Moreover, static analysis in this thesis is carried out taking into account other properties such as membrane structure, rule antecedents, rule consequents and priorities among rules. After collecting all data in analysis time, they are arranged in a decision tree structure, enabling membranes to obtain the set of active rules as efficiently as possible in run-time system. On the other hand, in this doctoral thesis is going to carry out an overview of hardware and software architectures, proposed by different authors in order to implement P systems, such as distributed architectures, dedicated hardware based on PFGA, and computing platforms based on PIC microcontrollers. The aim of this overview is to propose solutions for implementing the results of the static analysis, that is, usefulness states and decision trees for active rules. In general, conclusions are satisfactory, because these optimizations can be properly integrated in most of the architectures without significant penalties.
Resumo:
La temperatura es una preocupación que juega un papel protagonista en el diseño de circuitos integrados modernos. El importante aumento de las densidades de potencia que conllevan las últimas generaciones tecnológicas ha producido la aparición de gradientes térmicos y puntos calientes durante el funcionamiento normal de los chips. La temperatura tiene un impacto negativo en varios parámetros del circuito integrado como el retardo de las puertas, los gastos de disipación de calor, la fiabilidad, el consumo de energía, etc. Con el fin de luchar contra estos efectos nocivos, la técnicas de gestión dinámica de la temperatura (DTM) adaptan el comportamiento del chip en función en la información que proporciona un sistema de monitorización que mide en tiempo de ejecución la información térmica de la superficie del dado. El campo de la monitorización de la temperatura en el chip ha llamado la atención de la comunidad científica en los últimos años y es el objeto de estudio de esta tesis. Esta tesis aborda la temática de control de la temperatura en el chip desde diferentes perspectivas y niveles, ofreciendo soluciones a algunos de los temas más importantes. Los niveles físico y circuital se cubren con el diseño y la caracterización de dos nuevos sensores de temperatura especialmente diseñados para los propósitos de las técnicas DTM. El primer sensor está basado en un mecanismo que obtiene un pulso de anchura variable dependiente de la relación de las corrientes de fuga con la temperatura. De manera resumida, se carga un nodo del circuito y posteriormente se deja flotando de tal manera que se descarga a través de las corrientes de fugas de un transistor; el tiempo de descarga del nodo es la anchura del pulso. Dado que la anchura del pulso muestra una dependencia exponencial con la temperatura, la conversión a una palabra digital se realiza por medio de un contador logarítmico que realiza tanto la conversión tiempo a digital como la linealización de la salida. La estructura resultante de esta combinación de elementos se implementa en una tecnología de 0,35 _m. El sensor ocupa un área muy reducida, 10.250 nm2, y consume muy poca energía, 1.05-65.5nW a 5 muestras/s, estas cifras superaron todos los trabajos previos en el momento en que se publicó por primera vez y en el momento de la publicación de esta tesis, superan a todas las implementaciones anteriores fabricadas en el mismo nodo tecnológico. En cuanto a la precisión, el sensor ofrece una buena linealidad, incluso sin calibrar; se obtiene un error 3_ de 1,97oC, adecuado para tratar con las aplicaciones de DTM. Como se ha explicado, el sensor es completamente compatible con los procesos de fabricación CMOS, este hecho, junto con sus valores reducidos de área y consumo, lo hacen especialmente adecuado para la integración en un sistema de monitorización de DTM con un conjunto de monitores empotrados distribuidos a través del chip. Las crecientes incertidumbres de proceso asociadas a los últimos nodos tecnológicos comprometen las características de linealidad de nuestra primera propuesta de sensor. Con el objetivo de superar estos problemas, proponemos una nueva técnica para obtener la temperatura. La nueva técnica también está basada en las dependencias térmicas de las corrientes de fuga que se utilizan para descargar un nodo flotante. La novedad es que ahora la medida viene dada por el cociente de dos medidas diferentes, en una de las cuales se altera una característica del transistor de descarga |la tensión de puerta. Este cociente resulta ser muy robusto frente a variaciones de proceso y, además, la linealidad obtenida cumple ampliamente los requisitos impuestos por las políticas DTM |error 3_ de 1,17oC considerando variaciones del proceso y calibrando en dos puntos. La implementación de la parte sensora de esta nueva técnica implica varias consideraciones de diseño, tales como la generación de una referencia de tensión independiente de variaciones de proceso, que se analizan en profundidad en la tesis. Para la conversión tiempo-a-digital, se emplea la misma estructura de digitalización que en el primer sensor. Para la implementación física de la parte de digitalización, se ha construido una biblioteca de células estándar completamente nueva orientada a la reducción de área y consumo. El sensor resultante de la unión de todos los bloques se caracteriza por una energía por muestra ultra baja (48-640 pJ) y un área diminuta de 0,0016 mm2, esta cifra mejora todos los trabajos previos. Para probar esta afirmación, se realiza una comparación exhaustiva con más de 40 propuestas de sensores en la literatura científica. Subiendo el nivel de abstracción al sistema, la tercera contribución se centra en el modelado de un sistema de monitorización que consiste de un conjunto de sensores distribuidos por la superficie del chip. Todos los trabajos anteriores de la literatura tienen como objetivo maximizar la precisión del sistema con el mínimo número de monitores. Como novedad, en nuestra propuesta se introducen nuevos parámetros de calidad aparte del número de sensores, también se considera el consumo de energía, la frecuencia de muestreo, los costes de interconexión y la posibilidad de elegir diferentes tipos de monitores. El modelo se introduce en un algoritmo de recocido simulado que recibe la información térmica de un sistema, sus propiedades físicas, limitaciones de área, potencia e interconexión y una colección de tipos de monitor; el algoritmo proporciona el tipo seleccionado de monitor, el número de monitores, su posición y la velocidad de muestreo _optima. Para probar la validez del algoritmo, se presentan varios casos de estudio para el procesador Alpha 21364 considerando distintas restricciones. En comparación con otros trabajos previos en la literatura, el modelo que aquí se presenta es el más completo. Finalmente, la última contribución se dirige al nivel de red, partiendo de un conjunto de monitores de temperatura de posiciones conocidas, nos concentramos en resolver el problema de la conexión de los sensores de una forma eficiente en área y consumo. Nuestra primera propuesta en este campo es la introducción de un nuevo nivel en la jerarquía de interconexión, el nivel de trillado (o threshing en inglés), entre los monitores y los buses tradicionales de periféricos. En este nuevo nivel se aplica selectividad de datos para reducir la cantidad de información que se envía al controlador central. La idea detrás de este nuevo nivel es que en este tipo de redes la mayoría de los datos es inútil, porque desde el punto de vista del controlador sólo una pequeña cantidad de datos |normalmente sólo los valores extremos| es de interés. Para cubrir el nuevo nivel, proponemos una red de monitorización mono-conexión que se basa en un esquema de señalización en el dominio de tiempo. Este esquema reduce significativamente tanto la actividad de conmutación sobre la conexión como el consumo de energía de la red. Otra ventaja de este esquema es que los datos de los monitores llegan directamente ordenados al controlador. Si este tipo de señalización se aplica a sensores que realizan conversión tiempo-a-digital, se puede obtener compartición de recursos de digitalización tanto en tiempo como en espacio, lo que supone un importante ahorro de área y consumo. Finalmente, se presentan dos prototipos de sistemas de monitorización completos que de manera significativa superan la características de trabajos anteriores en términos de área y, especialmente, consumo de energía. Abstract Temperature is a first class design concern in modern integrated circuits. The important increase in power densities associated to recent technology evolutions has lead to the apparition of thermal gradients and hot spots during run time operation. Temperature impacts several circuit parameters such as speed, cooling budgets, reliability, power consumption, etc. In order to fight against these negative effects, dynamic thermal management (DTM) techniques adapt the behavior of the chip relying on the information of a monitoring system that provides run-time thermal information of the die surface. The field of on-chip temperature monitoring has drawn the attention of the scientific community in the recent years and is the object of study of this thesis. This thesis approaches the matter of on-chip temperature monitoring from different perspectives and levels, providing solutions to some of the most important issues. The physical and circuital levels are covered with the design and characterization of two novel temperature sensors specially tailored for DTM purposes. The first sensor is based upon a mechanism that obtains a pulse with a varying width based on the variations of the leakage currents on the temperature. In a nutshell, a circuit node is charged and subsequently left floating so that it discharges away through the subthreshold currents of a transistor; the time the node takes to discharge is the width of the pulse. Since the width of the pulse displays an exponential dependence on the temperature, the conversion into a digital word is realized by means of a logarithmic counter that performs both the timeto- digital conversion and the linearization of the output. The structure resulting from this combination of elements is implemented in a 0.35_m technology and is characterized by very reduced area, 10250 nm2, and power consumption, 1.05-65.5 nW at 5 samples/s, these figures outperformed all previous works by the time it was first published and still, by the time of the publication of this thesis, they outnumber all previous implementations in the same technology node. Concerning the accuracy, the sensor exhibits good linearity, even without calibration it displays a 3_ error of 1.97oC, appropriate to deal with DTM applications. As explained, the sensor is completely compatible with standard CMOS processes, this fact, along with its tiny area and power overhead, makes it specially suitable for the integration in a DTM monitoring system with a collection of on-chip monitors distributed across the chip. The exacerbated process fluctuations carried along with recent technology nodes jeop-ardize the linearity characteristics of the first sensor. In order to overcome these problems, a new temperature inferring technique is proposed. In this case, we also rely on the thermal dependencies of leakage currents that are used to discharge a floating node, but now, the result comes from the ratio of two different measures, in one of which we alter a characteristic of the discharging transistor |the gate voltage. This ratio proves to be very robust against process variations and displays a more than suficient linearity on the temperature |1.17oC 3_ error considering process variations and performing two-point calibration. The implementation of the sensing part based on this new technique implies several issues, such as the generation of process variations independent voltage reference, that are analyzed in depth in the thesis. In order to perform the time-to-digital conversion, we employ the same digitization structure the former sensor used. A completely new standard cell library targeting low area and power overhead is built from scratch to implement the digitization part. Putting all the pieces together, we achieve a complete sensor system that is characterized by ultra low energy per conversion of 48-640pJ and area of 0.0016mm2, this figure outperforms all previous works. To prove this statement, we perform a thorough comparison with over 40 works from the scientific literature. Moving up to the system level, the third contribution is centered on the modeling of a monitoring system consisting of set of thermal sensors distributed across the chip. All previous works from the literature target maximizing the accuracy of the system with the minimum number of monitors. In contrast, we introduce new metrics of quality apart form just the number of sensors; we consider the power consumption, the sampling frequency, the possibility to consider different types of monitors and the interconnection costs. The model is introduced in a simulated annealing algorithm that receives the thermal information of a system, its physical properties, area, power and interconnection constraints and a collection of monitor types; the algorithm yields the selected type of monitor, the number of monitors, their position and the optimum sampling rate. We test the algorithm with the Alpha 21364 processor under several constraint configurations to prove its validity. When compared to other previous works in the literature, the modeling presented here is the most complete. Finally, the last contribution targets the networking level, given an allocated set of temperature monitors, we focused on solving the problem of connecting them in an efficient way from the area and power perspectives. Our first proposal in this area is the introduction of a new interconnection hierarchy level, the threshing level, in between the monitors and the traditional peripheral buses that applies data selectivity to reduce the amount of information that is sent to the central controller. The idea behind this new level is that in this kind of networks most data are useless because from the controller viewpoint just a small amount of data |normally extreme values| is of interest. To cover the new interconnection level, we propose a single-wire monitoring network based on a time-domain signaling scheme that significantly reduces both the switching activity over the wire and the power consumption of the network. This scheme codes the information in the time domain and allows a straightforward obtention of an ordered list of values from the maximum to the minimum. If the scheme is applied to monitors that employ TDC, digitization resource sharing is achieved, producing an important saving in area and power consumption. Two prototypes of complete monitoring systems are presented, they significantly overcome previous works in terms of area and, specially, power consumption.