57 resultados para SOLAPAMIENTO
Resumo:
Este trabajo comparó la cobertura de revistas procedentes de América Latina y el Caribe incluidas en SciELO, RedALyC y SCOPUS, por país y por tema. Calculó el porcentaje de revistas en estas fuentes en relación con las registradas en el catálogo de LATINDEX. Estimó el volumen de la producción científica que registra visibilidad en las tres fuentes y su evolución en el período 2005-2009. Los resultados indicaron que las tres fuentes son complementarias. En promedio, el porcentaje de solapamiento de títulos es bajo y desigual la distribución de revistas por países. Ningún país registró en las fuentes estudiadas todas las revistas incluidas en LATINDEX. SCOPUS y SciELO están más equilibradas temáticamente que RedALyC, que mostró un marcado sesgo hacia las ciencias sociales. El volumen de producción científica visible en SCOPUS es muy superior al de SciELO y RedALyC, aunque su distribución por países es muy desigual. Las tres fuentes registran tendencias de crecimiento de la producción en el período analizado
Resumo:
La tesis analiza dos objeciones corrientes a la interpretación del problema de las reglas por el Wittgenstein de Kripke: el PROBLEMA DE LA OBJETIVIDAD DE LA REGLA, ¿puede un individuo estar acertado en contra de la opinión comunitaria consensuada?; y el PROBLEMA DE LAS RELACIONES INTERNAS entre reglas y casos, presuntamente violentada por el rol de la noción de acuerdo en la misma. La estrategia general de la tesis es examinar las vías de ataque al lenguaje privado (LP) previas a la de Kripke. El contraste con las mismas permite conceptualizar adecuadamente la propuesta de Kripke, para mostrar que las objeciones mencionadas no se le aplican. En el marco de la tesis, comprendemos por LP a cualquier tesis que sostenga que las condiciones de significatividad del lenguaje pueden ser provistas por estados mentales subjetivos, p.e. creencias, de ahí el solapamiento de la tesis del lenguaje privado con el escepticismo epistemológico y con posiciones solipsistas, y la convicción de que la refutación del LP acarrea la ruina del escepticismo epistemológico. Hay dos versiones clásicas del argumento del LP. Las versiones epistemológicas (Malcom, Fogelin son los representantes que examinamos) derivan la imposibilidad del LP de la imposibilidad de establecer la verdad/corrección de un uso en el contexto de privacidad. La crítica a estas versiones (Ayer, thomson) muestra un círculo justificatorio entre oraciones subjetivas y objetivas. Las versiones semánticas (Kenny, Canfield, Tugendhat) intentan evitar el círculo, elucidando las presuposiciones que le subyacen. Esta respuesta no es satisfactoria ya que o bien regenera el círculo en un nuevo nivel, o bien no logran derrocar al círculo de la justificación. Con Stroud identificamos el fallo común de estas estrategias en el hecho de que en su intento de derrotar al escéptico-privatista, requieren o bien una PREMISA FÁCTICA que indica que conocemos, o bien la especificación del conocimiento como una NOTA DEFINICIONAL de los criterios/condiciones de significatividad que el argumento trascendental elucida en la pregunta del escéptico. Kripke impone un cambio de rumbo en el argumento, al plantear el desafío como una forma de ESCEPTICISMO SEMÁNTICO ONTOLÓGICO, el cual ya no se basa en las limitaciones cognitivas de la privacidad, sino justamente en las presuntas ventajas que presenta. El desafío de Kripke pregunta por las razones que podemos aportar para sostener que no ha ocurrido un cambio en el uso, lo cual equivale a preguntar ¿cómo sabes que tu uso actual CORRESPONDE con tu intención/significado previo? De la imposibilidad de responder a la cuestión clave del realismo clásico (correspondencia) en el caso del significado, Kripke concluye que no puede haber condiciones de verdad para las oraciones semánticas. Esto motiva una paradoja escéptica y una SOLUCIÓN ESCÉPTICA de la paradoja en términos de condiciones de aseverabilidad. Tener en cuenta el abandono de las condiciones de verdad es la clave para responder al problema de la objetividad, mientras que la forma del desafío y el funcionamiento de la concordancia en los juicios como base de atribución, es la clave para la solución del problema de las relaciones internas.
Resumo:
Este trabajo comparó la cobertura de revistas procedentes de América Latina y el Caribe incluidas en SciELO, RedALyC y SCOPUS, por país y por tema. Calculó el porcentaje de revistas en estas fuentes en relación con las registradas en el catálogo de LATINDEX. Estimó el volumen de la producción científica que registra visibilidad en las tres fuentes y su evolución en el período 2005-2009. Los resultados indicaron que las tres fuentes son complementarias. En promedio, el porcentaje de solapamiento de títulos es bajo y desigual la distribución de revistas por países. Ningún país registró en las fuentes estudiadas todas las revistas incluidas en LATINDEX. SCOPUS y SciELO están más equilibradas temáticamente que RedALyC, que mostró un marcado sesgo hacia las ciencias sociales. El volumen de producción científica visible en SCOPUS es muy superior al de SciELO y RedALyC, aunque su distribución por países es muy desigual. Las tres fuentes registran tendencias de crecimiento de la producción en el período analizado
Resumo:
En una revisión de planes de estudio de la Carrera de Bibliotecología de la Facultad de Humanidades y Ciencias de la Educación de la Universidad Nacional de La Plata, que van desde 1979 a la fecha, se registraron asignaturas y contenidos vinculados ?en diferentes grados- con el campo comunicacional. Entre las principales materias desarrolladas y en desarrollo de los diferentes planes, se destacan por su vinculación directa: "Reproducción Documentaria"; "Medios/Materiales audiovisuales"; "Tecnología de medios"; "Política de la Información", así como se intentó desarrollar en algún momento, sin éxito, "Medios de Comunicación" y "Sistemas de Información". Ahora bien, luego de una revisión de contenidos de dichos programas y entrevistas realizadas a directoras del Area, profesoras y alumnas que se formaron con distintos planes de estudio, se observa al respecto un uso ambivalente entre las categorías "medios" y "materiales", que adquiere diferentes valencias en distintos contextos. Así se habla, por citar algunos casos, de "conocimientos de televisión", en tanto medio, o bien de "medios audiovisuales mecánicos y electrónicos", tanto como de "registros sonoros", en tanto materiales que integrarían un posible fondo documental, más allá del componente principal que han constituido los libros históricamente. En ciertos contextos, existe un solapamiento entre ambas categorías; mientras que en otros, directamente se confunden. Por otro lado, predomina una perspectiva instrumental hacia los medios de comunicación, los cuales podrían facilitar en ciertas instancias el trabajo de extensión bibliotecario en la comunidad de lectores/as. Esta mirada, asimismo es extensiva a las discusiones sobre tecnologías en general en la casi totalidad de las asignaturas, a excepción de una perspectiva diferente que se registra en el último plan de estudios, donde se proporcionan diferentes enfoques. Estos debates forman parte del proyecto de investigación "Los imaginarios tecnológicos en la carrera de Bibliotecología y en la Ciencia ficción", del Programa de Incentivos del Ministerio de Educación de la Nación (2009-2012), radicado en la Facultad de Humanidades y Ciencias de la Educación de la UNLP
Resumo:
El trabajo pretende indagar en los diversos sentidos que adquiere un espacio público de la Ciudad de Buenos aires ubicado en el barrio de Mataderos, el Parque Alberdi. A partir del análisis de su construcción, su equipamiento y las intervenciones posteriores que se le realizaron, se pretende dar cuenta de los usos que el parque como institución propuso inicialmente y propone en la actualidad. A su vez, se busca rastrear las opiniones y recuerdos de los usuarios del parque. Un tercer eje a tomar, son los usos efectivos del parque, los tránsitos y prácticas que se realizan cotidianamente. A partir de estos tres ejes, se busca reconstruir los diversos sentidos que emergen en torno a este espacio público, y qué vínculos existen entre estos sentidos (identificación, solapamiento, oposición, filtraciones, resignificaciones, etc.). De este modo, este trabajo busca dialogar (a partir de una mirada territorializada) con la compleja categoría de espacio público, y las expectativas políticas y filosóficas que esta carga
Resumo:
En una revisión de planes de estudio de la Carrera de Bibliotecología de la Facultad de Humanidades y Ciencias de la Educación de la Universidad Nacional de La Plata, que van desde 1979 a la fecha, se registraron asignaturas y contenidos vinculados ?en diferentes grados- con el campo comunicacional. Entre las principales materias desarrolladas y en desarrollo de los diferentes planes, se destacan por su vinculación directa: "Reproducción Documentaria"; "Medios/Materiales audiovisuales"; "Tecnología de medios"; "Política de la Información", así como se intentó desarrollar en algún momento, sin éxito, "Medios de Comunicación" y "Sistemas de Información". Ahora bien, luego de una revisión de contenidos de dichos programas y entrevistas realizadas a directoras del Area, profesoras y alumnas que se formaron con distintos planes de estudio, se observa al respecto un uso ambivalente entre las categorías "medios" y "materiales", que adquiere diferentes valencias en distintos contextos. Así se habla, por citar algunos casos, de "conocimientos de televisión", en tanto medio, o bien de "medios audiovisuales mecánicos y electrónicos", tanto como de "registros sonoros", en tanto materiales que integrarían un posible fondo documental, más allá del componente principal que han constituido los libros históricamente. En ciertos contextos, existe un solapamiento entre ambas categorías; mientras que en otros, directamente se confunden. Por otro lado, predomina una perspectiva instrumental hacia los medios de comunicación, los cuales podrían facilitar en ciertas instancias el trabajo de extensión bibliotecario en la comunidad de lectores/as. Esta mirada, asimismo es extensiva a las discusiones sobre tecnologías en general en la casi totalidad de las asignaturas, a excepción de una perspectiva diferente que se registra en el último plan de estudios, donde se proporcionan diferentes enfoques. Estos debates forman parte del proyecto de investigación "Los imaginarios tecnológicos en la carrera de Bibliotecología y en la Ciencia ficción", del Programa de Incentivos del Ministerio de Educación de la Nación (2009-2012), radicado en la Facultad de Humanidades y Ciencias de la Educación de la UNLP
Resumo:
La tesis analiza dos objeciones corrientes a la interpretación del problema de las reglas por el Wittgenstein de Kripke: el PROBLEMA DE LA OBJETIVIDAD DE LA REGLA, ¿puede un individuo estar acertado en contra de la opinión comunitaria consensuada?; y el PROBLEMA DE LAS RELACIONES INTERNAS entre reglas y casos, presuntamente violentada por el rol de la noción de acuerdo en la misma. La estrategia general de la tesis es examinar las vías de ataque al lenguaje privado (LP) previas a la de Kripke. El contraste con las mismas permite conceptualizar adecuadamente la propuesta de Kripke, para mostrar que las objeciones mencionadas no se le aplican. En el marco de la tesis, comprendemos por LP a cualquier tesis que sostenga que las condiciones de significatividad del lenguaje pueden ser provistas por estados mentales subjetivos, p.e. creencias, de ahí el solapamiento de la tesis del lenguaje privado con el escepticismo epistemológico y con posiciones solipsistas, y la convicción de que la refutación del LP acarrea la ruina del escepticismo epistemológico. Hay dos versiones clásicas del argumento del LP. Las versiones epistemológicas (Malcom, Fogelin son los representantes que examinamos) derivan la imposibilidad del LP de la imposibilidad de establecer la verdad/corrección de un uso en el contexto de privacidad. La crítica a estas versiones (Ayer, thomson) muestra un círculo justificatorio entre oraciones subjetivas y objetivas. Las versiones semánticas (Kenny, Canfield, Tugendhat) intentan evitar el círculo, elucidando las presuposiciones que le subyacen. Esta respuesta no es satisfactoria ya que o bien regenera el círculo en un nuevo nivel, o bien no logran derrocar al círculo de la justificación. Con Stroud identificamos el fallo común de estas estrategias en el hecho de que en su intento de derrotar al escéptico-privatista, requieren o bien una PREMISA FÁCTICA que indica que conocemos, o bien la especificación del conocimiento como una NOTA DEFINICIONAL de los criterios/condiciones de significatividad que el argumento trascendental elucida en la pregunta del escéptico. Kripke impone un cambio de rumbo en el argumento, al plantear el desafío como una forma de ESCEPTICISMO SEMÁNTICO ONTOLÓGICO, el cual ya no se basa en las limitaciones cognitivas de la privacidad, sino justamente en las presuntas ventajas que presenta. El desafío de Kripke pregunta por las razones que podemos aportar para sostener que no ha ocurrido un cambio en el uso, lo cual equivale a preguntar ¿cómo sabes que tu uso actual CORRESPONDE con tu intención/significado previo? De la imposibilidad de responder a la cuestión clave del realismo clásico (correspondencia) en el caso del significado, Kripke concluye que no puede haber condiciones de verdad para las oraciones semánticas. Esto motiva una paradoja escéptica y una SOLUCIÓN ESCÉPTICA de la paradoja en términos de condiciones de aseverabilidad. Tener en cuenta el abandono de las condiciones de verdad es la clave para responder al problema de la objetividad, mientras que la forma del desafío y el funcionamiento de la concordancia en los juicios como base de atribución, es la clave para la solución del problema de las relaciones internas.
Resumo:
Este trabajo comparó la cobertura de revistas procedentes de América Latina y el Caribe incluidas en SciELO, RedALyC y SCOPUS, por país y por tema. Calculó el porcentaje de revistas en estas fuentes en relación con las registradas en el catálogo de LATINDEX. Estimó el volumen de la producción científica que registra visibilidad en las tres fuentes y su evolución en el período 2005-2009. Los resultados indicaron que las tres fuentes son complementarias. En promedio, el porcentaje de solapamiento de títulos es bajo y desigual la distribución de revistas por países. Ningún país registró en las fuentes estudiadas todas las revistas incluidas en LATINDEX. SCOPUS y SciELO están más equilibradas temáticamente que RedALyC, que mostró un marcado sesgo hacia las ciencias sociales. El volumen de producción científica visible en SCOPUS es muy superior al de SciELO y RedALyC, aunque su distribución por países es muy desigual. Las tres fuentes registran tendencias de crecimiento de la producción en el período analizado
Resumo:
La tesis MEDIDAS AUTOSEMEJANTES EN EL PLANO, MOMENTOS Y MATRICES DE HESSENBERG se enmarca entre las áreas de la teoría geométrica de la medida, la teoría de polinomios ortogonales y la teoría de operadores. La memoria aborda el estudio de medidas con soporte acotado en el plano complejo vistas con la óptica de las matrices infinitas de momentos y de Hessenberg asociadas a estas medidas que en la teoría de los polinomios ortogonales las representan. En particular se centra en el estudio de las medidas autosemejantes que son las medidas de equilibrio definidas por un sistema de funciones iteradas (SFI). Los conjuntos autosemejantes son conjuntos que tienen la propiedad geométrica de descomponerse en unión de piezas semejantes al conjunto total. Estas piezas pueden solaparse o no, cuando el solapamiento es pequeño la teoría de Hutchinson [Hut81] funciona bien, pero cuando no existen restricciones falla. El problema del solapamiento consiste en controlar la medida de este solapamiento. Un ejemplo de la complejidad de este problema se plantea con las convoluciones infinitas de distribuciones de Bernoulli, que han resultado ser un ejemplo de medidas autosemejantes en el caso real. En 1935 Jessen y A. Wintner [JW35] ya se planteaba este problema, lejos de ser sencillo ha sido estudiado durante más de setenta y cinco años y siguen sin resolverse las principales cuestiones planteadas ya por A. Garsia [Gar62] en 1962. El interés que ha despertado este problema así como la complejidad del mismo está demostrado por las numerosas publicaciones que abordan cuestiones relacionadas con este problema ver por ejemplo [JW35], [Erd39], [PS96], [Ma00], [Ma96], [Sol98], [Mat95], [PS96], [Sim05],[JKS07] [JKS11]. En el primer capítulo comenzamos introduciendo con detalle las medidas autosemejante en el plano complejo y los sistemas de funciones iteradas, así como los conceptos de la teoría de la medida necesarios para describirlos. A continuación se introducen las herramientas necesarias de teoría de polinomios ortogonales, matrices infinitas y operadores que se van a usar. En el segundo y tercer capítulo trasladamos las propiedades geométricas de las medidas autosemejantes a las matrices de momentos y de Hessenberg, respectivamente. A partir de estos resultados se describen algoritmos para calcular estas matrices a partir del SFI correspondiente. Concretamente, se obtienen fórmulas explícitas y algoritmos de aproximación para los momentos y matrices de momentos de medidas fractales, a partir de un teorema del punto fijo para las matrices. Además utilizando técnicas de la teoría de operadores, se han extendido al plano complejo los resultados que G. Mantica [Ma00, Ma96] obtenía en el caso real. Este resultado es la base para definir un algoritmo estable de aproximación de la matriz de Hessenberg asociada a una medida fractal u obtener secciones finitas exactas de matrices Hessenberg asociadas a una suma de medidas. En el último capítulo, se consideran medidas, μ, más generales y se estudia el comportamiento asintótico de los autovalores de una matriz hermitiana de momentos y su impacto en las propiedades de la medida asociada. En el resultado central se demuestra que si los polinomios asociados son densos en L2(μ) entonces necesariamente el autovalor mínimo de las secciones finitas de la matriz de momentos de la medida tiende a cero. ABSTRACT The Thesis work “Self-similar Measures on the Plane, Moments and Hessenberg Matrices” is framed among the geometric measure theory, orthogonal polynomials and operator theory. The work studies measures with compact support on the complex plane from the point of view of the associated infinite moments and Hessenberg matrices representing them in the theory of orthogonal polynomials. More precisely, it concentrates on the study of the self-similar measures that are equilibrium measures in a iterated functions system. Self-similar sets have the geometric property of being decomposable in a union of similar pieces to the complete set. These pieces can overlap. If the overlapping is small, Hutchinson’s theory [Hut81] works well, however, when it has no restrictions, the theory does not hold. The overlapping problem consists in controlling the measure of the overlap. The complexity of this problem is exemplified in the infinite convolutions of Bernoulli’s distributions, that are an example of self-similar measures in the real case. As early as 1935 [JW35], Jessen and Wintner posed this problem, that far from being simple, has been studied during more than 75 years. The main cuestiones posed by Garsia in 1962 [Gar62] remain unsolved. The interest in this problem, together with its complexity, is demonstrated by the number of publications that over the years have dealt with it. See, for example, [JW35], [Erd39], [PS96], [Ma00], [Ma96], [Sol98], [Mat95], [PS96], [Sim05], [JKS07] [JKS11]. In the first chapter, we will start with a detailed introduction to the self-similar measurements in the complex plane and to the iterated functions systems, also including the concepts of measure theory needed to describe them. Next, we introduce the necessary tools from orthogonal polynomials, infinite matrices and operators. In the second and third chapter we will translate the geometric properties of selfsimilar measures to the moments and Hessenberg matrices. From these results, we will describe algorithms to calculate these matrices from the corresponding iterated functions systems. To be precise, we obtain explicit formulas and approximation algorithms for the moments and moment matrices of fractal measures from a new fixed point theorem for matrices. Moreover, using techniques from operator theory, we extend to the complex plane the real case results obtained by Mantica [Ma00, Ma96]. This result is the base to define a stable algorithm that approximates the Hessenberg matrix associated to a fractal measure and obtains exact finite sections of Hessenberg matrices associated to a sum of measurements. In the last chapter, we consider more general measures, μ, and study the asymptotic behaviour of the eigenvalues of a hermitian matrix of moments, together with its impact on the properties of the associated measure. In the main result we demonstrate that, if the associated polynomials are dense in L2(μ), then necessarily follows that the minimum eigenvalue of the finite sections of the moments matrix goes to zero.
Resumo:
El presente proyecto propone la creación de un procedimiento y metodología para el diseño de salas y sistemas electroacústicos basados en el software EASE. La sala tipo elegida para el diseño será una sala de cine bajo las premisas de DOLBY Digital. Los sistemas electroacústicos modelo serán: • Sistema distribuido tanto en malla cuadrada como hexagonal • Sistemas centralizados basados en agrupaciones, tanto lineales como circulares. Se establecerán los pasos básicos imprescindibles para el diseño de los sistemas descritos de forma que, con la ayuda de este tutorial y los medios didácticos adjuntos al mismo, se puedan acometer paso a paso las distintas fases de diseño, cálculo y análisis de los mismos. Como metodología de trabajo se acometerá el proceso de diseño de un ejemplo de cada tipo sobre el que se describirán todos los pasos, posibilidades de diseño y cálculo de los mismos. Los puntos de estudio serán: • Diseño de una sala de Cine ◦Importación de los Ficheros Autocad del cine a EASE ◦Dibujo del recinto en EASE ◦Inserción de materiales ◦Cálculo del tiempo de reverberación en función del volumen de la sala ◦Ajuste del tiempo de reverberación ◦Elección de altavoces para la sonorización ◦Comprobación de la uniformidad de campo sonoro en todos los canales ◦Comprobación de los niveles de pico y total por canal ◦Ecualización de la sala según la curva X (ISO-2969) ◦Inclusión de la Pantalla en la curva de ecualización ◦Estudios psicoacústico de la sala. Retardos ◦Inteligibilidad ◦Diagrama de bloques • Diseño de un sistema distribuido ◦Estudio de los diferentes tipos de solapamientos ▪Borde con Borde ▪Solapamiento mínimo ▪Centro con Centro ◦Estudio de los diferente tipos de mallas ▪Cuadrada ▪Hexagonal • Diseño de un sistema Centralizado ◦Sistemas centralizados tipo Linear Array ◦Sistemas centralizados tipo Circular Array Así mismo se estudiarán las diferentes posibilidades dentro de la suite EASE, incluyendo las versiones gratuitas del mismo EASE ADDRESS (sistemas distribuidos) y FOCUS II (sistemas centralizados), comparando sus posibilidades con los módulos comerciales equivalentes de EASE y las herramientas añadidas del mismo EARS (software para la auralización biaural) y AURA (utilidad de análisis extendido). ABSTRACT This project proposes the creation of a procedure and methodology for the design of rooms and electroacoustic systems based on EASE software. The room chosen as example design is a cinema under DOLBY Digital premises. Electroacoustic systems chosen as example are: • Distributed both square and hexagonal mesh • Centralized systems based on clusters, both linear and circular. It will be established the basic essential steps for the design of the systems described so, with this tutorial and attached teaching aids, could be undertaken the various stages of design, calculation and analysis. As a working methodology, the process design of an example will be described of each system on which all the steps described, design possibilities and calculation will be shown. The main points are: • Design of a cinema • Importing Autocad Files in EASE • Drawing with EASE • Materials insertion • Reverberation time based on the room volume • Adjusting reverberation time • Choosing speakers • Checking sound field uniformity in all channels • Checking peak levels and total level per each channel • Room equalization using X curve (ISO-2969) • Adding screen in the EQ • Psychoacoustic. Delays • Intelligibility • Block diagram • Design of a distributed system • Study of the different types of overlap o Edge to Edge o Minimum Overlap o Center to Center • Study of different types of mesh • Square • Hex • Centralized System Design • Centralized systems. Linear Array • Centralized systems. Circular Array It also will explore the different possibilities within the EASE suite, including the free versions of the same EASE ADDRESS (distributed systems) and FOCUS II (centralized), comparing its potential with commercial equivalents EASE modules and added tools EARS (software for biaural auralization) and AURA (utility extended analysis).
Resumo:
Las tres características fundamentales que definen la calidad y madurez del tabaco son el color, la textura y los aromas, aunque es color es el factor más extendido para su determinación Sin embargo, el color varia de forma continua desde el verde hasta el amarillo y naranja a lo largo del proceso de maduración, de manera que las distintas categorías comerciales de color muestran amplias zonas difusas entre ellas. El materia empleado en e! presente trabajo fue provisto por CETARS A en las campañas l994 y 1995 En ambos casos, las muestras fueron previamente clasificadas por sus expertos en 12 categorías comerciales de color. Las determinaciones objetivas de color se llevaron a cabo empleando un espectrofotómetro (Monolight). Posteriormente el espectro fue recalculado afectándolo del las características del íluminante habitualmente empleado por los expertos (F7). A través de la integración del espectro se determinaron asimismo las coordenadas triestímulo de color (X.Y.Z), equivalentes al proceso de asimilación del color por el ojo humano. Los resultados obtenidos con el presente estudio pueden resumirse de la siguiente manera. 1.- las categorías comerciales de color provistas por los expertos mostraron un alto índice de solapamiento entre ellas, para las coordenadas XYZ, debido a la ausencia de. homogeneidad características de toda muestra biológica (c v. de 20.14% y 10.08% en 1994 y 1995). 2.- a través de un clasificador no-supervisado sobre observaciones de color se ha creado una nueva base de color similar en valores medios a las de CETARSA pero con menor variabilidad intragrupo (6.31% y 5.81% en 1994 y 1995 este sistema permite agrupar observaciones de color similares independientemente de las hojas a las que pertenezcan. 3.- empleo de un clasificador bayesiano sobre la nueva base de color permite clasificar los puntos de color de una hoja con errores inferiores al 4% en ambas campañas. 4.- se ha desarrollado un criterio global de clasificación de hojas en función del color y la variabilidad de color de distintas muestras dentro de una hoja El sistema será validado "in situ" en las próximas campañas.
Resumo:
Con el fin de conocer mejor a las bacterias, en la actualidad se han desarrollado aplicaciones que permite simular el comportamiento de las colonias formadas por este tipo de organismos. Una de las piezas más importantes que tienen estos simuladores es el motor de físicas. Éste es el encargado de resolver todas las fuerzas producidas entre las bacterias y conseguir que todas queden correctamente colocadas y distribuidas a lo largo de la colonia, tratando de asemejarse lo más posible a la realidad. En una simulación de éstas características, todas las bacterias, además de estar en contacto entre sí, crecen en un pequeño porcentaje durante cada fotograma. Ello produce una gran cantidad de solapamiento a lo largo de toda la colonia que el motor de físicas tiene que resolver. El trabajo que se describe en este documento surge de la ineficiencia del proceso actual para distribuir el solapamiento originado en el interior de la colonia, hasta su exterior. Es importante señalar que la física se lleva el 99% del tiempo de procesado de la simulación de una colonia, con lo que una mejora en el motor de físicas conseguiría incrementar en gran medida la capacidad de simulación. El objetivo no es otro que poder simular más cantidad de bacterias en menos tiempo, facilitando el estudio de esta área tan reciente como es la biología sintética. ---ABSTRACT---In order to better understand bacteria, new applications have been developed to simulate the behavior of colonies formed by these organisms. One of the most important parts of these simulators is the physics engine. This module is responsible for solving all the forces produced between bacteria and ensure that they are properly located and distributed throughout the colony, trying to be as close as possible to reality. In a simulation with these features, all bacteria, besides being in contact with each other, grow in a small percentage at each frame. This produces a large amount of overlap along the entire colony that the physics engine must solve. The work described in this document arises from the inefficiency of the current process to distribute the overlap originated at the core of the colony outwards. Importantly, physics takes up 99% of the processing time of the simulation of a colony. Therefore, improving the physics engine would translate in a drastic increase in the throughput of the simulation. The goal is simply to be able to simulate more bacteria in less time, making the study of the recent area, synthetic biology, much easier.
Resumo:
En ingeniería los materiales están sujetos a un proceso de degradación desde el mismo momento en el que concluye su proceso de fabricación. Cargas mecánicas, térmicas y agresiones químicas dañan las piezas a lo largo de su vida útil. El daño generado por procesos de fatiga, corrosión y desgaste son unos pocos ejemplos de posible deterioro. Este deterioro de las piezas se combate mediante la prevención en la etapa de diseño, a través de reparaciones periódicas y mediante la sustitución de piezas en servicio. La mayor parte de los tipos de daño que pueden sufrir los materiales durante su vida útil se originan en la superficie. Por esta razón, el objetivo de los tratamientos superficiales es inhibir el daño a través de la mejora de las propiedades superficiales del material, intentando no generar sobrecostes inasumibles en el proceso productivo ni efectos colaterales notablemente perjudiciales. En general, se ha de llegar a una solución óptima entre el coste del tratamiento superficial y el beneficio generado por el aumento de la vida útil del material. En esta tesis se estudian los efectos del tratamiento superficial de aleaciones metálicas mediante ondas de choque generadas por láser. Su denominación internacional más empleada "Láser Shock Processing" hace que se emplee la denominación de procesos de LSP para referirse a los mismos. También se emplea la denominación de "Láser Peening" por semejanza al tratamiento superficial conocido como "Shot Peening", aunque su uso sólo está generalizado en el ámbito industrial. El tratamiento LSP es una alternativa eficaz a los tratamientos tradicionales de mejora de propiedades superficiales, mejorando la resistencia a la fatiga, a la corrosión y al desgaste. El tratamiento LSP se basa en la aplicación de uno o varios pulsos láser de elevada intensidad (superior a 1 GW/cm2) y con duración en el dominio de los nanosegundos sobre la superficie de la pieza metálica a tratar. Esta, bien se recubre con una fina capa de medio confinante (generalmente una fina capa de agua) transparente a la radiación láser, bien se sumerge en el medio confinante (también se usa agua). El pulso láser atraviesa el medio confinante hasta llegar a la superficie de la pieza. Es entonces cuando la superficie inmediatamente se vaporiza y se ioniza, pasando a estado de plasma. Como el plasma generado es confinado por el medio confinante, su expansión se limita y su presión crece. De este modo, el plasma alcanza presiones de varios GPa y crea dos ondas de choque: una de las cuales se dirige hacia el medio confinante y la otra se dirige hacia la pieza. Esta última produce un cráter microscópico por aplastamiento mecánico, generándose deformación plástica y un campo de tensiones residuales de compresión que mejoran las propiedades superficiales del material. La capacidad de los procesos LSP para mejorar las propiedades de materiales metálicos es indiscutible. En la bibliografía está reflejado el trabajo experimental y de simulación que se ha llevado a cabo a lo largo de los años en orden a optimizar el proceso. Sin embargo, hay pocos estudios que hayan tratado exhaustivamente la física del proceso. Esto es debido a la gran complejidad de la fenomenología física involucrada en los procesos LSP, con comportamientos no lineales tanto en la generación y dinámica del plasma como en la propagación de las ondas de choque en el material. Además, el elevado coste de los experimentos y su duración, así como el gran coste computacional que debían asumir los antiguos modelos numéricos, dificultó el proceso de optimización. No obstante, los nuevos sistemas de cálculo son cada vez más rápidos y, además, los programas de análisis de problemas no lineales por elementos finitos son cada vez más sofisticados, por lo que a día de hoy es posible desarrollar un modelo exhaustivo que no solo permita simular el proceso en situaciones simplificadas, sino que pueda ser empleado para optimizar los parámetros del tratamiento en casos reales y sobre áreas extensas. Por esta razón, en esta tesis se desarrolla y se valida un modelo numérico capaz de simular de manera sistemática tratamientos LSP en piezas reales, teniendo en cuenta la física involucrada en los mismos. En este sentido, cabe destacar la problemática del tratamiento LSP en placas delgadas. La capacidad del LSP para inducir tensiones residuales de compresión bajo la superficie de materiales con un espesor relativamente grueso (> 6 mm) con objeto de mejorar la vida en fatiga ha sido ampliamente demostrada. Sin embargo, el tratamiento LSP en especímenes delgados (típicamente < 6 mm, pero también mayores si es muy alta la intensidad del tratamiento) conlleva el efecto adicional del doblado de la pieza tratada, un hecho que puede ser aprovechado para procesos de conformado láser. Este efecto de doblado trae consigo una nueva clase de problemas en lo referente a los perfiles específicos de tensiones residuales en las piezas tratadas, ya que al equilibrarse las tensiones tras la retirada de su sujeción puede afectar considerablemente el perfil de tensiones residuales obtenido, lo que posiblemente puede derivar en la obtención de un perfil de tensiones residuales no deseado y, lo que puede ser aún más crítico, una deformación indeseable de la pieza en cuestión. Haciendo uso del modelo numérico desarrollado en esta Tesis, el análisis del problema del tratamiento LSP para la inducción de campos de tensiones residuales y la consecuente mejora de la vida en fatiga en piezas de pequeño espesor en un modo compatible con una deformación asumible se aborda de forma específica. La tesis está estructurada del siguiente modo: i) El capítulo 1 contiene una introducción al LSP, en la que se definen los procesos de tratamiento de materiales mediante ondas de choque generadas por láser. A continuación se expone una visión panorámica de las aplicaciones industriales de la tecnología LSP y, por último, se realiza una comparativa entre la tecnología LSP y otras tecnologías en competencia en el ámbito industrial: Shot Peening, Low Plasticity Burnishing y Waterjet Peening. ii) El capítulo 2 se divide en dos partes: fundamentos físicos característicos del tratamiento LSP y estado del arte de la modelización de procesos LSP. En cuanto a la primera parte, fundamentos físicos característicos del tratamiento LSP, en primer lugar se describe la física del tratamiento y los principales fenómenos que tienen lugar. A continuación se detalla la física de la interacción confinada en agua y la generación del pulso de presión asociado a la onda de choque. También se describe el proceso de saturación de la presión máxima por ruptura dieléctrica del agua y, por último, se describe la propagación de las ondas de choque y sus efectos en el material. En cuanto a la segunda parte, el estado del arte de la modelización de procesos LSP, recoge el conocimiento preexistente al desarrollo de la propia Tesis en los siguientes campos: modelización de la generación del plasma y su expansión, modelización de la ruptura dieléctrica del medio confinante, modelización del pulso de presión aplicado al material y la respuesta del mismo: inducción de tensiones residuales y deformaciones. iii) El capítulo 3 describe el desarrollo de un modelo propio para la simulación de las tensiones residuales y las deformaciones generadas por procesos LSP. En él se detalla la simulación de la propagación del pulso de presión en el material, los pormenores de su puesta en práctica mediante el método de los elementos finitos, la determinación de parámetros realistas de aplicación y se establece un procedimiento de validación de los resultados. iv) El capítulo 4 contiene los resultados de la aplicación del modelo a distintas configuraciones de interés en tratamientos LSP. En él se recoge un estudio del tratamiento LSP sobre áreas extensas que incluye un análisis de las tensiones residuales inducidas y un análisis sobre la influencia de la secuencia de barrido de los pulsos en las tensiones residuales y en las deformaciones. También se presenta un estudio específico de la problemática del tratamiento LSP en piezas de pequeño espesor y se detallan dos casos prácticos abordados en el CLUPM de gran interés tecnológico en función de las aplicaciones reales en las que se ha venido trabajando en los últimos años. v) En el capítulo 5 se presentan las conclusiones derivadas de los resultados obtenidos en la tesis. Concretamente, se destaca que el modelo desarrollado permite reproducir las condiciones experimentales de los procesos de LSP reales y predecir los efectos mecánicos inducidos por los mismos. Los anexos incluidos como parte accesoria contienen información importante que se ha utilizado en el desarrollo de la Tesis y que se desea incluir para hacer el volumen autoconsistente: i) En el anexo A se presenta una revisión de conceptos básicos sobre el comportamiento de los sólidos sometidos a ondas de choque [Morales04]. ii) El anexo B contiene la resolución analítica de la ecuación de ritmo utilizada en el código DRUPT [Morales04]. iii) El anexo C contiene la descripción de los procedimientos de uso del modelo de simulación desarrollado en la Tesis y el código fuente de la subrutina OVERLAP desarrollada para programar el solapamiento de pulsos en tratamientos LSP sobre áreas extensas. iv) El anexo D contiene un resumen de las principales técnicas para la medición de las tensiones residuales en los materiales [PorrolO] y [Gill2]. v) El anexo E contiene una descripción de las instalaciones experimentales del CLUPM en el que se han desarrollado los procesos LSP utilizados en la validación del modelo desarrollado [PorrolO].
Resumo:
La astronomía de rayos γ estudia las partículas más energéticas que llegan a la Tierra desde el espacio. Estos rayos γ no se generan mediante procesos térmicos en simples estrellas, sino mediante mecanismos de aceleración de partículas en objetos celestes como núcleos de galaxias activos, púlsares, supernovas, o posibles procesos de aniquilación de materia oscura. Los rayos γ procedentes de estos objetos y sus características proporcionan una valiosa información con la que los científicos tratan de comprender los procesos físicos que ocurren en ellos y desarrollar modelos teóricos que describan su funcionamiento con fidelidad. El problema de observar rayos γ es que son absorbidos por las capas altas de la atmósfera y no llegan a la superficie (de lo contrario, la Tierra será inhabitable). De este modo, sólo hay dos formas de observar rayos γ embarcar detectores en satélites, u observar los efectos secundarios que los rayos γ producen en la atmósfera. Cuando un rayo γ llega a la atmósfera, interacciona con las partículas del aire y genera un par electrón - positrón, con mucha energía. Estas partículas secundarias generan a su vez más partículas secundarias cada vez menos energéticas. Estas partículas, mientras aún tienen energía suficiente para viajar más rápido que la velocidad de la luz en el aire, producen una radiación luminosa azulada conocida como radiación Cherenkov durante unos pocos nanosegundos. Desde la superficie de la Tierra, algunos telescopios especiales, conocidos como telescopios Cherenkov o IACTs (Imaging Atmospheric Cherenkov Telescopes), son capaces de detectar la radiación Cherenkov e incluso de tomar imágenes de la forma de la cascada Cherenkov. A partir de estas imágenes es posible conocer las principales características del rayo γ original, y con suficientes rayos se pueden deducir características importantes del objeto que los emitió, a cientos de años luz de distancia. Sin embargo, detectar cascadas Cherenkov procedentes de rayos γ no es nada fácil. Las cascadas generadas por fotones γ de bajas energías emiten pocos fotones, y durante pocos nanosegundos, y las correspondientes a rayos γ de alta energía, si bien producen más electrones y duran más, son más improbables conforme mayor es su energía. Esto produce dos líneas de desarrollo de telescopios Cherenkov: Para observar cascadas de bajas energías son necesarios grandes reflectores que recuperen muchos fotones de los pocos que tienen estas cascadas. Por el contrario, las cascadas de altas energías se pueden detectar con telescopios pequeños, pero conviene cubrir con ellos una superficie grande en el suelo para aumentar el número de eventos detectados. Con el objetivo de mejorar la sensibilidad de los telescopios Cherenkov actuales, en el rango de energía alto (> 10 TeV), medio (100 GeV - 10 TeV) y bajo (10 GeV - 100 GeV), nació el proyecto CTA (Cherenkov Telescope Array). Este proyecto en el que participan más de 27 países, pretende construir un observatorio en cada hemisferio, cada uno de los cuales contará con 4 telescopios grandes (LSTs), unos 30 medianos (MSTs) y hasta 70 pequeños (SSTs). Con un array así, se conseguirán dos objetivos. En primer lugar, al aumentar drásticamente el área de colección respecto a los IACTs actuales, se detectarán más rayos γ en todos los rangos de energía. En segundo lugar, cuando una misma cascada Cherenkov es observada por varios telescopios a la vez, es posible analizarla con mucha más precisión gracias a las técnicas estereoscópicas. La presente tesis recoge varios desarrollos técnicos realizados como aportación a los telescopios medianos y grandes de CTA, concretamente al sistema de trigger. Al ser las cascadas Cherenkov tan breves, los sistemas que digitalizan y leen los datos de cada píxel tienen que funcionar a frecuencias muy altas (≈1 GHz), lo que hace inviable que funcionen de forma continua, ya que la cantidad de datos guardada será inmanejable. En su lugar, las señales analógicas se muestrean, guardando las muestras analógicas en un buffer circular de unos pocos µs. Mientras las señales se mantienen en el buffer, el sistema de trigger hace un análisis rápido de las señales recibidas, y decide si la imagen que hay en el buér corresponde a una cascada Cherenkov y merece ser guardada, o por el contrario puede ignorarse permitiendo que el buffer se sobreescriba. La decisión de si la imagen merece ser guardada o no, se basa en que las cascadas Cherenkov producen detecciones de fotones en píxeles cercanos y en tiempos muy próximos, a diferencia de los fotones de NSB (night sky background), que llegan aleatoriamente. Para detectar cascadas grandes es suficiente con comprobar que más de un cierto número de píxeles en una región hayan detectado más de un cierto número de fotones en una ventana de tiempo de algunos nanosegundos. Sin embargo, para detectar cascadas pequeñas es más conveniente tener en cuenta cuántos fotones han sido detectados en cada píxel (técnica conocida como sumtrigger). El sistema de trigger desarrollado en esta tesis pretende optimizar la sensibilidad a bajas energías, por lo que suma analógicamente las señales recibidas en cada píxel en una región de trigger y compara el resultado con un umbral directamente expresable en fotones detectados (fotoelectrones). El sistema diseñado permite utilizar regiones de trigger de tamaño seleccionable entre 14, 21 o 28 píxeles (2, 3, o 4 clusters de 7 píxeles cada uno), y con un alto grado de solapamiento entre ellas. De este modo, cualquier exceso de luz en una región compacta de 14, 21 o 28 píxeles es detectado y genera un pulso de trigger. En la versión más básica del sistema de trigger, este pulso se distribuye por toda la cámara de forma que todos los clusters sean leídos al mismo tiempo, independientemente de su posición en la cámara, a través de un delicado sistema de distribución. De este modo, el sistema de trigger guarda una imagen completa de la cámara cada vez que se supera el número de fotones establecido como umbral en una región de trigger. Sin embargo, esta forma de operar tiene dos inconvenientes principales. En primer lugar, la cascada casi siempre ocupa sólo una pequeña zona de la cámara, por lo que se guardan muchos píxeles sin información alguna. Cuando se tienen muchos telescopios como será el caso de CTA, la cantidad de información inútil almacenada por este motivo puede ser muy considerable. Por otro lado, cada trigger supone guardar unos pocos nanosegundos alrededor del instante de disparo. Sin embargo, en el caso de cascadas grandes la duración de las mismas puede ser bastante mayor, perdiéndose parte de la información debido al truncamiento temporal. Para resolver ambos problemas se ha propuesto un esquema de trigger y lectura basado en dos umbrales. El umbral alto decide si hay un evento en la cámara y, en caso positivo, sólo las regiones de trigger que superan el nivel bajo son leídas, durante un tiempo más largo. De este modo se evita guardar información de píxeles vacíos y las imágenes fijas de las cascadas se pueden convertir en pequeños \vídeos" que representen el desarrollo temporal de la cascada. Este nuevo esquema recibe el nombre de COLIBRI (Concept for an Optimized Local Image Building and Readout Infrastructure), y se ha descrito detalladamente en el capítulo 5. Un problema importante que afecta a los esquemas de sumtrigger como el que se presenta en esta tesis es que para sumar adecuadamente las señales provenientes de cada píxel, estas deben tardar lo mismo en llegar al sumador. Los fotomultiplicadores utilizados en cada píxel introducen diferentes retardos que deben compensarse para realizar las sumas adecuadamente. El efecto de estos retardos ha sido estudiado, y se ha desarrollado un sistema para compensarlos. Por último, el siguiente nivel de los sistemas de trigger para distinguir efectivamente las cascadas Cherenkov del NSB consiste en buscar triggers simultáneos (o en tiempos muy próximos) en telescopios vecinos. Con esta función, junto con otras de interfaz entre sistemas, se ha desarrollado un sistema denominado Trigger Interface Board (TIB). Este sistema consta de un módulo que irá montado en la cámara de cada LST o MST, y que estará conectado mediante fibras ópticas a los telescopios vecinos. Cuando un telescopio tiene un trigger local, este se envía a todos los vecinos conectados y viceversa, de modo que cada telescopio sabe si sus vecinos han dado trigger. Una vez compensadas las diferencias de retardo debidas a la propagación en las fibras ópticas y de los propios fotones Cherenkov en el aire dependiendo de la dirección de apuntamiento, se buscan coincidencias, y en el caso de que la condición de trigger se cumpla, se lee la cámara en cuestión, de forma sincronizada con el trigger local. Aunque todo el sistema de trigger es fruto de la colaboración entre varios grupos, fundamentalmente IFAE, CIEMAT, ICC-UB y UCM en España, con la ayuda de grupos franceses y japoneses, el núcleo de esta tesis son el Level 1 y la Trigger Interface Board, que son los dos sistemas en los que que el autor ha sido el ingeniero principal. Por este motivo, en la presente tesis se ha incluido abundante información técnica relativa a estos sistemas. Existen actualmente importantes líneas de desarrollo futuras relativas tanto al trigger de la cámara (implementación en ASICs), como al trigger entre telescopios (trigger topológico), que darán lugar a interesantes mejoras sobre los diseños actuales durante los próximos años, y que con suerte serán de provecho para toda la comunidad científica participante en CTA. ABSTRACT -ray astronomy studies the most energetic particles arriving to the Earth from outer space. This -rays are not generated by thermal processes in mere stars, but by means of particle acceleration mechanisms in astronomical objects such as active galactic nuclei, pulsars, supernovas or as a result of dark matter annihilation processes. The γ rays coming from these objects and their characteristics provide with valuable information to the scientist which try to understand the underlying physical fundamentals of these objects, as well as to develop theoretical models able to describe them accurately. The problem when observing rays is that they are absorbed in the highest layers of the atmosphere, so they don't reach the Earth surface (otherwise the planet would be uninhabitable). Therefore, there are only two possible ways to observe γ rays: by using detectors on-board of satellites, or by observing their secondary effects in the atmosphere. When a γ ray reaches the atmosphere, it interacts with the particles in the air generating a highly energetic electron-positron pair. These secondary particles generate in turn more particles, with less energy each time. While these particles are still energetic enough to travel faster than the speed of light in the air, they produce a bluish radiation known as Cherenkov light during a few nanoseconds. From the Earth surface, some special telescopes known as Cherenkov telescopes or IACTs (Imaging Atmospheric Cherenkov Telescopes), are able to detect the Cherenkov light and even to take images of the Cherenkov showers. From these images it is possible to know the main parameters of the original -ray, and with some -rays it is possible to deduce important characteristics of the emitting object, hundreds of light-years away. However, detecting Cherenkov showers generated by γ rays is not a simple task. The showers generated by low energy -rays contain few photons and last few nanoseconds, while the ones corresponding to high energy -rays, having more photons and lasting more time, are much more unlikely. This results in two clearly differentiated development lines for IACTs: In order to detect low energy showers, big reflectors are required to collect as much photons as possible from the few ones that these showers have. On the contrary, small telescopes are able to detect high energy showers, but a large area in the ground should be covered to increase the number of detected events. With the aim to improve the sensitivity of current Cherenkov showers in the high (> 10 TeV), medium (100 GeV - 10 TeV) and low (10 GeV - 100 GeV) energy ranges, the CTA (Cherenkov Telescope Array) project was created. This project, with more than 27 participating countries, intends to build an observatory in each hemisphere, each one equipped with 4 large size telescopes (LSTs), around 30 middle size telescopes (MSTs) and up to 70 small size telescopes (SSTs). With such an array, two targets would be achieved. First, the drastic increment in the collection area with respect to current IACTs will lead to detect more -rays in all the energy ranges. Secondly, when a Cherenkov shower is observed by several telescopes at the same time, it is possible to analyze it much more accurately thanks to the stereoscopic techniques. The present thesis gathers several technical developments for the trigger system of the medium and large size telescopes of CTA. As the Cherenkov showers are so short, the digitization and readout systems corresponding to each pixel must work at very high frequencies (_ 1 GHz). This makes unfeasible to read data continuously, because the amount of data would be unmanageable. Instead, the analog signals are sampled, storing the analog samples in a temporal ring buffer able to store up to a few _s. While the signals remain in the buffer, the trigger system performs a fast analysis of the signals and decides if the image in the buffer corresponds to a Cherenkov shower and deserves to be stored, or on the contrary it can be ignored allowing the buffer to be overwritten. The decision of saving the image or not, is based on the fact that Cherenkov showers produce photon detections in close pixels during near times, in contrast to the random arrival of the NSB phtotons. Checking if more than a certain number of pixels in a trigger region have detected more than a certain number of photons during a certain time window is enough to detect large showers. However, taking also into account how many photons have been detected in each pixel (sumtrigger technique) is more convenient to optimize the sensitivity to low energy showers. The developed trigger system presented in this thesis intends to optimize the sensitivity to low energy showers, so it performs the analog addition of the signals received in each pixel in the trigger region and compares the sum with a threshold which can be directly expressed as a number of detected photons (photoelectrons). The trigger system allows to select trigger regions of 14, 21, or 28 pixels (2, 3 or 4 clusters with 7 pixels each), and with extensive overlapping. In this way, every light increment inside a compact region of 14, 21 or 28 pixels is detected, and a trigger pulse is generated. In the most basic version of the trigger system, this pulse is just distributed throughout the camera in such a way that all the clusters are read at the same time, independently from their position in the camera, by means of a complex distribution system. Thus, the readout saves a complete camera image whenever the number of photoelectrons set as threshold is exceeded in a trigger region. However, this way of operating has two important drawbacks. First, the shower usually covers only a little part of the camera, so many pixels without relevant information are stored. When there are many telescopes as will be the case of CTA, the amount of useless stored information can be very high. On the other hand, with every trigger only some nanoseconds of information around the trigger time are stored. In the case of large showers, the duration of the shower can be quite larger, loosing information due to the temporal cut. With the aim to solve both limitations, a trigger and readout scheme based on two thresholds has been proposed. The high threshold decides if there is a relevant event in the camera, and in the positive case, only the trigger regions exceeding the low threshold are read, during a longer time. In this way, the information from empty pixels is not stored and the fixed images of the showers become to little \`videos" containing the temporal development of the shower. This new scheme is named COLIBRI (Concept for an Optimized Local Image Building and Readout Infrastructure), and it has been described in depth in chapter 5. An important problem affecting sumtrigger schemes like the one presented in this thesis is that in order to add the signals from each pixel properly, they must arrive at the same time. The photomultipliers used in each pixel introduce different delays which must be compensated to perform the additions properly. The effect of these delays has been analyzed, and a delay compensation system has been developed. The next trigger level consists of looking for simultaneous (or very near in time) triggers in neighbour telescopes. These function, together with others relating to interfacing different systems, have been developed in a system named Trigger Interface Board (TIB). This system is comprised of one module which will be placed inside the LSTs and MSTs cameras, and which will be connected to the neighbour telescopes through optical fibers. When a telescope receives a local trigger, it is resent to all the connected neighbours and vice-versa, so every telescope knows if its neighbours have been triggered. Once compensated the delay differences due to propagation in the optical fibers and in the air depending on the pointing direction, the TIB looks for coincidences, and in the case that the trigger condition is accomplished, the camera is read a fixed time after the local trigger arrived. Despite all the trigger system is the result of the cooperation of several groups, specially IFAE, Ciemat, ICC-UB and UCM in Spain, with some help from french and japanese groups, the Level 1 and the Trigger Interface Board constitute the core of this thesis, as they have been the two systems designed by the author of the thesis. For this reason, a large amount of technical information about these systems has been included. There are important future development lines regarding both the camera trigger (implementation in ASICS) and the stereo trigger (topological trigger), which will produce interesting improvements for the current designs during the following years, being useful for all the scientific community participating in CTA.
Resumo:
La emergencia del entorno aumentado, producto del solapamiento de la capa digital en el entorno físico, induce cambios profundos en la ciudad y en sus ciudadanos. La inserción de esta dimensión digital impone la modificación de los límites dicotómicos que tradicionalmente han segregado la estructura urbana. El usuario sintoniza la Ciudad Aumentada acomodando la estructura topológica de la nueva extensión electrónica a sus hábitos de vida. Este proceso de simbiosis de realidades produce nuevos paisajes urbanos cuya cartografía arquitectónica precisa de neologismos que acuñen y categoricen aquellos conceptos generados por la Ciudad Aumentada.