74 resultados para Posiciones

em Universidad Politécnica de Madrid


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Desarrollo de teoría y algoritmos para la búsqueda de posiciones óptimas en un espacio circular. En este trabajo se desarrolla una aplicación de los datos direccionales a la ciencia política. Se presenta un modelo en el que las preferencias políticas de los tipos de votantes de una población se representan como puntos de la circunferencia unidad y los partidos políticos buscan las posiciones óptimas en ella para captar el máximo apoyo de ese conjunto finito de tipos de votantes. Se desarrollan algoritmos de búsqueda basados en los estudios realizados y se implementa uno de ellos, realizándose simulaciones de ejemplos relacionados con el posicionamiento político e interpretándose los resultados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Con el objetivo de valorar la potencia desarrollada por la musculatura del tren inferior, se realizó un estudio con los tres equipos juveniles de alto nivel de la cantera de un equipo de la primera división española para informar a los cuerpos técnicos y orientar en cuanto al entrenamiento de esta capacidad. Se realizaron los test: Squat Jump (SJ) y CounterMovement Jump (CMJ) así como saltos reactivos, con un total de 59 futbolistas. El material utilizado fueron dos plataformas de fuerzas piezoeléctricas con una frecuencia de muestreo de 400 Hz (BTS). Los resultados mostraron que son los porteros los que mayor fuerza, potencia e impulso desarrollaron, que los centrales fueron los que mayor altura del salto consiguieron, además de una diferencia significativa entre los niveles de fuerza por edades. Se compararon los resultados con otros estudios de equipos de todo el mundo y estos resultados fueron positivos en cuanto a la preparación física de estos atletas. Finalmente se detalló un informe individual y por equipos sobre cada futbolista y se planificó un trabajo de 6 semanas para aumentar la fuerza explosiva del miembro inferior.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El análisis de la actividad física de un futbolista resulta esencial para determinar sus necesidades específicas dentro de la competición con el objetivo de mejorar el rendimiento. Este estudio pretende analizar las acciones de alta intensidad (>21km/h) que realizan los jugadores del Real Madrid en la temporada 2011/2012 tanto por posiciones como por periodos del encuentro. Los 13 sujetos estudiados en la temporada fueron divididos en tres grupos, defensas, medios y delanteros para su posterior estudio. Los resultados del estudio corroboran lo estudiado anteriormente por otros autores, realizando mayor número de acciones y mayores distancias recorridas en las primeras partes que en las segundas. Las conclusiones muestran como los esfuerzos de cada jugador corresponden con la posición que ocupen en el campo y el sistema de juego de cada entrenador.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de este trabajo es generar un modelo Edafogeomorfológico útil en la identificación de necesidades de manejo de suelos, se realizó un estudio en el área de la cuenca Cañada La Gorda Machiques-Colón, estado Zulia, Venezuela, caracterizada por un clima tropical de condición subhúmeda, con duración del periodo de crecimiento (DPC) de 230 días, régimen de humedad Ustic y de temperatura Isohipertémico. Se empleó el enfoque de la ecuación factorial de formación de suelos para el análisis y descripción biofísica de los factores a lo largo de una carena. El relieve caracterizado a partir de fotografías aéreas, imágenes de satélites y de chequeos sistemático mediante transectos en el sentido del flujo del escurrimiento; la vegetación a través del uso de la tierra, la cobertura vegetal, la identificación de las especies dominantes a partir de sus nombres vernáculos y la definición de indicadores de vegetales (Iv). Los suelos fueron descritos y clasificados según la Taxonomía de suelos y valorados mediante el modelo paramétricode Riquier et al. (1970) para determinar el índice de productividad (Ip). Se caracterizaron dos paisajes gemorfológicos: Colinar (C) y Valle (V), seis posiciones geomorfológicas entre ambos paisajes definidas por la sucesión de relieves en el sentido de la pendiente: Tope de colina-loma (TC), mesa conservada (MC), vertientes de mesa alta (VA), media (VM), baja (VB) y valle intracolinar (VI); e igual número de perfiles de suelos representativos, los cuales mostraron edafogénesis muy avanzada con Ip inferiores a 8% en todas las posiciones, exceptuando la VB, con una productividad de 13%. El uso de la tierra es a base de pastoreo semi-intensivo de plantas forrajeras introducidas. Las formaciones vegetales predominante fueron los matorrales y arbustales dispersos, acompañados con restos de una selva tropófila fuertemente afectada por la extracción forestal y la conversión en áreas de pastoreo. Se identificaron 8 Iv, asociados fuertemente con condiciones de físicas e hidrológicas del suelo. El alto impacto de las actividades humanas sobre el suelo y vegetación, expresado a través de los procesos de erosión activa, la ausencia de áreas boscosas y la baja productividad de los sistemas de ganadería reportada para la zona, señalan la necesidad de reorientación del uso actual de la tierra, para lo cual se plantean alternativas como la incorporación de bosques protectores y sistemas agrosilvopastoriles In order to generate an Edaphogeomorphological model to be used for the identification of management requirements of soils, a study was carried out in the area of the Cañada La Gorda watershed, Machiques Colon, Zulia State with a tropical climate, subsumid conditions with a growing period of 230 days, an Ustic soil moisture and Isohypertermic regimes. The soils factorial equation approach was used for the analisis and description of the factors of soil formation throughout a soil catena. Relief was characterized through aerial photographs, satellite images and systematic checks of transects drawn in the sense of surface runoff and also taking into account geomorphological features. Vegetation cover and land use were described and vegetation components were indified by its local names to defined vegetations indicators (VI) for the local conditions. Soils were described and classified according to soil taxonomy and valued by means of a parametric model proposed by Riquier et al, (1970) for determining the productivity index (PI). Two geomorphological landscapes were defined: Hilly and Valley with six positions within the landscapes: hilltop (round or elongated), preserved tableland summit, slopes of high, medium and low tableland and valleys between hills. Representative soils of each position were studied showing a highly advanced degree of edaphogenesis with PI values below 8% in all positions except the valleys with a PI of 13%. Land use type is based on semi intensive pasturing of introduced forage species, with a vegetation of brushwood and scattered shrubs, with some trees relicts of woods affected by timber extraction and turn to grassland Eight VI were identified, highly associated to local physical and hidrological soil conditions. The enormous impact of human activity on soils and vegetation as shown by active erosion processes and absence of wooded areas and the low productivity of livestock systems reported for the area, indicates the necessity of a reorientation of the present land use introducing alternatives like the incorporation of protective woods and agrosilvopastoral management systems.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El uso de las partículas magnéticas ha venido a más durante los últimos 10 años. Lo anterior ha estado condicionado por factores como la amplia investigación en materiales a nivel atómico, los retos propuestos por las diferentes áreas de investigación donde los niveles nanométricos cobran importancia, la inherente innovación tecnológica que pueden aportar a la industria dichas escalas y finalmente, el impacto socioeconómico que pueden tener estos avances tecnológicos. Sin embargo, la traslación a la industria de los avances tecnológicos se ha visto limitada por la falta de estrategias, ya que el 88% del conocimiento se queda en Universidades y Centros de Investigación y el resto, 12%, pasa a la industria o es obtenido en ella. En este trabajo de investigación se ha tratado de completar el círculo de idea, conceptualización, generación de conocimiento, prototipo, prueba in vitro y prueba in vivo; todo ello para dejar el menor espacio posible entre Investigación e Industria. Se ha fabricado un recinto que permite la observación del comportamiento de las partículas magnéticas cuando están inmersas en un medio con viscosidad controlada y con una fuente magnética estática. De la observación experimental se han encontrado fenómenos magnéticos como la aglomeración y la autoorganización, que han sido aprovechados, no solo para ofrecer una solución alternativa a la corrección del desprendimiento de retina, sino también para promover las mejoras de métodos de separación y/o filtrado celular, ayuda en correcciones ortopédicas o en el diagnóstico y tratamiento de enfermedades degenerativas. Particularizando en la corrección del desprendimiento de retina, se ha desarrollado y patentado un Dispositivo Ocular cuya función es la de tapón del agujero retiniano, ayudando en la cicatrización de la retina. Dicho dispositivo ha sido evaluado en conejos albinos neozelandeses obteniéndose un éxito en la reaplicación de la retina del 80% y resultando su toxicidad en condición difusa tras evaluación anatomopatológica. Así mismo, el ferrofluido diseñado y fabricado se ha localizado en la zona de interacción magnética siempre y su disposición ha sido en el mayor de los casos en forma de placa pero también se han formado anillos; lo anterior no ha afectado en ningún sentido el éxito en la reaplicación de la retina. Por otro lado, no se han encontrado indicios de siderosis en la zona de interacción magnética, sus alrededores o el resto del globo ocular; ni las células han presentado apoptosis inducida por los materiales introducidos en el ojo. Sin embargo, se ha encontrado una fuerte necrosis inducida por la presión ejercida sobre la retina por el dispositivo ocular, evidenciando la necesidad de un mejor control de dicha presión. Tras la caracterización de los copos y la presión que éstos ejercen, se ha podido identificar que el dispositivo ocular se puede sintonizar para inducir una presión entre 0.5 y 2.5 mmHg; por tanto se puede vislumbrar que es posible minimizar la muerte celular causada en las células retinianas. Finalmente, tras la experimentación con conejos se ha observado que el dispositivo ocular resuelve los problemas inducidos por las siliconas o los gases e inclusive aporta ventajas competitivas de alto valor añadido como: no requerir de posiciones incómodas en el post-operatorio, no modifica las propiedades ópticas del ojo ya que no es necesario dejar silicona o gases en el interior del ojo, se pueden sellar múltiples agujeros retinianos, corrección de desprendimiento de retina inferior sin complicaciones asociadas, etc.; en definitiva mejora la calidad de vida domiciliaria del paciente además de solventar los problemas inducidos por las soluciones actuales. The using of magnetic particles has become more important during last 10 years. This event has been conditioned by several factors like a wide researching on materials at atomic level, the challenges proposed by different research areas where nanometric levels became important, the inherent technological innovation to the industry and finally, the socioeconomic impact of these kinds of technologies. However, the nanotechnological advances have not been well addressed to the industry since 88% of the acknowledge keeps on Universities and Research Centers, and the remaining 12% goes through the industry or is obtained in it. In this research work, we have tried to complete the entire process about idea, concept, acknowledge generation, prototyping and in vitro and in vivo testing; all to leave as little space as possible between Research and Industry. We have built an experimental hall which allows us the observation of magnetic particles' behavior when are immersing in a controlled viscous medium and under a static magnetic field. The experimental observation has been useful to identify and use two magnetic phenomena: agglomeration and self-organization; no only for retinal detachment, but also to improve cellular separation and/or filtered methods, orthopedic solutions or the diagnostic and treatment of degenerative diseases. Particularizing on retinal detachment, we have developed and patented an Ocular Device which its function is acting like a tampon of the retinal hole for helping with the scarring retina. The device has been evaluated in animals and the results show that we can achieve a success of 80% before rabbit’s death and non cell apoptosis, only necrosis, over the retina attached by the ocular device after anatomopathological evaluation. Also we have identified a diffuse toxicity after anatomopathological evaluation, so more experimenting must be proposed. Otherwise, the ferrofluid has been localized where the magnetic interaction area is located and its deposition has been in most cases plaque shape like but rings have also been observed; this has not affected in any way the successful reattachment of the retina. On the other hand, we have not found any evidence of siderosis in the magnetic interaction zone, near of or some other place of the ocular globe; and we did not find any apoptosis induced by the materials inserted within the eye. However full necrosis, exactly on the magnetic interaction zone, has been found and induced by the pressure exerted over the retina by the ocular device, evidencing the needing of its better control. After flakes’ characterization and its pressure exerted, we identified that the ocular device can be tuned in order to induce a pressure between 0.5 and 2.5 mmHg; therefore we can perceive that death caused to the retinal cells can be minimized. Finally, the experimentation has shown that the ocular device solves all problems induced by silicone or gases an even contributes with some other competitive advantages of high added value like: no uncomfortable postoperative positions, it does not modify any optical property of the eye because there is no needing of leaving silicone or gases inside the eye, many holes can be sealed, the inferior retinal detachment can be solve without any complications, etc.; definitively the ocular device improves patients’ quality of life.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La dehesa es el sistema agroforestal español más conocido y estudiado; hoy en día está protegido por la Directiva Hábitats 43/92/CEE (6310-Dehesas perennifolias de Quercus ssp.) e incluida en la red Natura 2000. El objetivo de este trabajo es analizar la contribución del arbolado a la producción y diversidad de los pastos herbáceos en la dehesa del centro peninsular. El trabajo se ha desarrollado en la finca “El Dehesón del Encinar” (Término Municipal de Oropesa, provincia de Toledo), en una parcela de 5 ha representativa de la dehesa tipo en la zona. Se muestrearon marcos de 50 x 50 cm de lado considerando dos posiciones bajo copa según la proximidad del tronco (1/2 radio y en el borde) en cuatro orientaciones: Norte, Sur, Este y Oeste, en 12 encinas en distintas localizaciones dentro de la parcela. Para cada marco de muestreo se estudió la composición florística completa de los pastos herbáceos y la contribución de cada especie a la producción en materia seca. Se utilizó un modelo GLM para ver la relación entre la riqueza específica y otras variables (producción, calidad de estación y situación bajo copa). La diversidad beta fue medida mediante el índice de Whittaker, comparando las comunidades herbáceas en las distintas situaciones presentes. En la zona de estudio encontramos que la calidad de los pastos herbáceos está íntimamente relacionada con la riqueza específica a través de la abundancia de leguminosas. Los valores superiores de riqueza se encontraron en los bordes de las copas del arbolado así como en encinas situadas en las zonas más ricas en leguminosas de la parcela general. Con respecto a la diversidad beta, no existen diferencias notables entre las comunidades de pastos herbáceos bajo las distintas encinas estudiadas; las localizaciones de la parcela con mayor riqueza específica y producción de leguminosas también muestran mayores diferencias (índices de Whittaker superiores) en la comparación de comunidades a distintas distancias del fuste (>50% de especies distintas). Constatamos y cuantificamos la importancia del estrato arbóreo en la producción y diversidad de los pastos herbáceos de la dehesa

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En los ensayos de aislamiento acústico según normas UNE EN ISO 140-4 y 140-5 el valor de L2 es un promedio espacio-temporal de los niveles de presión sonora medidos en diferentes posiciones de la sala receptora. La desviación estándar de estos valores se puede considerar como una medida de la uniformidad del campo sonoro en el recinto. Se analiza este parámetro en función de la frecuencia y se propone un cálculo teórico del mismo como una incertidumbre combinada de la desviación estándar derivada de modelos teóricos centrados en la geometría del recinto y la desviación estándar asociada a la vibración de la pared separadora

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se presenta en este trabajo una nueva caracterización del movimiento del suelo en la presa de Itoiz, consistente con la peligrosidad sísmica del emplazamiento. En primer lugar, proponemos una metodología con tres niveles de aproximación al movimiento esperado, que es después aplicada considerando las características particulares de la presa y su emplazamiento. Los cálculos de peligrosidad se realizan siguiendo la línea metodológica conocida como PSHA, con un método probabilista zonificado y formulando un árbol lógico que combina diferentes zonificaciones sísmicas y modelos de movimiento fuerte. La peligrosidad se representa en términos de la aceleración pico PGA y de las aceleraciones espectrales para periodos coincidentes con los de vibración de la presa, considerando dos estados de la misma correspondientes a presa vacía (T=0.1s) y presa con capacidad máxima de llenado (T=0.22 s). Se caracterizan los correspondientes movimientos para dos periodos de retorno, 975 años y 4975 años, asociados al sismo de proyecto y al sismo extremo, respectivamente. El efecto de sitio en el emplazamiento de la presa también fue tenido en cuenta. La metodología propuesta conduce a caracterizar el movimiento con tres niveles de detalle. En una primera etapa se obtienen los espectros de respuesta uniforme (UHS) para los dos niveles de movimiento referidos. Seguidamente se desarrolla un análisis de desagregación para obtener los sismos de control que previsiblemente pueden afectar mas a la presa. Estos se identifican como los que más contribuyen a los movimientos objeto dados por las aceleraciones espectrales de los dos periodos característicos, SA (0,1 s) y SA (0.22 s) y para los dos periodos de retorno de 975 y 4975 años asociados a lo sismos de proyecto y extremo. De ahí se obtienen los espectros de respuesta específicos para las cuatro combinaciones resultantes. Finalmente, se realiza una simulación del movimiento en el dominio del tiempo, obteniendo acelerogramas sintéticos mediante el método de número de onda discreto. Las simulaciones se realizaron considerando fuentes finitas en diferentes posiciones y evaluando el efecto de la directividad en las posibles fuentes consideradas. Se concluye destacando la importancia del efecto de directividad, en la caracterización del emplazamiento de la presa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La mayoría de las estructuras de hormigón pretensadas construidas en los últimos 50 años han demostrado una excelente durabilidad cuando su construcción se realiza atendiendo las recomendaciones de un buen diseño así como una buena ejecución y puesta en obra de la estructura. Este hecho se debe en gran parte al temor que despierta el fenómeno de la corrosión bajo tensión típico de las armaduras de acero de alta resistencia. Menos atención se ha prestado a la susceptibilidad a la corrosión bajo tensión de los anclajes de postensado, posiblemente debido a que se han reportado pocos casos de fallos catastróficos. El concepto de Tolerancia al Daño y la Mecánica de la Fractura en estructuras de Ingeniería Civil ha empezado a incorporarse recientemente en algunas normas de diseño y cálculo de estructuras metálicas, sin embargo, aún está lejos de ser asimilado y empleado habitualmente por los ingenieros en sus cálculos cuando la ocasión lo requiere. Este desconocimiento de los aspectos relacionados con la Tolerancia al Daño genera importantes gastos de mantenimiento y reparación. En este trabajo se ha estudiado la aplicabilidad de los conceptos de la Mecánica de la Fractura a los componentes de los sistemas de postensado empleados en ingeniería civil, empleándolo para analizar la susceptibilidad de las armaduras activas frente a la corrosión bajo tensiones y a la pérdida de capacidad portante de las cabezas de anclajes de postensado debido a la presencia de defectos. Con este objeto se han combinado tanto técnicas experimentales como numéricas. Los defectos superficiales en los alambres de pretensado no se presentan de manera aislada si no que existe una cierta continuidad en la dirección axial así como un elevado número de defectos. Por este motivo se ha optado por un enfoque estadístico, que es más apropiado que el determinístico. El empleo de modelos estadísticos basados en la teoría de valores extremos ha permitido caracterizar el estado superficial en alambres de 5,2 mm de diámetro. Por otro lado la susceptibilidad del alambre frente a la corrosión bajo tensión ha sido evaluada mediante la realización de una campaña de ensayos de acuerdo con la actual normativa que ha permitido caracterizar estadísticamente su comportamiento. A la vista de los resultados ha sido posible evaluar como los parámetros que definen el estado superficial del alambre pueden determinar la durabilidad de la armadura atendiendo a su resistencia frente a la corrosión bajo tensión, evaluada mediante los ensayos que especifica la normativa. En el caso de las cabezas de anclaje de tendones de pretensado, los defectos se presentan de manera aislada y tienen su origen en marcas, arañazos o picaduras de corrosión que pueden producirse durante el proceso de fabricación, transporte, manipulación o puesta en obra. Dada la naturaleza de los defectos, el enfoque determinístico es más apropiado que el estadístico. La evaluación de la importancia de un defecto en un elemento estructural requiere la estimación de la solicitación local que genera el defecto, que permite conocer si el defecto es crítico o si puede llegar a serlo, si es que progresa con el tiempo (por fatiga, corrosión, una combinación de ambas, etc.). En este trabajo los defectos han sido idealizados como grietas, de manera que el análisis quedara del lado de la seguridad. La evaluación de la solicitación local del defecto ha sido calculada mediante el empleo de modelos de elementos finitos de la cabeza de anclaje que simulan las condiciones de trabajo reales de la cabeza de anclaje durante su vida útil. A partir de estos modelos numéricos se ha analizado la influencia en la carga de rotura del anclaje de diversos factores como la geometría del anclaje, las condiciones del apoyo, el material del anclaje, el tamaño del defecto su forma y su posición. Los resultados del análisis numérico han sido contrastados satisfactoriamente mediante la realización de una campaña experimental de modelos a escala de cabezas de anclaje de Polimetil-metacrilato en los que artificialmente se han introducido defectos de diversos tamaños y en distintas posiciones. ABSTRACT Most of the prestressed concrete structures built in the last 50 years have demonstrated an excellent durability when they are constructed in accordance with the rules of good design, detailing and execution. This is particularly true with respect to the feared stress corrosion cracking, which is typical of high strength prestressing steel wires. Less attention, however, has been paid to the stress corrosion cracking susceptibility of anchorages for steel tendons for prestressing concrete, probably due to the low number of reported failure cases. Damage tolerance and fracture mechanics concepts in civil engineering structures have recently started to be incorporated in some design and calculation rules for metallic structures, however it is still far from being assimilated and used by civil engineers in their calculations on a regular basis. This limited knowledge of the damage tolerance basis could lead to significant repair and maintenance costs. This work deals with the applicability of fracture mechanics and damage tolerance concepts to the components of prestressed systems, which are used in civil engineering. Such concepts have been applied to assess the susceptibility of the prestressing steel wires to stress corrosion cracking and the reduction of load bearing capability of anchorage devices due to the presence of defects. For this purpose a combination of experimental work and numerical techniques have been performed. Surface defects in prestressing steel wires are not shown alone, though a certain degree of continuity in the axial direction exist. A significant number of such defects is also observed. Hence a statistical approach was used, which is assumed to be more appropriate than the deterministic approach. The use of statistical methods based in extreme value theories has allowed the characterising of the surface condition of 5.2 mm-diameter wires. On the other hand the stress corrosion cracking susceptibility of the wire has been assessed by means of an experimental testing program in line with the current regulations, which has allowed statistical characterisasion of their performances against stress corrosion cracking. In the light of the test results, it has been possible to evaluate how the surface condition parameters could determine the durability of the active metal armour regarding to its resistance against stress corrosion cracking assessed by means of the current testing regulations. In the case of anchorage devices for steel tendons for prestressing concrete, the damage is presented as point defects originating from dents, scratches or corrosion pits that could be produced during the manufacturing proccess, transport, handling, assembly or use. Due to the nature of these defects, in this case the deterministic approach is more appropriate than the statistical approach. The assessment of the relevancy of defect in a structural component requires the computation of the stress intensity factors, which in turn allow the evaluation of whether the size defect is critical or could become critical with the progress of time (due to fatigue, corrosion or a combination of both effects). In this work the damage is idealised as tiny cracks, a conservative hypothesis. The stress intensity factors have been calculated by means of finite element models of the anchorage representing the real working conditions during its service life. These numeric models were used to assess the impact of some factors on the rupture load of the anchorage, such the anchorage geometry, material, support conditions, defect size, shape and its location. The results from the numerical analysis have been succesfully correlated against the results of the experimental testing program of scaled models of the anchorages in poly-methil methacrylate in which artificial damage in several sizes and locations were introduced.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Directiva 2003/10/CE del Parlamento Europeo y del Consejo, del 6 de febrero de 2003, específica con arreglo al apartado 1 del artículo 16 de la Directiva 89/391/CEE las disposiciones mínimas de seguridad y de salud relativas a la exposición de los trabajadores a los riesgos derivados de los agentes físicos (ruido). En la industria musical, y en concreto en los músicos de orquesta, una exposición de más de ocho horas al día a un nivel de presión sonora de 80dB(A) o más es algo muy común. Esta situación puede causar a los trabajadores daños auditivos como la hiperacusia, hipoacusia, tinitus o ruptura de la membrana basilar entre otros. Esto significa que deben tomarse medidas para implementar las regulaciones de la forma más razonable posible para que la interpretación del músico, la dinámica y el concepto musical que se quiere transmitir al público se vea lo menos afectada posible. Para reducir la carga auditiva de los músicos de orquesta frente a fuertes impactos sonoros provenientes de los instrumentos vecinos, se está investigando sobre el uso de unos paneles acústicos que colocados en puntos estratégicos de la orquesta pueden llegar a reducir el impacto sonoro sobre el oído hasta 20dB. Los instrumentos de viento metal y de percusión son los responsables de la mayor emisión de presión sonora. Para proteger el oído de los músicos frente a estos impactos, se colocan los paneles en forma de barrera entre dichos instrumentos y los músicos colocados frente a ellos. De esta forma se protege el oído de los músicos más afectados. Para ver el efecto práctico que producen estos paneles en un conjunto orquestal, se realizan varias grabaciones en los ensayos y conciertos de varias orquestas. Los micrófonos se sitúan a la altura del oído y a una distancia de no más de 10cm de la oreja de varios de los músicos más afectados y de los músicos responsables de la fuerte emisión sonora. De este modo se puede hacer una comparación de los niveles de presión sonora que percibe cada músico y evaluar las diferencias de nivel existentes entre ambos. Así mismo se utilizan configuraciones variables de los paneles para comparar las diferencias de presión sonora que existen entre las distintas posibilidades de colocarlos y decidir así sobre la mejor ubicación y configuración de los mismos. A continuación, una vez obtenidos las muestras de audio y los diferentes archivos de datos medidos con un analizador de audio en distintas posiciones de la orquesta, todo ello se calibra y analiza utilizando un programa desarrollado en Matlab, para evaluar el efecto de los paneles sobre la percepción auditiva de los músicos, haciendo especial hincapié en el análisis de las diferencias de nivel de presión sonora (SPL). Mediante el cálculo de la envolvente de las diferencias de nivel, se evalúa de un modo estadístico el efecto de atenuación de los paneles acústicos en los músicos de orquesta. El método está basado en la probabilidad estadística de varias muestras musicales ya que al tratarse de música tocada en directo, la dinámica y la sincronización entre los músicos varía según el momento en que se toque. Estos factores junto con el hecho de que la partitura de cada músico es diferente dificulta la comparación entre dos señales grabadas en diferentes puntos de la orquesta. Se necesita por lo tanto de varias muestras musicales para evaluar el efecto de atenuación de los paneles en las distintas configuraciones mencionadas anteriormente. El estudio completo del efecto de los paneles como entorno que influye en los músicos de orquesta cuando están sobre el escenario, tiene como objetivo la mejora de sus condiciones de trabajo. Abstract For several years, the European Union has been adopting many laws and regulations to protect and give more security to people who are exposed to some risk in their job. Being exposed to a loud sound pressure level during many hours in the job runs the risk of hearing damage. Particularly in the field of music, the ear is the most important working tool. Not taking care of the ear can cause some damage such as hearing loss, tinnitus, hyperacusis, diplacusis, etc. This could have an impact on the efficiency and satisfaction of the musicians when they are playing, which could also cause stress problems. Orchestra musicians, as many other workers in this sector, are usually exposed to a sound level of 80dB(A) or more during more than eight hours per day. It means that they must satisfy the law and their legal obligations to avoid health problems proceeding from their job. Putting into practice the new regulations is a challenge for orchestras. They must make sure that the repertoire, with its dynamic, balance and feeling, is not affected by the reduction of sound levels imposed by the law. This study tries to investigate the benefits and disadvantages of using shields as a hearing protector during rehearsals and orchestral concerts.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La temperatura es una preocupación que juega un papel protagonista en el diseño de circuitos integrados modernos. El importante aumento de las densidades de potencia que conllevan las últimas generaciones tecnológicas ha producido la aparición de gradientes térmicos y puntos calientes durante el funcionamiento normal de los chips. La temperatura tiene un impacto negativo en varios parámetros del circuito integrado como el retardo de las puertas, los gastos de disipación de calor, la fiabilidad, el consumo de energía, etc. Con el fin de luchar contra estos efectos nocivos, la técnicas de gestión dinámica de la temperatura (DTM) adaptan el comportamiento del chip en función en la información que proporciona un sistema de monitorización que mide en tiempo de ejecución la información térmica de la superficie del dado. El campo de la monitorización de la temperatura en el chip ha llamado la atención de la comunidad científica en los últimos años y es el objeto de estudio de esta tesis. Esta tesis aborda la temática de control de la temperatura en el chip desde diferentes perspectivas y niveles, ofreciendo soluciones a algunos de los temas más importantes. Los niveles físico y circuital se cubren con el diseño y la caracterización de dos nuevos sensores de temperatura especialmente diseñados para los propósitos de las técnicas DTM. El primer sensor está basado en un mecanismo que obtiene un pulso de anchura variable dependiente de la relación de las corrientes de fuga con la temperatura. De manera resumida, se carga un nodo del circuito y posteriormente se deja flotando de tal manera que se descarga a través de las corrientes de fugas de un transistor; el tiempo de descarga del nodo es la anchura del pulso. Dado que la anchura del pulso muestra una dependencia exponencial con la temperatura, la conversión a una palabra digital se realiza por medio de un contador logarítmico que realiza tanto la conversión tiempo a digital como la linealización de la salida. La estructura resultante de esta combinación de elementos se implementa en una tecnología de 0,35 _m. El sensor ocupa un área muy reducida, 10.250 nm2, y consume muy poca energía, 1.05-65.5nW a 5 muestras/s, estas cifras superaron todos los trabajos previos en el momento en que se publicó por primera vez y en el momento de la publicación de esta tesis, superan a todas las implementaciones anteriores fabricadas en el mismo nodo tecnológico. En cuanto a la precisión, el sensor ofrece una buena linealidad, incluso sin calibrar; se obtiene un error 3_ de 1,97oC, adecuado para tratar con las aplicaciones de DTM. Como se ha explicado, el sensor es completamente compatible con los procesos de fabricación CMOS, este hecho, junto con sus valores reducidos de área y consumo, lo hacen especialmente adecuado para la integración en un sistema de monitorización de DTM con un conjunto de monitores empotrados distribuidos a través del chip. Las crecientes incertidumbres de proceso asociadas a los últimos nodos tecnológicos comprometen las características de linealidad de nuestra primera propuesta de sensor. Con el objetivo de superar estos problemas, proponemos una nueva técnica para obtener la temperatura. La nueva técnica también está basada en las dependencias térmicas de las corrientes de fuga que se utilizan para descargar un nodo flotante. La novedad es que ahora la medida viene dada por el cociente de dos medidas diferentes, en una de las cuales se altera una característica del transistor de descarga |la tensión de puerta. Este cociente resulta ser muy robusto frente a variaciones de proceso y, además, la linealidad obtenida cumple ampliamente los requisitos impuestos por las políticas DTM |error 3_ de 1,17oC considerando variaciones del proceso y calibrando en dos puntos. La implementación de la parte sensora de esta nueva técnica implica varias consideraciones de diseño, tales como la generación de una referencia de tensión independiente de variaciones de proceso, que se analizan en profundidad en la tesis. Para la conversión tiempo-a-digital, se emplea la misma estructura de digitalización que en el primer sensor. Para la implementación física de la parte de digitalización, se ha construido una biblioteca de células estándar completamente nueva orientada a la reducción de área y consumo. El sensor resultante de la unión de todos los bloques se caracteriza por una energía por muestra ultra baja (48-640 pJ) y un área diminuta de 0,0016 mm2, esta cifra mejora todos los trabajos previos. Para probar esta afirmación, se realiza una comparación exhaustiva con más de 40 propuestas de sensores en la literatura científica. Subiendo el nivel de abstracción al sistema, la tercera contribución se centra en el modelado de un sistema de monitorización que consiste de un conjunto de sensores distribuidos por la superficie del chip. Todos los trabajos anteriores de la literatura tienen como objetivo maximizar la precisión del sistema con el mínimo número de monitores. Como novedad, en nuestra propuesta se introducen nuevos parámetros de calidad aparte del número de sensores, también se considera el consumo de energía, la frecuencia de muestreo, los costes de interconexión y la posibilidad de elegir diferentes tipos de monitores. El modelo se introduce en un algoritmo de recocido simulado que recibe la información térmica de un sistema, sus propiedades físicas, limitaciones de área, potencia e interconexión y una colección de tipos de monitor; el algoritmo proporciona el tipo seleccionado de monitor, el número de monitores, su posición y la velocidad de muestreo _optima. Para probar la validez del algoritmo, se presentan varios casos de estudio para el procesador Alpha 21364 considerando distintas restricciones. En comparación con otros trabajos previos en la literatura, el modelo que aquí se presenta es el más completo. Finalmente, la última contribución se dirige al nivel de red, partiendo de un conjunto de monitores de temperatura de posiciones conocidas, nos concentramos en resolver el problema de la conexión de los sensores de una forma eficiente en área y consumo. Nuestra primera propuesta en este campo es la introducción de un nuevo nivel en la jerarquía de interconexión, el nivel de trillado (o threshing en inglés), entre los monitores y los buses tradicionales de periféricos. En este nuevo nivel se aplica selectividad de datos para reducir la cantidad de información que se envía al controlador central. La idea detrás de este nuevo nivel es que en este tipo de redes la mayoría de los datos es inútil, porque desde el punto de vista del controlador sólo una pequeña cantidad de datos |normalmente sólo los valores extremos| es de interés. Para cubrir el nuevo nivel, proponemos una red de monitorización mono-conexión que se basa en un esquema de señalización en el dominio de tiempo. Este esquema reduce significativamente tanto la actividad de conmutación sobre la conexión como el consumo de energía de la red. Otra ventaja de este esquema es que los datos de los monitores llegan directamente ordenados al controlador. Si este tipo de señalización se aplica a sensores que realizan conversión tiempo-a-digital, se puede obtener compartición de recursos de digitalización tanto en tiempo como en espacio, lo que supone un importante ahorro de área y consumo. Finalmente, se presentan dos prototipos de sistemas de monitorización completos que de manera significativa superan la características de trabajos anteriores en términos de área y, especialmente, consumo de energía. Abstract Temperature is a first class design concern in modern integrated circuits. The important increase in power densities associated to recent technology evolutions has lead to the apparition of thermal gradients and hot spots during run time operation. Temperature impacts several circuit parameters such as speed, cooling budgets, reliability, power consumption, etc. In order to fight against these negative effects, dynamic thermal management (DTM) techniques adapt the behavior of the chip relying on the information of a monitoring system that provides run-time thermal information of the die surface. The field of on-chip temperature monitoring has drawn the attention of the scientific community in the recent years and is the object of study of this thesis. This thesis approaches the matter of on-chip temperature monitoring from different perspectives and levels, providing solutions to some of the most important issues. The physical and circuital levels are covered with the design and characterization of two novel temperature sensors specially tailored for DTM purposes. The first sensor is based upon a mechanism that obtains a pulse with a varying width based on the variations of the leakage currents on the temperature. In a nutshell, a circuit node is charged and subsequently left floating so that it discharges away through the subthreshold currents of a transistor; the time the node takes to discharge is the width of the pulse. Since the width of the pulse displays an exponential dependence on the temperature, the conversion into a digital word is realized by means of a logarithmic counter that performs both the timeto- digital conversion and the linearization of the output. The structure resulting from this combination of elements is implemented in a 0.35_m technology and is characterized by very reduced area, 10250 nm2, and power consumption, 1.05-65.5 nW at 5 samples/s, these figures outperformed all previous works by the time it was first published and still, by the time of the publication of this thesis, they outnumber all previous implementations in the same technology node. Concerning the accuracy, the sensor exhibits good linearity, even without calibration it displays a 3_ error of 1.97oC, appropriate to deal with DTM applications. As explained, the sensor is completely compatible with standard CMOS processes, this fact, along with its tiny area and power overhead, makes it specially suitable for the integration in a DTM monitoring system with a collection of on-chip monitors distributed across the chip. The exacerbated process fluctuations carried along with recent technology nodes jeop-ardize the linearity characteristics of the first sensor. In order to overcome these problems, a new temperature inferring technique is proposed. In this case, we also rely on the thermal dependencies of leakage currents that are used to discharge a floating node, but now, the result comes from the ratio of two different measures, in one of which we alter a characteristic of the discharging transistor |the gate voltage. This ratio proves to be very robust against process variations and displays a more than suficient linearity on the temperature |1.17oC 3_ error considering process variations and performing two-point calibration. The implementation of the sensing part based on this new technique implies several issues, such as the generation of process variations independent voltage reference, that are analyzed in depth in the thesis. In order to perform the time-to-digital conversion, we employ the same digitization structure the former sensor used. A completely new standard cell library targeting low area and power overhead is built from scratch to implement the digitization part. Putting all the pieces together, we achieve a complete sensor system that is characterized by ultra low energy per conversion of 48-640pJ and area of 0.0016mm2, this figure outperforms all previous works. To prove this statement, we perform a thorough comparison with over 40 works from the scientific literature. Moving up to the system level, the third contribution is centered on the modeling of a monitoring system consisting of set of thermal sensors distributed across the chip. All previous works from the literature target maximizing the accuracy of the system with the minimum number of monitors. In contrast, we introduce new metrics of quality apart form just the number of sensors; we consider the power consumption, the sampling frequency, the possibility to consider different types of monitors and the interconnection costs. The model is introduced in a simulated annealing algorithm that receives the thermal information of a system, its physical properties, area, power and interconnection constraints and a collection of monitor types; the algorithm yields the selected type of monitor, the number of monitors, their position and the optimum sampling rate. We test the algorithm with the Alpha 21364 processor under several constraint configurations to prove its validity. When compared to other previous works in the literature, the modeling presented here is the most complete. Finally, the last contribution targets the networking level, given an allocated set of temperature monitors, we focused on solving the problem of connecting them in an efficient way from the area and power perspectives. Our first proposal in this area is the introduction of a new interconnection hierarchy level, the threshing level, in between the monitors and the traditional peripheral buses that applies data selectivity to reduce the amount of information that is sent to the central controller. The idea behind this new level is that in this kind of networks most data are useless because from the controller viewpoint just a small amount of data |normally extreme values| is of interest. To cover the new interconnection level, we propose a single-wire monitoring network based on a time-domain signaling scheme that significantly reduces both the switching activity over the wire and the power consumption of the network. This scheme codes the information in the time domain and allows a straightforward obtention of an ordered list of values from the maximum to the minimum. If the scheme is applied to monitors that employ TDC, digitization resource sharing is achieved, producing an important saving in area and power consumption. Two prototypes of complete monitoring systems are presented, they significantly overcome previous works in terms of area and, specially, power consumption.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los sensores inerciales (acelerómetros y giróscopos) se han ido introduciendo poco a poco en dispositivos que usamos en nuestra vida diaria gracias a su minituarización. Hoy en día todos los smartphones contienen como mínimo un acelerómetro y un magnetómetro, siendo complementados en losmás modernos por giróscopos y barómetros. Esto, unido a la proliferación de los smartphones ha hecho viable el diseño de sistemas basados en las medidas de sensores que el usuario lleva colocados en alguna parte del cuerpo (que en un futuro estarán contenidos en tejidos inteligentes) o los integrados en su móvil. El papel de estos sensores se ha convertido en fundamental para el desarrollo de aplicaciones contextuales y de inteligencia ambiental. Algunos ejemplos son el control de los ejercicios de rehabilitación o la oferta de información referente al sitio turístico que se está visitando. El trabajo de esta tesis contribuye a explorar las posibilidades que ofrecen los sensores inerciales para el apoyo a la detección de actividad y la mejora de la precisión de servicios de localización para peatones. En lo referente al reconocimiento de la actividad que desarrolla un usuario, se ha explorado el uso de los sensores integrados en los dispositivos móviles de última generación (luz y proximidad, acelerómetro, giróscopo y magnetómetro). Las actividades objetivo son conocidas como ‘atómicas’ (andar a distintas velocidades, estar de pie, correr, estar sentado), esto es, actividades que constituyen unidades de actividades más complejas como pueden ser lavar los platos o ir al trabajo. De este modo, se usan algoritmos de clasificación sencillos que puedan ser integrados en un móvil como el Naïve Bayes, Tablas y Árboles de Decisión. Además, se pretende igualmente detectar la posición en la que el usuario lleva el móvil, no sólo con el objetivo de utilizar esa información para elegir un clasificador entrenado sólo con datos recogidos en la posición correspondiente (estrategia que mejora los resultados de estimación de la actividad), sino también para la generación de un evento que puede producir la ejecución de una acción. Finalmente, el trabajo incluye un análisis de las prestaciones de la clasificación variando el tipo de parámetros y el número de sensores usados y teniendo en cuenta no sólo la precisión de la clasificación sino también la carga computacional. Por otra parte, se ha propuesto un algoritmo basado en la cuenta de pasos utilizando informaiii ción proveniente de un acelerómetro colocado en el pie del usuario. El objetivo final es detectar la actividad que el usuario está haciendo junto con la estimación aproximada de la distancia recorrida. El algoritmo de cuenta pasos se basa en la detección de máximos y mínimos usando ventanas temporales y umbrales sin requerir información específica del usuario. El ámbito de seguimiento de peatones en interiores es interesante por la falta de un estándar de localización en este tipo de entornos. Se ha diseñado un filtro extendido de Kalman centralizado y ligeramente acoplado para fusionar la información medida por un acelerómetro colocado en el pie del usuario con medidas de posición. Se han aplicado también diferentes técnicas de corrección de errores como las de velocidad cero que se basan en la detección de los instantes en los que el pie está apoyado en el suelo. Los resultados han sido obtenidos en entornos interiores usando las posiciones estimadas por un sistema de triangulación basado en la medida de la potencia recibida (RSS) y GPS en exteriores. Finalmente, se han implementado algunas aplicaciones que prueban la utilidad del trabajo desarrollado. En primer lugar se ha considerado una aplicación de monitorización de actividad que proporciona al usuario información sobre el nivel de actividad que realiza durante un período de tiempo. El objetivo final es favorecer el cambio de comportamientos sedentarios, consiguiendo hábitos saludables. Se han desarrollado dos versiones de esta aplicación. En el primer caso se ha integrado el algoritmo de cuenta pasos en una plataforma OSGi móvil adquiriendo los datos de un acelerómetro Bluetooth colocado en el pie. En el segundo caso se ha creado la misma aplicación utilizando las implementaciones de los clasificadores en un dispositivo Android. Por otro lado, se ha planteado el diseño de una aplicación para la creación automática de un diario de viaje a partir de la detección de eventos importantes. Esta aplicación toma como entrada la información procedente de la estimación de actividad y de localización además de información almacenada en bases de datos abiertas (fotos, información sobre sitios) e información sobre sensores reales y virtuales (agenda, cámara, etc.) del móvil. Abstract Inertial sensors (accelerometers and gyroscopes) have been gradually embedded in the devices that people use in their daily lives thanks to their miniaturization. Nowadays all smartphones have at least one embedded magnetometer and accelerometer, containing the most upto- date ones gyroscopes and barometers. This issue, together with the fact that the penetration of smartphones is growing steadily, has made possible the design of systems that rely on the information gathered by wearable sensors (in the future contained in smart textiles) or inertial sensors embedded in a smartphone. The role of these sensors has become key to the development of context-aware and ambient intelligent applications. Some examples are the performance of rehabilitation exercises, the provision of information related to the place that the user is visiting or the interaction with objects by gesture recognition. The work of this thesis contributes to explore to which extent this kind of sensors can be useful to support activity recognition and pedestrian tracking, which have been proven to be essential for these applications. Regarding the recognition of the activity that a user performs, the use of sensors embedded in a smartphone (proximity and light sensors, gyroscopes, magnetometers and accelerometers) has been explored. The activities that are detected belong to the group of the ones known as ‘atomic’ activities (e.g. walking at different paces, running, standing), that is, activities or movements that are part of more complex activities such as doing the dishes or commuting. Simple, wellknown classifiers that can run embedded in a smartphone have been tested, such as Naïve Bayes, Decision Tables and Trees. In addition to this, another aim is to estimate the on-body position in which the user is carrying the mobile phone. The objective is not only to choose a classifier that has been trained with the corresponding data in order to enhance the classification but also to start actions. Finally, the performance of the different classifiers is analysed, taking into consideration different features and number of sensors. The computational and memory load of the classifiers is also measured. On the other hand, an algorithm based on step counting has been proposed. The acceleration information is provided by an accelerometer placed on the foot. The aim is to detect the activity that the user is performing together with the estimation of the distance covered. The step counting strategy is based on detecting minima and its corresponding maxima. Although the counting strategy is not innovative (it includes time windows and amplitude thresholds to prevent under or overestimation) no user-specific information is required. The field of pedestrian tracking is crucial due to the lack of a localization standard for this kind of environments. A loosely-coupled centralized Extended Kalman Filter has been proposed to perform the fusion of inertial and position measurements. Zero velocity updates have been applied whenever the foot is detected to be placed on the ground. The results have been obtained in indoor environments using a triangulation algorithm based on RSS measurements and GPS outdoors. Finally, some applications have been designed to test the usefulness of the work. The first one is called the ‘Activity Monitor’ whose aim is to prevent sedentary behaviours and to modify habits to achieve desired objectives of activity level. Two different versions of the application have been implemented. The first one uses the activity estimation based on the step counting algorithm, which has been integrated in an OSGi mobile framework acquiring the data from a Bluetooth accelerometer placed on the foot of the individual. The second one uses activity classifiers embedded in an Android smartphone. On the other hand, the design of a ‘Travel Logbook’ has been planned. The input of this application is the information provided by the activity and localization modules, external databases (e.g. pictures, points of interest, weather) and mobile embedded and virtual sensors (agenda, camera, etc.). The aim is to detect important events in the journey and gather the information necessary to store it as a journal page.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMEN Los procesos de diseño de zonas o diseño del territorio implican la partición de un espacio geográfico, organizado en un conjunto de unidades de área, en diferentes regiones o zonas según un conjunto especifico de criterios que varían en función del campo de aplicación. En la mayoría de los casos, el objetivo fundamental consiste en crear zonas de tamaño aproximadamente igual respecto a uno o varios atributos de medida -de carácter cuantitativo- (zonas con igual número de habitantes, igual promedio de ventas...). Sin embargo, están apareciendo nuevas aplicaciones, algunas en el contexto de las políticas de desarrollo sostenible, cuya finalidad es la definición de regiones con un tamaño predeterminado, no necesariamente similar. Además, en estos casos las zonas han de formarse en torno a un conjunto específico de posiciones, semillas o generadores. Este tipo de particiones no han sido lo suficientemente investigadas, de manera que no se conocen modelos de solución para la delimitación automática de las zonas. En esta tesis se ha diseñado un nuevo método basado en una versión discreta del diagrama de Voronoi con peso aditivo adaptativo (DVPAA), que permite la partición de un espacio bidimensional en zonas de un tamaño específico, considerando tanto la posición como el peso de cada uno de los generadores. El método consiste en resolver repetidamente un tradicional diagrama de Voronoi con peso aditivo, de forma que los pesos de cada generador se actualizan en cada iteración. En el proceso de cálculo de distancias se usa una métrica basada en el camino más corto, lo que garantiza que la partición obtenida esté formada por un conjunto de zonas conexas. La heurística diseñada se integra en una aplicación prototipo, desarrollada en un entorno SIG (Sistemas de Información Geográfica), que permite el trazado automático de zonas según los criterios anteriormente expuestos. Para analizar la viabilidad del método se ha utilizado como caso de estudio la gestión de los recursos pastorales para la ganadería extensiva en tres municipios de Castilla-La Mancha. Las pruebas realizadas ponen de manifiesto que la heurística diseñada, adaptada a los criterios que se plantean en el contexto de la gestión de sistemas extensivos agropecuarios, es válida para resolver este tipo de problemas de partición. El método propuesto se caracteriza por su eficacia en el tratamiento de un gran número de unidades superficiales en formato vectorial, generando soluciones que convergen con relativa rapidez y verifican los criterios establecidos. En el caso estudiado, aunque la posición prefijada de los generadores reduce considerablemente la complejidad del problema, existen algunas configuraciones espaciales de estos elementos para las que el algoritmo no encuentra una solución satisfactoria, poniéndose de manifiesto una de las limitaciones de este modelo. Tal y como se ha podido comprobar, la localización de los generadores puede tener un considerable impacto en la zonificación resultante, por lo que, de acuerdo con Kalcsics et al. (2005), una selección "inadecuada" difícilmente puede generar regiones válidas que verifiquen los criterios establecidos. ABSTRACT Tenitory or zone design processes entail partitioning a geographic space, organized as a set of basic areal units, into different regions or zones according to a specific set of entena that are dependent on the application context. In most cases the aim is to create zones that have approximately equal sizes with respect to one or several measure attributes (zones with equal numbers of inhabitants, same average sales, etc). However, some of the new applications that have emerged, particularly in the context of sustainable development policies, are aimed at defining zones of a predetermined, though not necessarily similar, size. In addition, the zones should be built around a given set of positions, seeds or generators. This type of partitioning has not been sufñciently researched; therefore there are no known approaches for automated zone delimitation. This thesis proposes a new method based on a discrete versión of the Adaptive Additively Weighted Voronoi Diagram (AAWVD) that makes it possible to partition a 2D space into zones of specific sizes, taking both the position and the weight of each (seed) generator into account. The method consists of repeatedly solving a traditional additively weighted Voronoi diagram, so that the weights of each generator are updated at every iteration. The partition s zones are geographically connected nsing a metric based 011 the shortest path. The proposed heuristic lias been included in an application, developed in a GIS environment that allows the automated zone delimitation according to the mentioned criteria. The management of the extensive farming system of three municipalities of Castilla-La Mancha (Spain) has been used as study case to analyze the viability of the method. The tests carried out have established that the proposed method, adapted to the criteria of this application field, is valid for solving this type of partition problem. The applied algorithm is capable of handling a high number of vector areal units, generating solutions that converge in a reasonable CPU time and comply with the imposed constraints. Although the complexity of this problem is greatly reduced when the generator's positions are fixed, in many cases, these positions impose a spatial confignration that the algorithm proposed is unable to solve, thus revealing one of the limitations of this method. It has been shown that the location of the generators has a considerable impact on the final solution, so that, as Kalcsics et al. (2005) observed, an "inadequate" selection can hardly generate valid zones that comply with the established criteria.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract The creation of atlases, or digital models where information from different subjects can be combined, is a field of increasing interest in biomedical imaging. When a single image does not contain enough information to appropriately describe the organism under study, it is then necessary to acquire images of several individuals, each of them containing complementary data with respect to the rest of the components in the cohort. This approach allows creating digital prototypes, ranging from anatomical atlases of human patients and organs, obtained for instance from Magnetic Resonance Imaging, to gene expression cartographies of embryo development, typically achieved from Light Microscopy. Within such context, in this PhD Thesis we propose, develop and validate new dedicated image processing methodologies that, based on image registration techniques, bring information from multiple individuals into alignment within a single digital atlas model. We also elaborate a dedicated software visualization platform to explore the resulting wealth of multi-dimensional data and novel analysis algo-rithms to automatically mine the generated resource in search of bio¬logical insights. In particular, this work focuses on gene expression data from developing zebrafish embryos imaged at the cellular resolution level with Two-Photon Laser Scanning Microscopy. Disposing of quantitative measurements relating multiple gene expressions to cell position and their evolution in time is a fundamental prerequisite to understand embryogenesis multi-scale processes. However, the number of gene expressions that can be simultaneously stained in one acquisition is limited due to optical and labeling constraints. These limitations motivate the implementation of atlasing strategies that can recreate a virtual gene expression multiplex. The developed computational tools have been tested in two different scenarios. The first one is the early zebrafish embryogenesis where the resulting atlas constitutes a link between the phenotype and the genotype at the cellular level. The second one is the late zebrafish brain where the resulting atlas allows studies relating gene expression to brain regionalization and neurogenesis. The proposed computational frameworks have been adapted to the requirements of both scenarios, such as the integration of partial views of the embryo into a whole embryo model with cellular resolution or the registration of anatom¬ical traits with deformable transformation models non-dependent on any specific labeling. The software implementation of the atlas generation tool (Match-IT) and the visualization platform (Atlas-IT) together with the gene expression atlas resources developed in this Thesis are to be made freely available to the scientific community. Lastly, a novel proof-of-concept experiment integrates for the first time 3D gene expression atlas resources with cell lineages extracted from live embryos, opening up the door to correlate genetic and cellular spatio-temporal dynamics. La creación de atlas, o modelos digitales, donde la información de distintos sujetos puede ser combinada, es un campo de creciente interés en imagen biomédica. Cuando una sola imagen no contiene suficientes datos como para describir apropiadamente el organismo objeto de estudio, se hace necesario adquirir imágenes de varios individuos, cada una de las cuales contiene información complementaria respecto al resto de componentes del grupo. De este modo, es posible crear prototipos digitales, que pueden ir desde atlas anatómicos de órganos y pacientes humanos, adquiridos por ejemplo mediante Resonancia Magnética, hasta cartografías de la expresión genética del desarrollo de embrionario, típicamente adquiridas mediante Microscopía Optica. Dentro de este contexto, en esta Tesis Doctoral se introducen, desarrollan y validan nuevos métodos de procesado de imagen que, basándose en técnicas de registro de imagen, son capaces de alinear imágenes y datos provenientes de múltiples individuos en un solo atlas digital. Además, se ha elaborado una plataforma de visualization específicamente diseñada para explorar la gran cantidad de datos, caracterizados por su multi-dimensionalidad, que resulta de estos métodos. Asimismo, se han propuesto novedosos algoritmos de análisis y minería de datos que permiten inspeccionar automáticamente los atlas generados en busca de conclusiones biológicas significativas. En particular, este trabajo se centra en datos de expresión genética del desarrollo embrionario del pez cebra, adquiridos mediante Microscopía dos fotones con resolución celular. Disponer de medidas cuantitativas que relacionen estas expresiones genéticas con las posiciones celulares y su evolución en el tiempo es un prerrequisito fundamental para comprender los procesos multi-escala característicos de la morfogénesis. Sin embargo, el número de expresiones genéticos que pueden ser simultáneamente etiquetados en una sola adquisición es reducido debido a limitaciones tanto ópticas como del etiquetado. Estas limitaciones requieren la implementación de estrategias de creación de atlas que puedan recrear un multiplexado virtual de expresiones genéticas. Las herramientas computacionales desarrolladas han sido validadas en dos escenarios distintos. El primer escenario es el desarrollo embrionario temprano del pez cebra, donde el atlas resultante permite constituir un vínculo, a nivel celular, entre el fenotipo y el genotipo de este organismo modelo. El segundo escenario corresponde a estadios tardíos del desarrollo del cerebro del pez cebra, donde el atlas resultante permite relacionar expresiones genéticas con la regionalización del cerebro y la formación de neuronas. La plataforma computacional desarrollada ha sido adaptada a los requisitos y retos planteados en ambos escenarios, como la integración, a resolución celular, de vistas parciales dentro de un modelo consistente en un embrión completo, o el alineamiento entre estructuras de referencia anatómica equivalentes, logrado mediante el uso de modelos de transformación deformables que no requieren ningún marcador específico. Está previsto poner a disposición de la comunidad científica tanto la herramienta de generación de atlas (Match-IT), como su plataforma de visualización (Atlas-IT), así como las bases de datos de expresión genética creadas a partir de estas herramientas. Por último, dentro de la presente Tesis Doctoral, se ha incluido una prueba conceptual innovadora que permite integrar los mencionados atlas de expresión genética tridimensionales dentro del linaje celular extraído de una adquisición in vivo de un embrión. Esta prueba conceptual abre la puerta a la posibilidad de correlar, por primera vez, las dinámicas espacio-temporales de genes y células.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente tesis comprende un estudio de metales líquidos, Li, Pb y eutéctico Li17Pb en el ámbito de la tecnología de fusión nuclear. Uno de los problemas fundamentales en futuros reactores de fusión es la producción y extracción de tritio en la denominada envoltura regeneradora (blanket en inglés). Dicho blanket tendrá dos propósitos, la extracción del calor generado por las reacciones de fusión para su posterior conversión en energía eléctrica así como la producción de tritio para realimentar el proceso. Dicha producción se realizará mediante el “splitting” del Li con los neutrones provenientes de la fusión. Esta reacción produce tritio y helio por lo que la interacción del T y el He con el metal líquido, con los materiales estructurales así como con el He es un problema fundamental aun no bien entendido y de gran importancia para futuros diseños. Los capítulos 1 2 y 3 presentan una introducción a dichos problemas. El capítulo 1 introduce al lector en la tecnología de fusión nuclear. El segundo capítulo explica en mayor detalle el uso de metales líquidos en reactores de fusión, no solo en blankets sino también como primera pared, divertor etc, lo que se denomina en general “plasma facing materials”. Por último se ofrece una breve introducción a las técnicas de dinámica molecular clásica (CMD) y un breve resumen de los potenciales más usados. El estudio se ha llevado a cabo utilizando simulación atomística mediante potenciales semi-empíricos del tipo átomo embebido (EAM). La Tesis consta de 4 partes bien definidas. En primer lugar se verificó la idoneidad de los potenciales tipo EAM para simular las propiedades de los metales Li y Pb en fase líquida. Dicho estudio se detalla en el Capítulo 4 y en su extensión, el Apéndice 1, en el que se estudia los límites de validez de esta aproximación. Los resultados de dicho estudio han sido publicados y presentados en diversos congresos internacionales. Un resumen de la metodología seguida fue publicado como capítulo de libro en Technofusión 2011. Los resultados se presentaron en diversos congresos internacionales, entre ellos ICENES 2011, (Artículo en ICENES Proceedings) ICOPS-SOFE 2011, en una presentación oral etc. El trabajo ha sido aceptado recientemente en Journal of Nuclear Materiales (Fraile et al 2012). La segunda parte y más importante comprende el desarrollo de un potencial para el estudio de la mezcla de ambos metales. Éste es el trabajo más novedoso e importante dado que no existía en la literatura un potencial semejante. Se estudiaron dos aproximaciones distintas al problema, un potencial tipo EAM/cd y un potencial EAM/alloy. Ambos potenciales dan resultados satisfactorios para la simulación del eutéctico (y concentraciones de Li menores que el 17%). Sin embargo el sistema LiPb en todas las concentraciones es un sistema que se aparta enormemente de una solución ideal y dicho potencial no daba buenos resultados para mezclas PbLi con concentraciones de Li grandes. Este problema fue solventado mediante el desarrollo de un segundo potencial, esta vez tipo EAM/alloy (segunda parte del Capítulo 5). Dicho trabajo será enviado a Physical Review Letters o a Phys. Rev. B, y una extensión junto con un estudio detallado de las propiedades del eutéctico de acuerdo con nuestras simulaciones se enviará a continuación a Phys. Rev. B. En tercer lugar se estudió el problema de la difusividad del H en metales líquidos aprovechando distintos potenciales existentes en la literatura. El problema del H en metales líquidos es importante en metalurgia. En dicho capítulo se estudió la difusividad del H en Pd, Ni y Al con potenciales tipo EAM, y también con un potencial más sofisticado que tiene en cuenta la dependencia angular de las interacciones (ADP por sus siglas en inglés). De este modo disponemos de un estudio detallado del problema con diferentes modelos y diferentes metales. La conclusión apunta a que si se compara con los resultados experimentales (muy escasos) los resultados obtenidos mediante CMD dan valores bajos de la difusividad del H. Las razones de dicho desacuerdo entre simulación y experimentos se detallan en el Capítulo 6. Este trabajo ha sido presentado en una presentación oral en el reciente congreso internacional “Trends on Nanothecnology” TNT 2012 celebrado en Madrid. El trabajo será publicado en un futuro próximo. Por último, como se dijo anteriormente, el estudio del He, la formación de burbujas en metales líquidos, su difusión nucleación y cavitación es otro problema deseable de ser estudiado mediante técnicas atomísticas. Para ello es necesario el desarrollo de diversos potenciales, He-Li, He-Pb y un potencial ternario Pb-Li-He. Para ello se han realizado simulación ab initio de los sistemas Pb+He y Li+He. Dicho estudio pretende calcular las fuerzas entre los átomos del metal (Pb o Li) con intersticiales de He. De este modo aplicaremos el “force matching method” (FMM) para el desarrollo de dichos potenciales. En el Capítulo 7 se detallan los resultados obtenidos referidos a las posiciones más favorables de las impurezas de He dentro de redes cristalinas de Pb y Li así como el efecto de tener en cuenta el acoplo spin-orbita (SOC en inglés). El análisis de los resultados en términos de transferencia de carga y análisis de las densidades electrónicas, así como la creación de los potenciales mencionados está en progreso. En conjunto la tesis presenta un estudio de los diversos problemas relacionados con el uso de metales líquidos en reactores de fusión y representa un primer paso en la determinación de parámetros de gran importancia para el diseño de blankets y sistemas de primera pared. Con la simulación MD de dichos problemas mediante, importante, potenciales realistas, valores de difusión, solubilidad etc de especies ligeras, H (o sus isotopos) y He en metales líquidos podrá ser calculada complementando así la base de datos que presenta enormes incertidumbres.