31 resultados para Iguales
Resumo:
Si bien es verdad que existen algunos problemas de electricidad, donde las corrientes alternas no presentan satisfactorias soluciones y son posibles de emplear únicamente las continuas; por regla general los medios con que actualmente unas y otras cuentan, son tan comparables y tan iguales las ventajas e inconvenientes totales que en cada caso presenta sus uso que, ya que no imposible,es difícil tarea para el ingeniero adoptar razonadamente uno u otro sistema y sólo un detenido estudio del caso que ha de resolver pueden ayudarle en tan delicado asunto.
Resumo:
Se plantea el problema de conseguir un método que, partiendo de una malla inicial en elementos finitos, genere una malla próxima a la óptima, conservando el mismo número de grados de libertad y, por consiguiente, sin penalizar los tiempos de análisis por ordenador. La bondad de una malla se mide por un funcional determinado (Energía Potencial Total, Error Cuadrático Medio, etc.) La Técnica de gradiente descendente, aplicada al funcional de Energía Potencial Total (1) permite, a partir de una inicial dada, obtener una malla mejorada. No obstante, este método requiere un esfuerzo de computación muy grande. Como consecuencia de la aplicación del método del gradiente descendente a numerosos casos, se ha observado que la geometría que adopta la malla mejorada, se aproxima a la de una malla tal que sus nudos se sitúen sobre las líneas isostáticas (envolventes de las tensiones principales) y generen elementos regulares (de lados iguales) o cuasirregulares. La conclusión más importante es, precisamente, que a partir de una malla inicial, razonablemente regular, se puede realizar un único análisis y definir las isostáticas correspondientes a este modelo. Ajustando una malla, con el mismo número de nudos que la inicial, a las líneas isostáticas con nudos situados de forma regular, se obtiene otra que está próxima a la óptima. A la malla así obtenida, se la denomina isostática isométrica. Esta conclusión se ha probado que es válida para los diferentes funcionales que se utilizan para evaluar la bondad de la malla en elementos finitos.
Resumo:
En la actualidad se estudia en numerosos campos cómo automatizar distintas tareas ejecutadas por aeronaves con tripulación humana. Estas tareas son en todos los casos muy costosos, debido al gran consumo de combustible, gran coste de adquisición y mantenimiento de la propia aeronave, todo ello sin contar el riesgo para los mismos tripulantes. Como ejemplo de estas tareas se puede incluir la vigilancia policial y fronteriza, revisiones de tendidos de alta tensión, la alerta temprana de incendios forestales y la medición de parámetros contaminantes. El objetivo de este proyecto es el diseño y la construcción de un prototipo electrónico empotrado basado en microcontrolador con núcleo C8051 de Silicon labs, que sea capaz de gobernar una aeronave de radiocontrol de forma transparente, de manera que en un futuro se pueda sustituir el propio aeromodelo, con la modificación de algunos parámetros, para poder incorporar sistemas de video o distintos medios de detección de variables. El prototipo seguirá una ruta confeccionada y transferida como un archivo de texto con un formato determinado que contendrá los datos necesarios para poder navegar mediante GPS. El trabajo con los modelos de motorización térmica (motores de combustión interna tipo glow, en este caso) resulta peligroso debido a la gran energía que son capaces de alcanzar. A fin de mantener la máxima seguridad durante la evolución del proyecto, se ha diseñado un proceso de tres partes independientes que permitan la correcta familiarización de los distintos componentes que se emplearán. Las fases son las siguientes: 1. Test y modelado de todos los componentes mediante pequeños montajes con protoboard de inserción y programas individuales. Se realizará mediante una tarjeta multipropósito que contendrá un microcontrolador similar en características, aunque de menor complejidad, al del prototipo final. 2. Integración de todos los componentes mediante una tarjeta especialmente diseñada que servirá de interfaz entre la tarjeta multipropósito y todo el hardware necesario para el control de un vehículo terrestre de iguales características (actuadores y motorización) al aeromodelo. 3. Diseño de un sistema embebido que concentre todos los subsistemas desarrollados en las fases anteriores y que integre todos los componentes necesarios para el gobierno de una aeronave de ala fija. ABSTRACT. Nowadays, the way of automating different tasks done by manned vehicles is studied. These tasks are any case very expensive, due to large fuel consumption, costs of aircraft buying, without taking into account the risk for human crew. As an example of these tasks, we can include policing or border surveillance, maintenance of high voltage lines, early warning of forest fire and measuring of pollution parameters. The target of this project is the design and construction of an embedded electronic prototype, based on a microcontroller with C8051 core from Silicon labs, and it will be able to controlling an aircraft transparently, in order that in the future the flying model could be changed with the modification of some parameters, and video or any variables detection systems could be added. The prototype will follow a designed and transferred path as an plain text file with a given format, that will contain all the necessary data for GPS navigation. Working with heat engine models (internal combustion engine, glow type, in this case) becomes dangerous due to the large energy that can be able to acquire. In order to keep the maximum safety level during the project evolution a three independent stages process have been designed, this allows familiarizing properly with the parts that will be used. The stages are as follows: 1. Test and modeling of all of the parts by little assemblies with through-hole protoboard and stand alone programs. It will be done with a multipurpose card which contains a microcontroller of similar characteristics, although less complex, of the final prototype. 2. Integrating of all of parts through a dedicated design card that will serve as interface between multipurpose card and all the necessary hardware for controlling a ground vehicle with the same characteristics (actuators and engine) of the flying model. 3. Embedded system designing that contains all the developed subsystems in the previous stages and integrates all the necessary parts for controlling a fixed-wing aircraft.
Resumo:
En este artículo se estudia la calidad del proceso de fabricación pastillas de distinto origen, entre los que se incluyen productos genéricos. El resultado fundamental es que, las marcas oficiales y sus respectivos genéricos, no son iguales desde el punto de vista de su acabado, lo cual repercute directamente en su eficacia.Eine vollsUindige Charakterisierung von pharmazeutischen Tabletten besteht nicht nur in der Analyse der chemischen Zusammensetzung, sondern auch in der Untersuchung der Fertigung der inneren Struktur und der OberfUichenstruktur. Ziel dieser Arbeit ist es, die OberfUichenrauheit von Tabletten an Originalpra• paraten und Generika mittels Angularer Speckle Korre• lation (ASK) zu bestimmen. Die Ergebnisse zeigen un terschiedliche Rauheitswerte bei Tabletten mit gleichem Wirkstoff bei verschiedenen Tragerstoffen. Berührungslose Speckle-Rauheitsmessung konnte eingesetzt werden, um die Regelung des Produktionsprozesses zu verbessern, z. B. wahrend die Tabletten aus Pulver gepresst werden. A complete characterization of pharmaceutical tablets requires not only the analysis of its chemical com• pounds, but also of its inner and surface structure manufacturing. The aim of this work is to determine the sur face roughness of original and generic tablets by means of angular speckle correlation (ASC). The results show different roughness properties between tablets with the same active ingredients, but with different excipients. Contactless speckle roughness measurements could be used to im• prove the control of the production process, e. g., when tablets are pressed from powder.
Resumo:
La fermentación de las bayas de café se considera una et apa crítica en el procesado del café debido a su impacto en la calidad final del producto. La temperatura es una de las principales variables de control que puede ser utilizada para predecir el final del proceso, teniendo en cuenta que varios autores indican que el control de esta etapa es fundamental para evitar la mala calidad de la be bida final. En la práctica, la fermentación es el paso menos controlado del proceso, haciendo que los beneficiaderos operen lejos de sus condiciones óptimas en términos de costes de operación (es decir, elevados consumos de energía y agua) y de calidad del producto final. El objetivo de este trabajo es caracterizar los gradientes de temperatura que se dan en los tanques de fermentación mediante una red multi-distribuida de sensores autónomos, inalámbricos y de bajo coste (registradores de temperatura del tipo RFID, identificadores de radiofrecuencia semipasivos modelo TurboTag®).Para ello se utilizan dos metodologías: la interpolación espacial en coordenadas polares y los diagramas de espacio de fase. Se supervisaron dos fermentaciones reales de café, en El Cauca (Colombia), mediante sensores sumergidos directamente en la masa en fermentación. Los fermentadores eran tanques de plástico cubiertos, uno de ellos colocado en el interior de un almacén, permaneciendo el otro a la intemperie. El rango de variación máximo de temperatura en los tanques fue de 4,5ºC. La interpolación espacial mostró, incluso en el fermentador bajo las condiciones menos desfavorables en el interior del almacén, un gradiente radial de temperatura instantáneo de 0,1 °C/cm desde el centro hasta el perímetro del tanque y un gradiente vertical de temperatura de 0,25 °C/cm para sensores con coordenadas polares iguales. La combinación de ambas metodologías permitió la identificación consistente de los puntos calientes y fríos de ambas fermentaciones.
Resumo:
Con el auge del Cloud Computing, las aplicaciones de proceso de datos han sufrido un incremento de demanda, y por ello ha cobrado importancia lograr m�ás eficiencia en los Centros de Proceso de datos. El objetivo de este trabajo es la obtenci�ón de herramientas que permitan analizar la viabilidad y rentabilidad de diseñar Centros de Datos especializados para procesamiento de datos, con una arquitectura, sistemas de refrigeraci�ón, etc. adaptados. Algunas aplicaciones de procesamiento de datos se benefician de las arquitecturas software, mientras que en otras puede ser m�ás eficiente un procesamiento con arquitectura hardware. Debido a que ya hay software con muy buenos resultados en el procesamiento de grafos, como el sistema XPregel, en este proyecto se realizará una arquitectura hardware en VHDL, implementando el algoritmo PageRank de Google de forma escalable. Se ha escogido este algoritmo ya que podr��á ser m�ás eficiente en arquitectura hardware, debido a sus características concretas que se indicaráan m�ás adelante. PageRank sirve para ordenar las p�áginas por su relevancia en la web, utilizando para ello la teorí��a de grafos, siendo cada página web un vértice de un grafo; y los enlaces entre páginas, las aristas del citado grafo. En este proyecto, primero se realizará un an�álisis del estado de la técnica. Se supone que la implementaci�ón en XPregel, un sistema de procesamiento de grafos, es una de las m�ás eficientes. Por ello se estudiará esta �ultima implementaci�ón. Sin embargo, debido a que Xpregel procesa, en general, algoritmos que trabajan con grafos; no tiene en cuenta ciertas caracterí��sticas del algoritmo PageRank, por lo que la implementaci�on no es �optima. Esto es debido a que en PageRank, almacenar todos los datos que manda un mismo v�értice es un gasto innecesario de memoria ya que todos los mensajes que manda un vértice son iguales entre sí e iguales a su PageRank. Se realizará el diseño en VHDL teniendo en cuenta esta caracter��ística del citado algoritmo,evitando almacenar varias veces los mensajes que son iguales. Se ha elegido implementar PageRank en VHDL porque actualmente las arquitecturas de los sistemas operativos no escalan adecuadamente. Se busca evaluar si con otra arquitectura se obtienen mejores resultados. Se realizará un diseño partiendo de cero, utilizando la memoria ROM de IPcore de Xillinx (Software de desarrollo en VHDL), generada autom�áticamente. Se considera hacer cuatro tipos de módulos para que as�� el procesamiento se pueda hacer en paralelo. Se simplificar�á la estructura de XPregel con el fin de intentar aprovechar la particularidad de PageRank mencionada, que hace que XPregel no le saque el m�aximo partido. Despu�és se escribirá el c�ódigo, realizando una estructura escalable, ya que en la computación intervienen millones de páginas web. A continuación, se sintetizar�á y se probará el código en una FPGA. El �ultimo paso será una evaluaci�ón de la implementaci�ón, y de posibles mejoras en cuanto al consumo.
Resumo:
El deterioro del hormigón por ciclos de hielo-deshielo en presencia de sales fundentes es causa frecuente de problemas en los puentes e infraestructuras existentes en los países europeos. Los daños producidos por los ciclos de hielo-deshielo en el hormigón pueden ser internos, fundamentalmente la fisuración y/o externos como el descascarillamiento (desgaste superficial). La España peninsular presenta unas características geográficas y climáticas particulares. El 18% de la superficie tiene una altura superior a 1000mts y, además, la altura media geográfica con respecto al nivel del mar es de 660mts (siendo el segundo país más montañoso de toda Europa).Esto hace que la Red de Carreteras del Estado se vea afectada, durante determinados periodos, por fenómenos meteorológicos adversos, en particular por nevadas y heladas, que pueden comprometer las condiciones de vialidad para la circulación de vehículos. Por este motivo la Dirección General de Carreteras realiza trabajos anualmente (campañas de vialidad invernal, de 6 meses de duración) para el mantenimiento de la vialidad de las carreteras cuando éstas se ven afectadas por estos fenómenos. Existen protocolos y planes operativos que permiten sistematizar estos trabajos de mantenimiento que, además, se han intensificado en los últimos 10 años, y que se fundamentan en el empleo de sales fundentes, principalmente NaCl, con la misión de que no haya placas de hielo, ni nieve, en las carreteras. En zonas de fuerte oscilación térmica, que con frecuencia en España se localizan en la zona central del Pirineo, parte de la cornisa Cantábrica y Sistema Central, se producen importantes deterioros en las estructuras y paramentos de hormigón producidos por los ciclos de hielo- deshielo. Pero además el uso de fundentes de vialidad invernal acelera en gran medida la evolución de estos daños. Los tableros de hormigón de puentes de carretera de unos 40-50 años de antigüedad carecen, en general, de un sistema de impermeabilización, y están formados frecuentemente por un firme de mezcla asfáltica, una emulsión adherente y el hormigón de la losa. En la presente tesis se realiza una investigación que pretende reproducir en laboratorio los procesos que tienen lugar en el hormigón de tableros de puentes existentes de carreteras, de unos 40-50 años de antigüedad, que están expuestos durante largos periodos a sales fundentes, con objeto de facilitar la vialidad invernal, y a cambios drásticos de temperatura (hielo y deshielo). Por ello se realizaron cuatro campañas de investigación, teniendo en cuenta que, si bien nos basamos en la norma europea UNE-CEN/TS 12390-9 “Ensayos de hormigón endurecido. Resistencia al hielo-deshielo. Pérdida de masa”, se fabricaron probetas no estandarizadas para este ensayo, pensado en realidad para determinar la afección de los ciclos únicamente a la pérdida de masa. Las dimensiones de las probetas en nuestro caso fueron 150x300 mm, 75 x 150mm (cilíndricas normalizadas para roturas a compresión según la norma UNE-EN 12390-3) y 286x76x76 (prismáticas normalizadas para estudiar cambio de volumen según la norma ASTM C157), lo cual nos permitió realizar sobre las mismas probetas más ensayos, según se presentan en la tesis y, sobre todo, poder comparar los resultados con probetas extraídas de dimensiones similares en puentes existentes. En la primera campaña, por aplicación de la citada norma, se realizaron ciclos de H/D, con y sin contacto con sales de deshielo (NaCl en disolución del 3% según establece dicha norma). El hormigón fabricado en laboratorio, tratando de simular el de losas de tableros de puentes antiguos, presentó una fc de 22,6 MPa y relación agua/cemento de 0,65. Las probetas de hormigón fabricadas se sometieron a ciclos agresivos de hielo/deshielo (H/D), empleando una temperatura máxima de +20ºC y una temperatura mínima de -20ºC al objeto de poder determinar la sensibilidad de este ensayo tanto al tipo de hormigón elaborado como al tipo de probeta fabricado (cilíndrica y prismática). Esta campaña tuvo una segunda fase para profundizar más en el comportamiento de las probetas sometidas a ciclos H/D en presencia de sales. En la segunda campaña, realizada sobre probetas de hormigón fabricadas en laboratorio iguales a las anteriores, la temperaturas mínima del ensayo se subió a -14ºC, lo que nos permitió analizar el proceso de deterioro con más detalle. (Realizando una serie de ensayos de caracterización no destructivos y otros destructivos, y validando su aplicación a la detección de los deterioros causados tras los ensayos acelerados de hielodeshielo. También mediante aplicación de técnicas de microscopía electrónica.) La tercera campaña, se realizó sobre probetas de hormigón de laboratorio similares a las anteriores, fc de 29,3Mpa y relación a/c de 0,65, en las que se aplicó en una cara un revestimiento asfáltico de 2-4cms, según fueran prismáticas y cilíndricas respectivamente, compuesto por una mezcla asfáltica real (AC16), sobre una imprimación bituminosa. (Para simular el nivel de impermeabilización que produce un firme sobre el tablero de un puente) La cuarta campaña, se desarrolló tras una cuidadosa selección de dos puentes de hormigón de 40-50 años de antigüedad, expuestos y sensibles a deterioros de hielodeshielo, y en carreteras con aportación de fundentes. Una vez esto se extrajeron testigos de hormigón de zonas sanas (nervios del tablero), para realizar en laboratorio los mismos ensayos acelerados de hielo-deshielo y de caracterización, de la segunda campaña, basados en la misma norma. De los resultados obtenidos se concluye que cuando se emplean sales fundentes se acelera de forma significativa el deterioro, aumentando tanto el contenido de agua en los poros como el gradiente generado (mecanismo de deterioro físico). Las sales de deshielo aceleran claramente la aparición del daño, que se incrementa incluso en un factor de 5 según se constata en esta investigación para los hormigones ensayados. Pero además se produce un gradiente de cloruros que se ha detectado tanto en los hormigones diseñados en laboratorio como en los extraídos de puentes existentes. En casi todos los casos han aparecido cambios en la microestructura de la pasta de cemento (mecanismo de deterioro químico), confirmándose la formación de un compuesto en el gel CSH de la pasta de cemento, del tipo Ca2SiO3Cl2, que posiblemente está contribuyendo a la alteración de la pasta y a la aceleración de los daños en presencia de sales fundentes. Existe un periodo entre la aparición de fisuración y la pérdida de masa. Las fisuras progresan rápidamente desde la interfase de los áridos más pequeños y angulosos, facilitando así el deterioro del hormigón. Se puede deducir así que el tipo de árido afecta al deterioro. En el caso de los testigos con recubrimiento asfáltico, parece haberse demostrado que la precipitación de sales genera tensiones en las zonas de hormigón cercanas al recubrimiento, que terminan por fisurar el material. Y se constata que el mecanimo de deterioro químico, probablemente tenga más repercusión que el físico, por cuanto el recubrimiento asfáltico es capaz de retener suficiente agua, como para que el gradiente de contenido de agua en el hormigón sea mucho menor que sin el recubrimiento. Se constató, sin embargo, la importancia del gradiente de cloruros en el hormigon. Por lo que se deduce que si bien el recubrimiento asfáltico es ciertamente protector frente a los ciclos H/D, su protección disminuye en presencia de sales; es decir, los cloruros acabarán afectando al hormigón del tablero del puente. Finalmente, entre los hormigones recientes y los antiguos extraídos de puentes reales, se observa que existen diferencias significativas en cuanto a la resistencia a los ciclos H/D entre ellos. Los hormigones más recientes resultan, a igualdad de propiedades, más resistentes tanto a ciclos de H/D en agua como en sales. Posiblemente el hecho de que los hormigones de los puentes hayan estado expuestos a condiciones de temperaturas extremas durante largos periodos de tiempo les ha sensibilizado. La tesis realizada, junto con nuevos contrastes que se realicen en el futuro, nos permitirá implementar una metodología basada en la extracción de testigos de tableros de puente reales para someterlos a ensayos de hielo-deshielo, basados en la norma europea UNECEN/ TS 12390-9 aunque con probetas no normalizadas para el mismo, y, a su vez, realizar sobre estas probetas otros ensayos de caracterización destructivos, que posibilitarán evaluar los daños ocasionados por este fenómeno y su evolución temporal, para actuar consecuentemente priorizando intervenciones de impermeabilización y reparación en el parque de puentes de la RCE. Incluso será posible la elaboración de mapas de riesgo, en función de las zonas de climatología más desfavorable y de los tratamientos de vialidad invernal que se lleven a cabo. Concrete damage by freeze-thaw cycles in the presence of melting salts frequently causes problems on bridges and infrastructures in European countries. Damage caused by freeze-thaw cycles in the concrete can be internal, essentially cracking and / or external as flaking (surface weathering due to environmental action). The peninsular Spain presents specific climatic and geographical characteristics. 18% of the surface has a height greater than 1,000 m and the geographical average height from the sea level is 660 m (being the second most mountainous country in Europe). This makes the National Road Network affected during certain periods due to adverse weather, particularly snow and ice, which can compromise road conditions for vehicular traffic. For this reason the National Road Authority performs works annually (Winter Road Campaign, along 6 months) to maintain the viability of the roads when they are affected by these phenomena. There are protocols and operational plans that allow systematize these maintenance jobs, that also have intensified in the last 10 years, and which are based on the use of deicing salts, mainly NaCl, with the mission that no ice sheets, or snow appear on the roads. In areas of strong thermal cycling, which in Spain are located in the central area of the Pyrenees, part of the Cantabrian coast and Central System, significant deterioration take place in the structures and wall surfaces of concrete due to freeze-thaw. But also the use of deicing salts for winter maintenance greatly accelerated the development of such damages. The concrete decks for road bridges about 40-50 years old, lack generally a waterproofing system, and are often formed by a pavement of asphalt, an adhesive emulsion and concrete slab. In this thesis the research going on aims to reproduce in the laboratory the processes taking place in the concrete of an existing deck at road bridges, about 40-50 years old, they are exposed for long periods to icing salt, to be performed in order to facilitate winter maintenance, and drastic temperature changes (freezing and thawing). Therefore four campaigns of research were conducted, considering that while we rely on the European standard UNE-CEN/TS 12390-9 "Testing hardened concrete. Freezethaw resistance. Mass loss", nonstandard specimens were fabricated for this test, actually conceived to determine the affection of the cycles only to the mass loss. Dimensions of the samples were in our case 150x300 mm, 75 x 150mm (standard cylindrical specimens for compression fractures UNE-EN 12390-3) and 286x76x76 (standard prismatic specimens to study volume change ASTM C157), which allowed us to carry on same samples more trials, as presented in the thesis, and especially to compare the results with similar sized samples taken from real bridges. In the first campaign, by application of that European standard, freeze-thaw cycles, with and without contact with deicing salt (NaCl 3% solution in compliance with such standard) were performed. Concrete made in the laboratory, trying to simulate the old bridges, provided a compressive strength of 22.6 MPa and water/cement ratio of 0.65. In this activity, the concrete specimens produced were subjected to aggressive freeze/thaw using a maximum temperature of +20ºC and a minimum temperature of - 20°C in order to be able to determine the sensitivity of this test to the concrete and specimens fabricated. This campaign had a second phase to go deeper into the behavior of the specimens subjected to cycled freeze/thaw in the presence of salts. In the second campaign, conducted on similar concrete specimens manufactured in laboratory, temperatures of +20ºC and -14ºC were used in the tests, which allowed us to analyze the deterioration process in more detail (performing a series of non-destructive testing and other destructive characterization, validating its application to the detection of the damage caused after the accelerated freeze-thaw tests, and also by applying electron microscopy techniques). The third campaign was conducted on concrete specimens similar to the above manufactured in laboratory, both cylindrical and prismatic, which was applied on one side a 4 cm asphalt coating, consisting of a real asphalt mixture, on a bituminous primer (for simulate the level of waterproofing that produces a pavement on the bridge deck). The fourth campaign was developed after careful selection of two concrete bridges 40- 50 years old, exposed and sensitive to freeze-thaw damage, in roads with input of melting salts. Concrete cores were extracted from healthy areas, for the same accelerated laboratory freeze-thaw testing and characterization made for the second campaign, based on the same standard. From the results obtained it is concluded that when melting salts are employed deterioration accelerates significantly, thus increasing the water content in the pores, as the gradient. Besides, chloride gradient was detected both in the concrete designed in the laboratory and in the extracted in existing bridges. In all cases there have been changes in the microstructure of the cement paste, confirming the formation of a compound gel CSH of the cement paste, Ca2SiO3Cl2 type, which is possibly contributing to impair the cement paste and accelerating the damage in the presence of melting salts. The detailed study has demonstrated that the formation of new compounds can cause porosity at certain times of the cycles may decrease, paradoxically, as the new compound fills the pores, although this phenomenon does not stop the deterioration mechanism and impairments increase with the number of cycles. There is a period between the occurrence of cracking and mass loss. Cracks progress rapidly from the interface of the smallest and angular aggregate, thus facilitating the deterioration of concrete. It can be deduced so the aggregate type affects the deterioration. The presence of melting salts in the system clearly accelerates the onset of damage, which increases even by a factor of 5 as can be seen in this investigation for concrete tested. In the case of specimens with asphalt coating, it seems to have demonstrated that the precipitation of salts generate tensions in the areas close to the concrete coating that end up cracking the material. It follows that while the asphalt coating is certainly a protection against the freeze/thaw cycles, this protection decreases in the presence of salts; so the chlorides will finally affect the concrete bridge deck. Finally, among the recent concrete specimens and the old ones extracted from real bridges, it is observed that the mechanical strengths are very similar to each other, as well as the porosity values and the accumulation capacity after pore water saturation. However, there are significant differences in resistance to freeze/thaw cycles between them. More recent concrete are at equal properties more resistant both cycles freeze/thaw in water with or without salts. Possibly the fact that concrete bridges have been exposed to extreme temperatures for long periods of time has sensitized them. The study, along with new contrasts that occur in the future, allow us to implement a methodology based on the extraction of cores from the deck of real bridges for submission to freeze-thaw tests based on the European standard UNE-CEN/TS 12390-9 even with non-standard specimens for it, and in turn, performed on these samples other destructive characterization tests, which will enable to assess the damage caused by this phenomenon and its evolution, to act rightly prioritizing interventions improving the waterproofing and other repairs in the bridge stock of the National Road Network. It will even be possible to develop risk maps, depending on the worst weather areas and winter road treatments to be carried out.
Resumo:
Esta tesis presenta un modelo, una metodología, una arquitectura, varios algoritmos y programas para crear un lexicón de sentimientos unificado (LSU) que cubre cuatro lenguas: inglés, español, portugués y chino. El objetivo principal es alinear, unificar, y expandir el conjunto de lexicones de sentimientos disponibles en Internet y los desarrollados a lo largo de esta investigación. Así, el principal problema a resolver es la tarea de unificar de forma automatizada los diferentes lexicones de sentimientos obtenidos por el crawler CSR, porque la unidad de medida para asignar la intensidad de los valores de la polaridad (de forma manual, semiautomática y automática) varía de acuerdo con las diferentes metodologías utilizadas para la construcción de cada lexicón. La representación codificada de la estructura de datos de los términos presenta también una variación en la estructura de lexicón a lexicón. Por lo que al unificar en un lexicón de sentimientos se hace posible la reutilización del conocimiento recopilado por los diferentes grupos de investigación y se incrementa, a la vez, el alcance, la calidad y la robustez de los lexicones. Nuestra metodología LSU calcula un valor unificado de la intensidad de la polaridad para cada entrada léxica que está presente en al menos dos de los lexicones de sentimientos que forman parte de este estudio. En contraste, las entradas léxicas que no son comunes en al menos dos de los lexicones conservan su valor original. El coeficiente de Pearson resultante permite medir la correlación existente entre las entradas léxicas asignándoles un rango de valores de uno a menos uno, donde uno indica que los valores de los términos están perfectamente correlacionados, cero indica que no existe correlación y menos uno significa que están inversamente correlacionados. Este procedimiento se lleva acabo con la función de MetricasUnificadas tanto en la CPU como en la GPU. Otro problema a resolver es el tiempo de procesamiento que se requiere para realizar la tarea de unificación de la intensidad de la polaridad y con ello alcanzar una cobertura mayor de lemas en los lexicones de sentimientos existentes. Asimismo, la metodología LSU utiliza el procesamiento paralelo para unificar los 155 802 términos. El algoritmo LSU procesa mediante cargas iguales el subconjunto de entradas léxicas en cada uno de los 1344 núcleos en la GPU. Los resultados de nuestro análisis arrojaron un total de 95 430 entradas léxicas donde 35 201 obtuvieron valores positivos, 22 029 negativos y 38 200 neutrales. Finalmente, el tiempo de ejecución fue de 2,506 segundos para el total de las entradas léxicas, lo que permitió reducir el procesamiento de cómputo hasta en una tercera parte con respecto al algoritmo secuencial. De estos resultados se concluye que al lograr un lexicón de sentimientos unificado que permite homogeneizar la intensidad de la polaridad de las unidades léxicas (con valores positivos, negativos y neutrales) deriva no sólo en el análisis semántico del corpus basado en los términos con una mayor carga de polaridad, o del resumen de las valoraciones o las tendencias de neuromarketing, sino también en aplicaciones como el etiquetado subjetivo de sitios web o de portales sintácticos y semánticos, por mencionar algunas. ABSTRACT This thesis presents an approach to create what we have called a Unified Sentiment Lexicon (USL). This approach aims at aligning, unifying, and expanding the set of sentiment lexicons which are available on the web in order to increase their robustness of coverage. One problem related to the task of the automatic unification of different scores of sentiment lexicons is that there are multiple lexical entries for which the classification of positive, negative, or neutral P, N, Z depends on the unit of measurement used in the annotation methodology of the source sentiment lexicon. Our USL approach computes the unified strength of polarity of each lexical entry based on the Pearson correlation coefficient which measures how correlated lexical entries are with a value between 1 and - 1 , where 1 indicates that the lexical entries are perfectly correlated, 0 indicates no correlation, and -1 means they are perfectly inversely correlated and so is the UnifiedMetrics procedure for CPU and GPU, respectively. Another problem is the high processing time required for computing all the lexical entries in the unification task. Thus, the USL approach computes a subset of lexical entries in each of the 1344 GPU cores and uses parallel processing in order to unify 155,802 lexical entries. The results of the analysis conducted using the USL approach show that the USL has 95,430 lexical entries, out of which there are 35,201 considered to be positive, 22,029 negative, and 38,200 neutral. Finally, the runtime was 2.505 seconds for 95,430 lexical entries; this allows a reduction of the time computing for the UnifiedMetrics by 3 times with respect to the sequential implementation. A key contribution of this work is that we preserve the use of a unified sentiment lexicon for all tasks. Such lexicon is used to define resources and resource-related properties that can be verified based on the results of the analysis and is powerful, general and extensible enough to express a large class of interesting properties. Some applications of this work include merging, aligning, pruning and extending the current sentiment lexicons.
Resumo:
Las leguminosas grano presentan un perfil nutricional de gran interés para alimentación de ganado porcino, debido principalmente a su elevado contenido proteico. Sin embargo, la presencia de factores antinutritivos (FAN), que según el género difieren en calidad y cantidad, condiciona la absorción de la proteína, el nutriente más valorado. El objetivo de esta Tesis Doctoral ha sido el estudio del efecto de los principales FAN de guisante y alberjón sobre el rendimiento productivo, de canal y de piezas nobles, cuando sustituyen a la soja, parcial o totalmente, durante la fase estárter y el periodo de engorde de cerdos grasos. Con este motivo se llevaron a cabo 4 ensayos con machos castrados y la misma línea genética: híbrido Duroc x (Landrace x Large white). En el ensayo 1, se estudió la influencia de distintos niveles de inhibidores de proteasas (IP) en el pienso sobre la productividad de lechones durante la fase estárter (40 a 61 días de edad). Para ello, se utilizaron tres variedades de guisantes de invierno que contenían diferentes cantidades de IP, tanto de tripsina (IT) como de quimotripsina (IQ) [unidades de tripsina inhibida/mg (UTI), unidades de quimotripsina inhibida/mg (UQI): 9,87- 10,16, 5,75-8,62 y 12,55-15,75, para guisantes Cartouche, Iceberg y Luna, respectivamente] más elevadas que en la harina de soja 47 (HnaS) y en la soja extrusionada (SE) (UTI/mg - UQI/mg: 0,61-3,56 y 2,36-4,65, para HnaS y SE, respectivamente). El diseño experimental fue al azar, con cuatro tratamientos dietéticos que diferían en las fuentes proteicas y en la cantidad de IP, enfrentando un pienso control de soja a otros tres piensos con guisantes de invierno de las variedades indicadas, que sustituían parcialmente a la soja. Cada tratamiento se replicó cuatro veces, siendo la celda con 6 lechones la unidad experimental. Los animales que consumieron el pienso con guisante Cartouche tuvieron más ganancia media diaria (GMD) que el resto (P < 0,001) con el mismo consumo medio diario (CMD) e índice de conversión (IC). No hubo diferencias significativas entre los animales del pienso control y los que consumieron piensos con guisantes Iceberg y Luna. En el ensayo 2 la leguminosa objeto de estudio fue el alberjón y su FAN el dipéptido _Glutamyl-S-Ethenyl-Cysteine (GEC). El diseño y el periodo experimental fueron los mismos que en el ensayo 1, con cuatro dietas que variaban en el porcentaje de alberjones: 0%, 5%, 15% y 25%, y de GEC (1,54% del grano). Los lechones que consumieron el pienso con 5% tuvieron un CMD y GMD más elevado (P < 0,001), con el mismo IC que los animales pertenecientes al tratamiento 0%. Los índices productivos empeoraron significativamente y de manera progresiva al aumentar el porcentaje de alberjones (15 y 25%). Se obtuvieron ecuaciones de regresión con estructura polinomial que fueron significativas tanto para el nivel de alberjón como para la cantidad de GEC presente en el pienso. El ensayo 3 se efectuó durante el periodo de engorde, sustituyendo por completo la soja a partir de los 84 días de edad con las tres variedades de guisantes de invierno, observando el efecto sobre el rendimiento productivo, de canal y piezas nobles. El diseño, en bloques completos al azar, tuvo cuatro tratamientos según el guisante presente en el pienso y, por lo tanto, los niveles de IP: Control-soja, Cartouche, Iceberg y Luna, con 12 réplicas de 4 cerdos por tratamiento. De 84 a 108 días de edad los animales que consumieron los piensos Control-soja e Iceberg, tuvieron el mismo CMD y GMD, empeorando en los cerdos alimentados con Luna y Cartouche (P < 0,05). El IC fue igual en los tratamientos Control-soja e Iceberg, ocupando una posición intermedia en Cartouche y peor en los cerdos del pienso Luna (P < 0,001). De 109 a 127 días de edad la GMD y el IC fueron iguales, con un CMD más elevado en Control-soja e Iceberg que en los cerdos que consumieron Cartouche y Luna (P < 0,05). No hubo diferencias significativas durante el acabado (128 a 167 días de edad). Globalmente el CMD y GMD fueron más elevados en los cerdos que comieron los piensos Iceberg y Control-soja, empeorando por igual en los que comieron Cartouche y Luna (P < 0,05); el IC fue el mismo en todos los tratamientos. No se observaron diferencias en los datos relacionados con peso y rendimiento de canal y piezas nobles (jamón, paleta y chuletero), ni del contenido de grasa intramuscular en el lomo y proporción de ácidos grasos principales (C16:0, C18:0, C18:1n-9) en la grasa subcutánea. En el ensayo 4, realizado durante el periodo de engorde (60 a 171 días de edad), se valoró el efecto de dietas con distintos niveles de alberjones, y en consecuencia de su factor antinutritivo el dipéptido GEC, sobre el rendimiento productivo y la calidad de la canal y piezas nobles. El diseño fue en cuatro bloques completos al azar, con cuatro tratamientos según el porcentaje de inclusión de alberjón en el pienso: 0%, 5%, 15% y 25%, con 12 réplicas por tratamiento y cuatro cerdos en cada una de ellas. El tratamiento con 5% mejoró la GMD al final de la fase de cebo (152 días de vida) y, junto con el 0%, presentaron los resultados más favorables de peso e IC al final del ensayo (171 días de vida). Del mismo modo, el peso y rendimiento de canal fueron más elevados en los cerdos alimentados con los tratamientos 0% y 5% (P < 0,001). Piensos con el 15 y 25% de alberjones empeoraron los resultados productivos, así como el rendimiento y peso de canal. Sucedió lo mismo con el peso de las piezas nobles (jamón, paleta y chuletero), significativamente superior en 0% y 5% frente a 15% y 25%, siendo los cerdos que consumieron este último pienso los peores. Por el contrario el rendimiento de jamón y chuletero fue más elevado en los cerdos de los tratamientos 25% y 15% que en los que consumieron los piensos con 5% y 0% (P < 0,001); en el rendimiento de paletas se invirtieron los resultados, siendo mayores en los animales de los tratamientos 0% y 5% (P < 0,001). Se obtuvieron ecuaciones de regresión polinomial, para estimar las cantidades de inclusión de alberjones y de GEC más favorables desde el punto de vista productivo, así como los contrastes ortogonales entre los distintos tratamientos. ABSTRACT The grain legumes have a nutritional profile of great interest to feed pigs, mainly due to high protein content. However, the presence of antinutritional factors (ANF), which differ in quality and quantity according to gender, hinder the absorption of the protein, the most valuable nutrient. The aim of this thesis was to study the effect of the main ANF of pea and narbon vetch (NV) on productive performance, of the carcass and main lean cuts, when replacing soybean, partially or totally, during the starter phase and the fattening period of heavy pigs. For this reason were carried four trials with barrows and the same genetic line: Duroc hybrid x (Landrace x Large white). In trial 1, was studied the influence of different levels of protease inhibitors (PI) in the diet over productivity of piglets during the starter phase (40-61 days of age). For this, were used three varieties of winter peas containing different amounts of PI, both trypsin (TI) and chymotrypsin (CI) [inhibited units/mg trypsin (TIU), inhibited units/mg chymotrypsin (CIU): 9.87 - 10.16, 5.75 - 8.62 and 12.55 - 15.75, for peas Cartouche, Iceberg and Luna, respectively] higher than in soybean meal 47 (SBM) and soybeans extruded (SBE) (TIU/mg - CIU/mg: 0.61 - 3.56 and 2.36 - 4.65 for SBM and SBE, respectively). The design was randomized with four dietary treatments differing in protein sources and the amount of PI, with a control diet of soybean and three with different varieties of winter peas: Cartouche, Iceberg and Luna, which partially replace soybean. Each treatment was replicated four times, being the pen with 6 piglets the experimental unit. Pigs that ate the feed with pea Cartouche had better growth (ADG) than the rest (P < 0.001), with the same average daily feed intake (ADFI) and feed conversion ratio (FCR). There were no significant differences between piglets fed with control diet and those fed Iceberg and Luna diets. In trial 2 the legume under study was the NV and your ANF the dipeptide _Glutamyl FAN-S-Ethenyl-Cysteine (GEC). The experimental period and the design were the same as in trial 1, with four diets with different percentage of NV: 0%, 5%, 15% and 25%, and from GEC (1.52% of the grain). The piglets that consumed the feed containing 5% had higher ADG and ADFI (P < 0.05), with the same FCR that pigs belonging to the 0% treatment. Production rates worsened progressively with increasing percentage of NV (15 and 25%). Were obtained regression equations with polynomial structure that were significant for NV percentage and amount of GEC present in the feed. The test 3 was carried out during the fattening period, completely replace soy from 84 days of age with three varieties of winter peas, observing the effect on the yield, carcass and main lean cuts. The design, randomized complete blocks, had four treatments with different levels of PI: Control-soy, Cartouche, Iceberg and Luna, with 12 replicates of 4 pigs per treatment. From 84 to 108 days of age the pigs fed with Control-soy and Iceberg feed, had the same ADFI and ADG, worsening in pigs fed with Luna and Cartouche (P < 0.05). The FCR was similar in diets Control-soy and Iceberg, occupying an intermediate position in Cartouche and worse in pigs fed with Luna (P < 0.001). From 109-127 days of age the ADG and FCR were equal, with higher ADFI in pigs fed with Control-soy and Iceberg, regarding pigs fed with Cartouche and Luna (P < 0.05). There was no difference in the finishing phase (128-167 days of age). In global period, the ADFI and ADG were higher in pigs that ate Control-soy and Iceberg, and worse in those who ate Cartouche and Luna. The FCR was the same in all treatments. No significant differences were observed in the data related to weight and carcass yield, main lean cuts (ham, shoulder and loin chop) and intramuscular fat loin content and major fatty acids proportion (C16:0, C18:0, C18:1n-9) of subcutaneous fat. In experiment 4, made during the fattening period (60-171 days of age), was assessed the effect of diets with different levels of NV, and consequently of GEC, in the performance and quality of carcass and main lean cuts. There was a completely randomized design with four dietary treatments differing in percentage of NV: 0%, 5%, 15% and 25%, with 12 replicates per treatment and four pigs each. Treatment with 5% improved the ADG at the end of the fattening phase (152 days of age) and, together with 0%, showed the most favorable body weight and FCR at the end of the trial (171 days of age). Similarly, the weight and performance of carcass were higher for pigs fed with diets 0% and 5% (P < 0.05). Diets with 15 and 25% worsened the productive and carcass results. The weight of the main lean cuts (ham, shoulder and loin chop) was significantly higher in 0% and 5% vs 15% and 25%.The diet 25% was the worst of all. By contrast the performance of ham and loin chop was higher in pigs fed with diets 25% and 15%, that those who ate diets with 5% and 0% (P < 0.001); the results of shoulder performance were reversed, being greater in pigs feed with diets 0% and 5% (P < 0.001). Polynomial regression equations were obtained to estimate the percentage of NV and GEC more favorable from the point of view of production, and orthogonal contrasts between treatments.
Resumo:
El extraordinario auge de las nuevas tecnologías de la información, el desarrollo de la Internet de las Cosas, el comercio electrónico, las redes sociales, la telefonía móvil y la computación y almacenamiento en la nube, han proporcionado grandes beneficios en todos los ámbitos de la sociedad. Junto a éstos, se presentan nuevos retos para la protección y privacidad de la información y su contenido, como la suplantación de personalidad y la pérdida de la confidencialidad e integridad de los documentos o las comunicaciones electrónicas. Este hecho puede verse agravado por la falta de una frontera clara que delimite el mundo personal del mundo laboral en cuanto al acceso de la información. En todos estos campos de la actividad personal y laboral, la Criptografía ha jugado un papel fundamental aportando las herramientas necesarias para garantizar la confidencialidad, integridad y disponibilidad tanto de la privacidad de los datos personales como de la información. Por otro lado, la Biometría ha propuesto y ofrecido diferentes técnicas con el fin de garantizar la autentificación de individuos a través del uso de determinadas características personales como las huellas dáctilares, el iris, la geometría de la mano, la voz, la forma de caminar, etc. Cada una de estas dos ciencias, Criptografía y Biometría, aportan soluciones a campos específicos de la protección de datos y autentificación de usuarios, que se verían enormemente potenciados si determinadas características de ambas ciencias se unieran con vistas a objetivos comunes. Por ello es imperativo intensificar la investigación en estos ámbitos combinando los algoritmos y primitivas matemáticas de la Criptografía con la Biometría para dar respuesta a la demanda creciente de nuevas soluciones más técnicas, seguras y fáciles de usar que potencien de modo simultáneo la protección de datos y la identificacíón de usuarios. En esta combinación el concepto de biometría cancelable ha supuesto una piedra angular en el proceso de autentificación e identificación de usuarios al proporcionar propiedades de revocación y cancelación a los ragos biométricos. La contribución de esta tesis se basa en el principal aspecto de la Biometría, es decir, la autentificación segura y eficiente de usuarios a través de sus rasgos biométricos, utilizando tres aproximaciones distintas: 1. Diseño de un esquema criptobiométrico borroso que implemente los principios de la biometría cancelable para identificar usuarios lidiando con los problemas acaecidos de la variabilidad intra e inter-usuarios. 2. Diseño de una nueva función hash que preserva la similitud (SPHF por sus siglas en inglés). Actualmente estas funciones se usan en el campo del análisis forense digital con el objetivo de buscar similitudes en el contenido de archivos distintos pero similares de modo que se pueda precisar hasta qué punto estos archivos pudieran ser considerados iguales. La función definida en este trabajo de investigación, además de mejorar los resultados de las principales funciones desarrolladas hasta el momento, intenta extender su uso a la comparación entre patrones de iris. 3. Desarrollando un nuevo mecanismo de comparación de patrones de iris que considera tales patrones como si fueran señales para compararlos posteriormente utilizando la transformada de Walsh-Hadarmard. Los resultados obtenidos son excelentes teniendo en cuenta los requerimientos de seguridad y privacidad mencionados anteriormente. Cada uno de los tres esquemas diseñados han sido implementados para poder realizar experimentos y probar su eficacia operativa en escenarios que simulan situaciones reales: El esquema criptobiométrico borroso y la función SPHF han sido implementados en lenguaje Java mientras que el proceso basado en la transformada de Walsh-Hadamard en Matlab. En los experimentos se ha utilizado una base de datos de imágenes de iris (CASIA) para simular una población de usuarios del sistema. En el caso particular de la función de SPHF, además se han realizado experimentos para comprobar su utilidad en el campo de análisis forense comparando archivos e imágenes con contenido similar y distinto. En este sentido, para cada uno de los esquemas se han calculado los ratios de falso negativo y falso positivo. ABSTRACT The extraordinary increase of new information technologies, the development of Internet of Things, the electronic commerce, the social networks, mobile or smart telephony and cloud computing and storage, have provided great benefits in all areas of society. Besides this fact, there are new challenges for the protection and privacy of information and its content, such as the loss of confidentiality and integrity of electronic documents and communications. This is exarcebated by the lack of a clear boundary between the personal world and the business world as their differences are becoming narrower. In both worlds, i.e the personal and the business one, Cryptography has played a key role by providing the necessary tools to ensure the confidentiality, integrity and availability both of the privacy of the personal data and information. On the other hand, Biometrics has offered and proposed different techniques with the aim to assure the authentication of individuals through their biometric traits, such as fingerprints, iris, hand geometry, voice, gait, etc. Each of these sciences, Cryptography and Biometrics, provides tools to specific problems of the data protection and user authentication, which would be widely strengthen if determined characteristics of both sciences would be combined in order to achieve common objectives. Therefore, it is imperative to intensify the research in this area by combining the basics mathematical algorithms and primitives of Cryptography with Biometrics to meet the growing demand for more secure and usability techniques which would improve the data protection and the user authentication. In this combination, the use of cancelable biometrics makes a cornerstone in the user authentication and identification process since it provides revocable or cancelation properties to the biometric traits. The contributions in this thesis involve the main aspect of Biometrics, i.e. the secure and efficient authentication of users through their biometric templates, considered from three different approaches. The first one is designing a fuzzy crypto-biometric scheme using the cancelable biometric principles to take advantage of the fuzziness of the biometric templates at the same time that it deals with the intra- and inter-user variability among users without compromising the biometric templates extracted from the legitimate users. The second one is designing a new Similarity Preserving Hash Function (SPHF), currently widely used in the Digital Forensics field to find similarities among different files to calculate their similarity level. The function designed in this research work, besides the fact of improving the results of the two main functions of this field currently in place, it tries to expand its use to the iris template comparison. Finally, the last approach of this thesis is developing a new mechanism of handling the iris templates, considering them as signals, to use the Walsh-Hadamard transform (complemented with three other algorithms) to compare them. The results obtained are excellent taking into account the security and privacy requirements mentioned previously. Every one of the three schemes designed have been implemented to test their operational efficacy in situations that simulate real scenarios: The fuzzy crypto-biometric scheme and the SPHF have been implemented in Java language, while the process based on the Walsh-Hadamard transform in Matlab. The experiments have been performed using a database of iris templates (CASIA-IrisV2) to simulate a user population. The case of the new SPHF designed is special since previous to be applied i to the Biometrics field, it has been also tested to determine its applicability in the Digital Forensic field comparing similar and dissimilar files and images. The ratios of efficiency and effectiveness regarding user authentication, i.e. False Non Match and False Match Rate, for the schemes designed have been calculated with different parameters and cases to analyse their behaviour.
Resumo:
Este documento presenta el diseño de un proyecto para la asignatura de tecnología de tercero de educación secundaria obligatoria en un instituto de enseñanza bilingüe. Se perfilan una serie de tareas cíclicas que permitirán desarrollar a los alumnos una mayor comprensión sobre el uso de la energía y la importancia del medio ambiente a través de la lengua inglesa. Este ciclo de actividades organizadas en cuatro sesiones se fundamenta en la metodología del Aprendizaje Integrado de Contenidos y Lengua Extranjera, AICLE. A través de esta se persigue el doble objetivo del aprendizaje de la lengua a la par que el del contenido. Para ello, las estrategias que se proponen se centran en el alumno y se apoyan en el trabajo colaborativo, la interacción entre iguales y las metodologías activas y participativas en las que son los propios estudiantes los que diseñan los contenidos y los adaptan a su estilo de aprendizaje. Aunque sin resultados concluyentes, el trabajo supone una aportación más a las propuestas de actividades cooperativas que centran el aprendizaje en las aulas AICLE. This project presents the design of a teaching sequence for the subject of technology in the third grade in a bilingual high school. A task cycle is created with the double objective of providing students with a deeper understanding about the use of energy and the importance of the environment through the English language. The series of activities were organized in four sessions, attending to Content and Language Integrated Learning (CLIL) methodology. Throughout this double focussed objective of learning the language and the subject matter content at the same time, the strategies proposed are focused on the student and support collaborative work, peer interaction and active participatory methodologies, focussed in the students who are the real designers of the content materials based on their own learning style. Although no conclusive results are presented, this work aims to be a contribution to other cooperative task proposals as one of the main basis of CLIL methodology.
Resumo:
El trabajo contenido en esta tesis doctoral está encuadrado en el desarrollo de antenas reconfigurables electrónicamente capaces de proporcionar prestaciones competitivas a las aplicaciones cada vez más comunes que operan a frecuencias superiores a 60 GHz. En concreto, esta tesis se centra en el estudio, diseño, e implementación de las antenas reflectarray, a las que se introduce la tecnología de cristal líquido como elemento característico con el que se consigue reconfigurabilidad de haz de forma electrónica. Desde un punto de vista muy general, se puede describir un cristal líquido como un material cuya permitividad eléctrica es variable y controlada por una excitación externa, que generalmente suele corresponderse con un campo eléctrico quasi-estático (AC). Las antenas reflectarray de cristal líquido se han escogido como objeto de estudio por varias razones. La primera de ellas tiene que ver con las ventajas que los reflectarrays, y en especial aquellos realizados en configuración planar, proporcionan con respecto a otras antenas de alta ganancia como los reflectores o los “phased-arrays”. En los reflectarrays, la alimentación a través de una fuente primaria común (característica de reflectores) y el elevado número de grados de libertad de las celdas que los componen (característica de arrays) hacen que estas antenas puedan proporcionar prestaciones eléctricas iguales o mejores que las anteriores, a un coste más reducido y con estructuras de antena más compactas. La segunda razón radica en la flexibilidad que ofrece el cristal líquido a ser confinado y polarizado en recintos de geometría variada, como consecuencia de su fluidez (propiedad de los líquidos). Por ello, la tecnología de cristal líquido permite que el propio elemento reconfigurable en las celdas de reflectarray se adapte a la configuración planar de manera que en sí mismo, el cristal líquido sea una o varias de las capas características de esta configuración. Esto simplifica de forma drástica la estructura y la fabricación de este tipo de antenas, incluso si se comparan con reflectarrays reconfigurables basados en otras tecnologías como diodos, MEMS, etc. Por tanto, su coste y desarrollo es muy reducido, lo que hace que se puedan fabricar reflectarrays reconfigurables eléctricamente grandes, a bajo coste, y en producción elevada. Un ejemplo claro de una estructura similar, y que ha tenido éxito comercial, son las pantallas de cristal líquido. La tercera razón reside en el hecho de que el cristal líquido es, hasta la fecha, de las pocas tecnologías capaces de ofrecer reconfigurabilidad del haz a frecuencias superiores a 60 GHz. De hecho, el cristal líquido permite reconfigurabilidad en un amplio margen de frecuencias, que va desde DC a frecuencias del espectro visible, incluyendo las microondas y los THz. Otras tecnologías, como los materiales ferroeléctricos, el grafeno o la tecnología CMOS “on chip” permiten también conmutar el haz en estas frecuencias. Sin embargo, la tecnología CMOS tiene un elevado coste y actualmente está limitada a frecuencias inferiores a 150 GHz, y aunque los materiales ferroeléctricos o el grafeno puedan conmutar a frecuencias más altas y en un rango más amplio, tienen serias dificultades que los hacen aún inmaduros. En el caso de los materiales ferroeléctricos, los elevados voltajes para conmutar el material los hacen poco atractivos, mientras que en el caso del grafeno, su modelado aún está en discusión, y todavía no se han arrojado resultados experimentales que validen su idoneidad. Estas tres razones hacen que los reflectarrays basados en cristal líquido sean atractivos para multitud de aplicaciones de haz reconfigurable a frecuencias superiores a 60 GHz. Aplicaciones como radar de escaneo de imágenes de alta resolución, espectroscopia molecular, radiómetros para observación atmosférica, o comunicaciones inalámbricas de alta frecuencia (WiGig) son algunas de ellas. La tesis está estructurada en tres partes. En la primera de ellas se describen las características más comunes de los cristales líquidos, centrándonos en detalle en aquellas propiedades ofrecidas por este material en fase nemática. En concreto, se estudiará la anisotropía dieléctrica (Ae) de los cristales líquidos uniaxiales, que son los que se emplean en esta tesis, definida como la diferencia entre la permitividad paralela (£//) y la perpendicular (e±): Ae = e,, - e±. También se estudiará la variación de este parámetro (Ae) con la frecuencia, y el modelado electromagnético macroscópico más general que, extraído a partir de aquella, permite describir el cristal líquido para cada tensión de polarización en celdas de geometría planar. Este modelo es de suma importancia para garantizar precisión en el desfasaje proporcionado por las diferentes celdas reconfigurables para reflectarrays que se describirán en la siguiente parte de la tesis. La segunda parte de la tesis se centra en el diseño de celdas reflectarray resonantes basadas en cristal líquido. La razón por la que se escogen estos tipos de celdas reside en el hecho de que son las únicas capaces de proporcionar rangos de fase elevados ante la reducida anisotropía dieléctrica que ofrecen los cristales líquidos. El objetivo de esta parte trata, por tanto, de obtener estructuras de celdas reflectarray que sean capaces de proporcionar buenas prestaciones eléctricas a nivel de antena, mejorando sustancialmente las prestaciones de las celdas reportadas en el estado del arte, así como de desarrollar una herramienta de diseño general para aquellas. Para ello, se estudian las prestaciones eléctricas de diferentes tipos de elementos resonantes de cristal líquido que van, desde el más sencillo, que ha limitado el estado de la técnica hasta el desarrollo de esta tesis y que está formado por un sólo resonador, a elementos que constan de varios resonadores (multi-resonantes) y que pueden ser monocapa o multicapa. En un primer paso, el procedimiento de diseño de estas estructuras hace uso de un modelo convencional de cristal líquido que ha venido siendo usado en el estado del arte para este tipo de celdas, y que considera el cristal líquido como un material homogéneo e isótropo cuya permitividad varía entre (e/7) y (e±). Sin embargo, en esta parte de la tesis se demuestra que dicho modelado no es suficiente para describir de forma genérica el comportamiento del cristal líquido en las celdas tipo reflectarray. En la tesis se proponen procedimientos más exactos para el análisis y diseño basados en un modelo más general que define el cristal líquido como un material anisótropo e inhomogeneo en tres dimensiones, y se ha implementado una técnica que permite optimizar celdas multi-resonantes de forma eficiente para conseguir elevadas prestaciones en cuanto a ancho de banda, rango de fase, pérdidas, o sensibilidad al ángulo de incidencia. Los errores cometidos en el uso del modelado convencional a nivel de celda (amplitud y fase) se han analizado para varias geometrías, usando medidas de varios prototipos de antena que usan un cristal líquido real a frecuencias superiores a 100 GHz. Las medidas se han realizado en entorno periódico mediante un banco cuasi-óptico, que ha sido diseñado especialmente para este fin. Uno de estos prototipos se ha optimizado a 100 GHz para conseguir un ancho de banda relativamente elevado (10%), pérdidas reducidas, un rango de fase mayor de 360º, baja sensibilidad al ángulo de incidencia, y baja influencia de la inhomogeneidad transversal del cristal líquido en la celda. Estas prestaciones a nivel de celda superan de forma clara aquellas conseguidas por otros elementos que se han reportado en la literatura, de manera que dicho prototipo se ha usado en la última parte de la tesis para realizar diversas antenas de barrido. Finalmente, en esta parte se presenta una estrategia de caracterización de la anisotropía macroscópica a partir de medidas de los elementos de reflectarray diseñados en banco cuasi-óptico, obteniendo resultados tanto en las frecuencias de interés en RF como en AC, y comparándolas con aquellas obtenidas mediante otros métodos. La tercera parte de la tesis consiste en el estudio, diseño, fabricación y medida de antenas reconfigurables basadas en cristal líquido en configuraciones complejas. En reflectarrays pasivos, el procedimiento de diseño de la antena se limita únicamente al ajuste en cada celda de la antena de las dimensiones de las metalizaciones que se emplean para el control de fase, mediante procesos de optimización bien conocidos. Sin embargo, en el caso de reflectarrays reconfigurables basados en cristal líquido, resulta necesario un paso adicional, que consiste en calcular de forma adecuada las tensiones de control en cada celda del reflectarray para configurar la fase requerida en cada una de ellas, así como diseñar la estructura y los circuitos de control que permitan direccionar a cada elemento su tensión correspondiente. La síntesis de tensiones es por tanto igual o más importante que el diseño de la geometría de las celdas, puesto que éstas son las que están directamente relacionadas con la fase. En el estado del arte, existen varias estrategias de síntesis de tensiones que se basan en la caracterización experimental de la curva de fase respecto al voltaje. Sin embargo, esta caracterización sólo puede hacerse a un solo ángulo de incidencia y para unas determinadas dimensiones de celda, lo que produce que las tensiones sintetizadas sean diferentes de las adecuadas, y en definitiva que se alcancen errores de fase mayores de 70º. De esta forma, hasta la fecha, las prestaciones a nivel de antena que se han conseguido son reducidas en cuanto a ancho de banda, rango de escaneo o nivel de lóbulos secundarios. En esta última parte de la tesis, se introduce una nueva estrategia de síntesis de tensiones que es capaz de predecir mediante simulaciones, y con alta precisión, las tensiones que deben introducirse en cada celda teniendo en cuenta su ángulo de incidencia, sus dimensiones, la frecuencia, así como la señal de polarización definida por su frecuencia y forma de onda AC. Esta estrategia se basa en modelar cada uno de los estados de permitividad del cristal líquido como un sustrato anisótropo con inhomogeneidad longitudinal (1D), o en ciertos casos, como un tensor equivalente homogéneo. La precisión de ambos modelos electromagnéticos también se discute. Con el objetivo de obtener una herramienta eficiente de cálculo de tensiones, también se ha escrito e implementado una herramienta de análisis basada en el Método de los Momentos en el Dominio Espectral (SD-MoM) para sustratos estratificados anisótropos, que se usa en cada iteración del procedimiento de síntesis para analizar cada una de las celdas de la antena. La síntesis de tensiones se ha diseñado además para reducir al máximo el efecto del rizado de amplitud en el diagrama de radiación, que es característico en los reflectarrays que están formados por celdas con pérdidas elevadas, lo que en sí, supone un avance adicional para la obtención de mejores prestaciones de antena. Para el cálculo de los diagramas de radiación empleados en el procedimiento de síntesis, se asume un análisis elemento a elemento considerando periodicidad local, y se propone el uso de un método capaz de modelar el campo incidente de forma que se elimine la limitación de la periodicidad local en la excitación. Una vez definida la estrategia adecuada de cálculo de las tensiones a aplicar al cristal líquido en cada celda, la estructura de direccionamiento de las mismas en la antena, y diseñados los circuitos de control, se diseñan, fabrican y miden dos prototipos diferentes de antena de barrido electrónico a 100 GHz usando las celdas anteriormente presentadas. El primero de estos prototipos es un reflectarray en configuración “single offset” con capacidad de escaneo en un plano (elevación o azimut). Aunque previamente se realizan diseños de antenas de barrido en 2D a varias frecuencias en el rango de milimétricas y sub-milimétricas, y se proponen ciertas estrategias de direccionamiento que permiten conseguir este objetivo, se desarrolla el prototipo con direccionamiento en una dimensión con el fin de reducir el número de controles y posibles errores de fabricación, y así también validar la herramienta de diseño. Para un tamaño medio de apertura (con un numero de filas y columnas entre 30 y 50 elementos, lo que significa un reflectarray con un número de elementos superior a 900), la configuración “single offset” proporciona rangos de escaneo elevados, y ganancias que pueden oscilar entre los 20 y 30 dBi. En concreto, el prototipo medido proporciona un haz de barrido en un rango angular de 55º, en el que el nivel de lóbulos secundarios (SLL) permanece mejor de -13 dB en un ancho de banda de un 8%. La ganancia máxima es de 19.4 dBi. Estas prestaciones superan de forma clara aquellas conseguidas por otros autores. El segundo prototipo se corresponde con una antena de doble reflector que usa el reflectarray de cristal líquido como sub-reflector para escanear el haz en un plano (elevación o azimut). El objetivo básico de esta geometría es obtener mayores ganancias que en el reflectarray “single offset” con una estructura más compacta, aunque a expensas de reducir el rango de barrido. En concreto, se obtiene una ganancia máxima de 35 dBi, y un rango de barrido de 12º. Los procedimientos de síntesis de tensiones y de diseño de las estructuras de las celdas forman, en su conjunto, una herramienta completa de diseño precisa y eficiente de antenas reflectarray reconfigurables basados en cristales líquidos. Dicha herramienta se ha validado mediante el diseño, la fabricación y la medida de los prototipos anteriormente citados a 100 GHz, que consiguen algo nunca alcanzado anteriormente en la investigación de este tipo de antenas: unas prestaciones competitivas y una predicción excelente de los resultados. El procedimiento es general, y por tanto se puede usar a cualquier frecuencia en la que el cristal líquido ofrezca anisotropía dieléctrica, incluidos los THz. Los prototipos desarrollados en esta tesis doctoral suponen también unas de las primeras antenas de barrido real a frecuencias superiores a 100 GHz. En concreto, la antena de doble reflector para escaneo de haz es la primera antena reconfigurable electrónicamente a frecuencias superiores a 60 GHz que superan los 25 dBi de ganancia, siendo a su vez la primera antena de doble reflector que contiene un reflectarray reconfigurable como sub-reflector. Finalmente, se proponen ciertas mejoras que aún deben se deben realizar para hacer que estas antenas puedan ser un producto completamente desarrollado y competitivo en el mercado. ABSTRACT The work presented in this thesis is focused on the development of electronically reconfigurable antennas that are able to provide competitive electrical performance to the increasingly common applications operating at frequencies above 60 GHz. Specifically, this thesis presents the study, design, and implementation of reflectarray antennas, which incorporate liquid crystal (LC) materials to scan or reconfigure the beam electronically. From a general point of view, a liquid crystal can be defined as a material whose dielectric permittivity is variable and can be controlled with an external excitation, which usually corresponds with a quasi-static electric field (AC). By changing the dielectric permittivity at each cell that makes up the reflectarray, the phase shift on the aperture is controlled, so that a prescribed radiation pattern can be configured. Liquid Crystal-based reflectarrays have been chosen for several reasons. The first has to do with the advantages provided by the reflectarray antenna with respect to other high gain antennas, such as reflectors or phased arrays. The RF feeding in reflectarrays is achieved by using a common primary source (as in reflectors). This arrangement and the large number of degrees of freedom provided by the cells that make up the reflectarray (as in arrays), allow these antennas to provide a similar or even better electrical performance than other low profile antennas (reflectors and arrays), but assuming a more reduced cost and compactness. The second reason is the flexibility of the liquid crystal to be confined in an arbitrary geometry due to its fluidity (property of liquids). Therefore, the liquid crystal is able to adapt to a planar geometry so that it is one or more of the typical layers of this configuration. This simplifies drastically both the structure and manufacture of this type of antenna, even when compared with reconfigurable reflectarrays based on other technologies, such as diodes MEMS, etc. Therefore, the cost of developing this type of antenna is very small, which means that electrically large reconfigurable reflectarrays could be manufactured assuming low cost and greater productions. A paradigmatic example of a similar structure is the liquid crystal panel, which has already been commercialized successfully. The third reason lies in the fact that, at present, the liquid crystal is one of the few technologies capable of providing switching capabilities at frequencies above 60 GHz. In fact, the liquid crystal allows its permittivity to be switched in a wide range of frequencies, which are from DC to the visible spectrum, including microwaves and THz. Other technologies, such as ferroelectric materials, graphene or CMOS "on chip" technology also allow the beam to be switched at these frequencies. However, CMOS technology is expensive and is currently limited to frequencies below 150 GHz, and although ferroelectric materials or graphene can switch at higher frequencies and in a wider range, they have serious difficulties that make them immature. Ferroelectric materials involve the use of very high voltages to switch the material, making them unattractive, whereas the electromagnetic modelling of the graphene is still under discussion, so that the experimental results of devices based on this latter technology have not been reported yet. These three reasons make LC-based reflectarrays attractive for many applications that involve the use of electronically reconfigurable beams at frequencies beyond 60 GHz. Applications such as high resolution imaging radars, molecular spectroscopy, radiometers for atmospheric observation, or high frequency wireless communications (WiGig) are just some of them. This thesis is divided into three parts. In the first part, the most common properties of the liquid crystal materials are described, especially those exhibited in the nematic phase. The study is focused on the dielectric anisotropy (Ac) of uniaxial liquid crystals, which is defined as the difference between the parallel (e/7) and perpendicular (e±) permittivities: Ae = e,, - e±. This parameter allows the permittivity of a LC confined in an arbitrary volume at a certain biasing voltage to be described by solving a variational problem that involves both the electrostatic and elastic energies. Thus, the frequency dependence of (Ae) is also described and characterised. Note that an appropriate LC modelling is quite important to ensure enough accuracy in the phase shift provided by each cell that makes up the reflectarray, and therefore to achieve a good electrical performance at the antenna level. The second part of the thesis is focused on the design of resonant reflectarray cells based on liquid crystal. The reason why resonant cells have been chosen lies in the fact that they are able to provide enough phase range using the values of the dielectric anisotropy of the liquid crystals, which are typically small. Thus, the aim of this part is to investigate several reflectarray cell architectures capable of providing good electrical performance at the antenna level, which significantly improve the electrical performance of the cells reported in the literature. Similarly, another of the objectives is to develop a general tool to design these cells. To fulfill these objectives, the electrical yields of different types of resonant reflectarray elements are investigated, beginning from the simplest, which is made up of a single resonator and limits the state of the art. To overcome the electrical limitations of the single resonant cell, several elements consisting of multiple resonators are considered, which can be single-layer or multilayer. In a first step, the design procedure of these structures makes use of a conventional electromagnetic model which has been used in the literature, which considers that the liquid crystal behaves as homogeneous and isotropic materials whose permittivity varies between (e/7) y (e±). However, in this part of the thesis it is shown that the conventional modelling is not enough to describe the physical behaviour of the liquid crystal in reflectarray cells accurately. Therefore, a more accurate analysis and design procedure based on a more general model is proposed and developed, which defines the liquid crystal as an anisotropic three-dimensional inhomogeneous material. The design procedure is able to optimize multi-resonant cells efficiently to achieve good electrical performance in terms of bandwidth, phase range, losses, or sensitivity to the angle of incidence. The errors made when the conventional modelling (amplitude and phase) is considered have been also analysed for various cell geometries, by using measured results from several antenna prototypes made up of real liquid crystals at frequencies above 100 GHz. The measurements have been performed in a periodic environment using a quasi-optical bench, which has been designed especially for this purpose. One of these prototypes has been optimized to achieve a relatively large bandwidth (10%) at 100 GHz, low losses, a phase range of more than 360º, a low sensitivity to angle of incidence, and a low influence of the transversal inhomogeneity of the liquid crystal in the cell. The electrical yields of this prototype at the cell level improve those achieved by other elements reported in the literature, so that this prototype has been used in the last part of the thesis to perform several complete antennas for beam scanning applications. Finally, in this second part of the thesis, a novel strategy to characterise the macroscopic anisotropy using reflectarray cells is presented. The results in both RF and AC frequencies are compared with those obtained by other methods. The third part of the thesis consists on the study, design, manufacture and testing of LCbased reflectarray antennas in complex configurations. Note that the design procedure of a passive reflectarray antenna just consists on finding out the dimensions of the metallisations of each cell (which are used for phase control), using well-known optimization processes. However, in the case of reconfigurable reflectarrays based on liquid crystals, an additional step must be taken into account, which consists of accurately calculating the control voltages to be applied to each cell to configure the required phase-shift distribution on the surface of the antenna. Similarly, the structure to address the voltages at each cell and the control circuitry must be also considered. Therefore, the voltage synthesis is even more important than the design of the cell geometries (dimensions), since the voltages are directly related to the phase-shift. Several voltage synthesis procedures have been proposed in the state of the art, which are based on the experimental characterization of the phase/voltage curve. However, this characterization can be only carried out at a single angle of incidence and at certain cell dimensions, so that the synthesized voltages are different from those needed, thus giving rise to phase errors of more than 70°. Thus, the electrical yields of the LCreflectarrays reported in the literature are limited in terms of bandwidth, scanning range or side lobes level. In this last part of the thesis, a new voltage synthesis procedure has been defined and developed, which allows the required voltage to be calculated at each cell using simulations that take into account the particular dimensions of the cells, their angles of incidence, the frequency, and the AC biasing signal (frequency and waveform). The strategy is based on the modelling of each one of the permittivity states of the liquid crystal as an anisotropic substrate with longitudinal inhomogeneity (1D), or in certain cases, as an equivalent homogeneous tensor. The accuracy of both electromagnetic models is also discussed. The phase errors made by using the proposed voltage synthesis are better than 7º. In order to obtain an efficient tool to analyse and design the reflectarray, an electromagnetic analysis tool based on the Method of Moments in the spectral domain (SD-MoM) has also written and developed for anisotropic stratified media, which is used at each iteration of the voltage synthesis procedure. The voltage synthesis is also designed to minimize the effect of amplitude ripple on the radiation pattern, which is typical of reflectarrays made up of cells exhibiting high losses and represents a further advance in achieving a better antenna performance. To calculate the radiation patterns used in the synthesis procedure, an element-by-element analysis is assumed, which considers the local periodicity approach. Under this consideration, the use of a novel method is proposed, which avoids the limitation that the local periodicity imposes on the excitation. Once the appropriate strategy to calculate the voltages to be applied at each cell is developed, and once it is designed and manufactured both the structure to address the voltages to the antenna and the control circuits, two complete LC-based reflectarray antennas that operate at 100 GHz have been designed, manufactured and tested using the previously presented cells. The first prototype consists of a single offset reflectarray with beam scanning capabilities on one plane (elevation and azimuth). Although several LC-reflectarray antennas that provide 2-D scanning capabilities are also designed, and certain strategies to achieve the 2-D addressing of the voltage are proposed, the manufactured prototype addresses the voltages in one dimension in order to reduce the number of controls and manufacturing errors, and thereby validating the design tool. For an average aperture size (with a number of rows and columns of between 30 and 50 elements, which means a reflectarray with more than 900 cells), the single offset configuration provides an antenna gain of between 20 and 30 dBi and a large scanning range. The prototype tested at 100 GHz exhibits an electronically scanned beam in an angular range of 55º and 8% of bandwidth, in which the side lobe level (SLL) remains better than -13 dB. The maximum gain is 19.4 dBi. The electrical performance of the antenna is clearly an improvement on those achieved by other authors in the state of the art. The second prototype corresponds to a dual reflector antenna with a liquid crystal-based reflectarray used as a sub-reflector for beam scanning in one plane (azimuth or elevation). The main objective is to obtain a higher gain than that provided by the single offset configuration, but using a more compact architecture. In this case, a maximum gain of 35 dBi is achieved, although at the expense of reducing the scanning range to 12°, which is inherent in this type of structure. As a general statement, the voltage synthesis and the design procedure of the cells, jointly make up a complete, accurate and efficient design tool of reconfigurable reflectarray antennas based on liquid crystals. The tool has been validated by testing the previously mentioned prototypes at 100 GHz, which achieve something never reached before for this type of antenna: a competitive electrical performance, and an excellent prediction of the results. The design procedure is general and therefore can be used at any frequency for which the liquid crystal exhibits dielectric anisotropy. The two prototypes designed, manufactured and tested in this thesis are also some of the first antennas that currently operate at frequencies above 100 GHz. In fact, the dual reflector antenna is the first electronically scanned dual reflector antenna at frequencies above 60 GHz (the operation frequency is 100 GHz) with a gain greater than 25 dBi, being in turn the first dual-reflector antenna with a real reconfigurable sub-reflectarray. Finally, some improvements that should be still investigated to make these antennas commercially competitive are proposed.
Resumo:
Este proyecto consistira en la realization de un estudio aciistico sobre la sala 8 de los cines Kinepolis de Ciudad de la Imagen, que dispone de 408 butacas. Los cines Kinepolis es uno de los mayores complejos multisala de Europa. Cuenta con mas de 9.200 butacas en total distribuidas en 25 salas a las que se accede mediante dos grandes pasillos conectados por el hall. En 1998, ano de su apertura, el complejo recibio el Record Guinness a la sala cinematografica mas grande del mundo, que dispone de 996 butacas. El objetivo de este proyecto es conseguir caracterizar acusticamente una sala de cine a traves de la medicion de parametros acusticos de la sala y de un modelo virtual de la misma. Para llevar a cabo el proyecto, primero se van a realizar tanto una medicion geometrica como acustica de la sala mediante el sistema de medida DIRAC. Los resultados de estas mediciones nos serviran para construir y validar un modelo virtual de la sala real con el software de simulacion EASE. La medicion acustica se va a realizar con el sistema de medicion DIRAC. Este sistema nos dara information sobre una amplia variedad de parametros acusticos. En este proyecto no se va a trabajar con todos ellos, solo con los mas significativos. Estos se describen a continuacion en la introduccion teorica. La medicion geometrica nos va a servir para construir un modelo virtual que tenga las mismas dimensiones que la sala original. Esta medicion la realizaremos mediante un medidor laser y una cinta metrica. Una vez construido el modelo virtual, se procedera a su validacion. Este proceso se realiza ajustando el tiempo de reverberacion del modelo mediante la introduccion de distintos materiales acusticos en las superficies del mismo, de manera que, variando la absorcion de la sala, el tiempo de reverberacion promedio del modelo se asemeje lo mas posible al medido en la sala real. Este proceso tiene como objetivo comprobar que el modelo virtual tiene un comportamiento acustico similar al de la sala real. Es necesario validar adecuadamente el modelo para que las comparaciones y conclusiones sean fiables. Por ultimo, tras la simulacion acustica del modelo, se compararan los resultados simulados con los medidos en la sala. En este proceso se contrastaran algunos de los parametros que guardan relation con el tiempo de reverberacion. De esta manera se verificara si el tiempo de reverberacion es o no un parametro acustico fiable para la validacion de un modelo virtual de una sala de cine. Anteriormente se han realizado proyectos iguales de otras salas de diferente tamano de Kinepolis. El objetivo de realizar el mismo estudio en distintas salas, es comprobar si el tamano de la sala influye en la validacion de los modelos virtuales mediante el tiempo de reverberacion. ABSTRACT. This Project consists on the development of an acoustic research of the movie theater 8 of the Kinepolis complex in Ciudad de la Imagen, Madrid. This room has 408 spots. Kinepolis is one of the biggest multiplex complexes in Europe. It has 9,200 locations disposed in 25 rooms. There are two large corridors which give access to all of theaters. In the middle of the structure, there is the main hall that connects these corridors. In 1998, at the time when the complex was open, it was awarded with the Record Guinness for the biggest theater in the world, which has 996 locations. The target of this project is to successfully characterize the acoustics of a movie theater through reverberation time and a virtual model. In order to reach this goal, in the first place, we are going to perform both, an acoustic and a geometric measurement of the room using DIRAC measurement system. The results of these measures will allow us to build and validate a virtual model of the room, using the simulation software EASE. We are going to use the DIRAC system in order to accomplish the acoustic measure. This operation gives us a huge variety of acoustic parameters. Not all of these are going to be used for this research, only the most significant ones. These are described in the theoretical introduction. The geometric measure is essential to help us to build the virtual model, because the model has to be exactly equal as the real room. This measurement will be performed with an electronic distance meter and a measuring tape. Once the virtual model is finished, it will be proved. This validation process will be realized by adjusting the reverberation time in the model. We will change the walls materials, therefore, the overall absorption of the room will change. We want the model reverberation time resemble to the real one. This practice is going to ensure that the model acoustic performance is close to the real one. In addition, it has to be successfully validate of we want the future comparisons to be reliable. Finally, after the model virtual simulation, we will compare the simulated results with the measure in the room. In this process, we will compare not only the reverberation time, but others parameters that keep relation with the reverberation time. We will verify this way, if the reverberation time is or is not an appropriate acoustic parameter to validate a virtual model of a movie theater. There have been done others similar acoustic researches in different theaters with different sizes. The aim of performing similar researches in different rooms is to determine if the size of the room infers in the validation process.
Resumo:
El minuto final de un partido ajustado de baloncesto es un momento crítico que está sujeto a multitud de factores que influyen en su desarrollo. Así, el porcentaje de acierto en los tiros libres durante ese periodo de tiempo va a determinar, en muchas ocasiones, el resultado final del partido. La disminución de rendimiento (drop) en esta faceta de juego en condiciones de presión, puede estar relacionada con múltiples variables propias del contexto deportivo estudiado, como por ejemplo: los segundos restantes de posesión, la situación en el marcador (ir ganando, empatando o perdiendo), la localización del partido (jugar en casa o fuera), la fase de competición (fase regular o eliminatorias) o el nivel del equipo (mejores/peores equipos). Además, las características del jugador que realiza los lanzamientos tienen una gran importancia respecto a su edad y años de experiencia para afrontar los momentos críticos, así como el puesto de juego que ocupa en el equipo. En este sentido, la combinación de factores del contexto y del jugador, permiten interactuar en el rendimiento del lanzador en los momentos finales de partido durante sus lanzamientos de tiro libre. El presente trabajo de tesis doctoral tiene como objetivo encontrar aquellas variables más relacionadas con la disminución de rendimiento del jugador en los tiros libres durante el último minuto de juego, y la última serie de tiros libres en los partidos ajustados de baloncesto. Para alcanzar el objetivo del estudio se analizaron 124 partidos ajustados (diferencias iguales o inferiores a 2 puntos) de todas las competiciones (fase regular, playoff y copa del Rey) de la liga ACB durante las temporadas 2011-2012 a 2014-2015. Para el registro de variables se analizó el porcentaje de acierto en los tiros libres del lanzador en la liga regular, partido completo, último minuto y última serie. De este modo se trató de analizar qué variables del contexto y del jugador permitían explicar el rendimiento en los tiros libres durante el último minuto, y la última serie de tiros libres del partido. Por otro lado, se trató de conocer el grado de asociación entre el descenso del rendimiento (drop) en los momentos finales de partido, y las variables estudiadas del jugador: puesto de juego, edad, y años de experiencia profesional; mientras que las variables situacionales consideradas fueron: fase de competición, localización, clasificación, tiempo restante, y diferencia parcial en el marcador. Para el análisis de los datos se realizaron dos modelos estadísticos: 1º) un modelo de regresión lineal múltiple para conocer el efecto de las variables independientes en el porcentaje de aciertos del lanzador en el último minuto, y en la última serie de tiros libres del partido; y 2º) un análisis de regresión logística binomial para analizar la relación existente entre la probabilidad de tener un drop (disminución del rendimiento) y las características del lanzador, y las variables situacionales. Los resultados del modelo de regresión lineal múltiple mostraron efectos negativos significativos en el porcentaje de acierto en los tiros libres durante el último minuto, cuando los lanzadores son los pívots (-19,45%). Por otro lado, los resultados durante la última serie mostraron el efecto negativo significativo sobre la posición de pívot (- 19,30%) y la diferencia parcial en el marcador (-3,33%, para cada punto de diferencia en el marcador) en el porcentaje de acierto en los tiros libres. Las variables independientes edad, experiencia profesional, clasificación en la liga regular, fase de competición, localización, y tiempo restante, no revelaron efectos significativos en los modelos de regresión lineal. Los resultados de la regresión logística binomial revelaron que las variables experiencia profesional entre 13 y 18 años (OR = 4,63), jugar de alero (OR = 23,01), y jugar de base (OR = 10,68) están relacionadas con una baja probabilidad de disminuir el rendimiento durante el último minuto del partido; mientras que ir ganando, aumenta esta probabilidad (OR = 0,06). Además, los resultados de la última serie mostraron una menor disminución del rendimiento del jugador cuando tiene entre 13 y 18 años de experiencia (OR = 4,28), y juega de alero (OR = 8,06) o base (OR = 6,34). Por el contrario, las variables situacionales relacionadas con esa disminución del rendimiento del jugador son las fases eliminatorias (OR = 0,22) e ir ganando (OR = 0,04). Los resultados principales del estudio mostraron que existe una disminución del rendimiento del jugador en su porcentaje de acierto en los tiros libres durante el último minuto y en la última serie de lanzamientos del partido, y que está relacionada significativamente con la edad, experiencia profesional, puesto de juego del jugador, y diferencia parcial en el marcador. Encontrando relación también con la fase de competición, durante la última serie de tiros libres del partido. Esta información supone una valiosa información para el entrenador, y su aplicación en el ámbito competitivo real. En este sentido, la creación de simulaciones en el apartado de aplicaciones prácticas, permite predecir el porcentaje de acierto en los tiros libres de un jugador durante los momentos de mayor presión del partido, en base a su perfil de rendimiento. Lo que puede servir para realizar una toma de decisiones más idónea, con el objetivo de lograr el mejor resultado. Del mismo modo, orienta el tipo de proceso de entrenamiento que se ha de seguir, en relación a los jugadores más tendentes al drop, con el objetivo de minimizar el efecto de la presión sobre su capacidad para rendir adecuadamente en la ejecución de los tiros libres, y lograr de esta manera un rendimiento más homogéneo en todos los jugadores del equipo en esta faceta del juego, durante el momento crítico del final de partido. ABSTRACT. The final minute of a close game in basketball is a critical moment which is subject to many factors that influence its development. Thus, the success rate in free-throws during that period will determine, in many cases, the outcome of the game. Decrease of performance (drop) in this facet of play under pressure conditions, may be related to studied own multiple sports context variables, such as the remaining seconds of possession, the situation in the score (to be winning, drawing, or losing) the location of the match (playing at home or away), the competition phase (regular season or playoffs) or team level (best/worst teams). In addition, the characteristics of the player are very important related to his age and years of experience to face the critical moments, as well as his playing position into team. In this sense, the combination of factors in context and player, allows interact about performance of shooter in the final moments of the game during his free-throw shooting. The aim of this present doctoral thesis was find the most related variables to player´s drop in free throws in the last minute of the game and the last row of free-throws in closed games of basketball. To achieve the objective of the study, 124 closed games (less or equal than 2 points difference) were analyzed in every copetition in ACB league (regular season, playoff and cup) from 2011-2012 to 2014-2015 seasons. To record the variables, the percentage of success of the shooter in regular season, full game, last minute, and last row were analyzed. This way, it is tried to analyze which player and context variables explain the free-throw performance in last minute and last row of the game. On the other hand, it is tried to determine the degree of association between decrease of performance (drop) of the player in the final moments, and studied player variables: playing position, age, and years of professional experience; while considered situational variables considered were: competition phase, location, classification, remaining time, and score-line. For data analysis were performed two statistical models: 1) A multiple linear regression model to determine the effect of the independent variables in the succsess percentage of shooter at the last minute, and in the last row of free-throws in the game; and 2) A binomial logistic regression analysis to analyze the relationship between the probability of a drop (lower performance) and the characteristics of the shooter and situational variables. The results of multiple linear regression model showed significant negative effects on the free-throw percentage during last minute, when shooters are centers (-19.45%). On the other hand, results in the last series showed the significant negative effect on the center position (-19.30%) and score-line (-3.33% for each point difference in the score) in the free-throw percentage. The independent variables age, professional experience, ranking in the regular season, competition phase, location, and remaining time, revealed no significant effects on linear regression models. The results of the binomial logistic regression showed that the variables professional experience between 13 and 18 years (OR = 4.63), playing forward (OR = 23.01) and playing guard (OR = 10.68) are related to reduce the probability to decrease the performance during the last minute of the game. While wining, increases it (OR = 0.06). Furthermore, the results of the last row showed a reduction in performance degradation when player is between 13 and 18 years of experience (OR = 4.28), and playing forward (OR = 8.06) or guard (OR = 6.34). By contrast, the variables related to the decrease in performance of the player are the knockout phases (OR = 0.22) and wining (OR = 0.04). The main results of the study showed that there is a decrease in performance of the player in the percentage of success in free-throws in the last minute and last row of the game, and it is significantly associated with age, professional experience, and player position. Finding relationship with the competition phase, during last row of free-throws of the game too. This information is a valuable information for the coach, for applying in real competitive environment. In this sense, create simulations in the section of practical applications allows to predict the success rate of free-throw of a player during the most pressing moments of the game, based on their performance profile. What can be used to take more appropriate decisions in order to achieve the best result. Similarly, guides the type of training process must be followed in relation to the most favorable players to drop, in order to minimize the effect of pressure on their ability to perform properly in the execution of the free-throws. And to achieve, in this way, a more consistent performance in all team players in this facet of the game, during the critical moment in the final of the game.
Resumo:
El presente trabajo tiene como objetivo evaluar el aprendizaje de los deportes colectivos en el alumnado de segundo ciclo de Educación Secundaria Obligatoria (ESO) utilizando una herramienta denominada Game Performance Assessment Instrument (GPAI). Para ello se ha realizado una revisión de dos modelos de enseñanza existentes: el modelo técnico y el modelo comprensivo. Así mismo hemos revisado dos tipos de procesos de evaluación; por un lado la evaluación sumativa, más relacionada con el modelo técnico; por otro lado la evaluación formativa, más próxima al modelo comprensivo. A continuación se ha llevado a cabo una intervención didáctica aplicando el modelo de enseñanza comprensivo (TGfU) y el instrumento mencionado anteriormente (GPAI). Los resultados obtenidos han sido utilizados para proponer un sistema de evaluación basado en el modelo comprensivo con la utilización del GPAI y a través de la coevaluación como forma de asentar el aprendizaje en el alumnado. Se concluye que el modelo de enseñanza comprensivo (TGfU) con el GPAI y una evaluación entre iguales es bastante óptimo para favorecer el proceso de enseñanzaaprendizaje de los deportes colectivos en el alumnado de segundo ciclo de Educación Secundaria Obligatoria (ESO). ABSTRACT The present work has the aim to assess the learning of collective sports in Secondary Education students using a tool called Game Performance Assessment Instrument (GPAI). For that we have used to revision of two teaching models: the technical model and Teaching Games for Understanding (TGfU). At the same time, we have reviewed two kinds of assessment process; on one hand summative assessment which is related to technical model; on the other hand formative assessment nearest to Teaching Games for Understanding (TGfU). Next it has been done a didactic intervention using the Teaching Games for Understanding (TGfU) and that instrument mentioned beforehand. The results obtained have been used to suggest an assessment system based on Teaching Games for Understanding (TGfU) using the GPAI through the peer assessment as a way of teaching.