1000 resultados para Carrera de Diseño Industrial
Resumo:
El presente proyecto, consiste en el diseño básico de una hoja Excel para un tanque de almacenamiento de gasóleo de automoción (gasóleo A). El presente tanque se ha situado en el parque de almacenamiento de Loeches (Comunidad de Madrid). Se han realizado los cálculos necesarios para el diseño de todas las partes de dicho tanque, la envolvente, el fondo de tanque y el techo. Al igual que el cálculo de peso de éste, y un listado de accesorios adicionales necesarios para su puesta en marcha. Se ha desarrollado la programación en Excel, de una ficha para calcular los parámetros principales del tanque diseñado. Se ha llevado a cabo el diseño y fabricación de un tanque de acero, vertical, cilíndrico, de fondo plano, no enterrado, soldados, para el almacenamiento de líquidos a temperatura ambiente. La capacidad del tanque es de un volumen nominal de 25.000 m3 y una altura de 20 metros, se almacenará gasóleo de automoción, con una densidad de 835 kg/m3. Este tipo de gasóleo es el producto derivado del petróleo más consumido en España.This project consists of the basic design of an Excel spreadsheet to a storage tank of diesel fuel (oil A). This tank is located in the storage yard Loeches (Madrid). It have been made the necessary calculations for the design of all parts of the tank, the envelope, the tank bottom and roof. As the weight calculation thereof, and a list of additional accessories required for its implementation and location. It has been developed programming Excel, a record key parameters to calculate tank designed. It has been carried out the design and manufacture of a steel tank, vertical, cylindrical, flat bottom, not buried, soldiers, for storing liquids at room temperature. The tank capacity is of a nominal capacity of 25,000 m3 and a height of 20 meters, diesel fuel is stored, with a density of 835 kg/m3. This type of oil is the oil product most consumed in Spain.
Resumo:
Cuando la separación física entre el sistema local y remoto es relativamente corta, el retardo no es perceptible; sin embargo, cuando el manipulador local y el manipulador remoto se encuentran a una distancia lejana uno del otro, el retardo de tiempo ya no es insignificante e influye negativamente en la realización de la tarea. El retardo de tiempo en un sistema de control introduce un atraso de fase que a su vez degrada el rendimiento del sistema y puede causar inestabilidad. Los sistemas de teleoperación pueden sacar provecho de la posibilidad de estar presente en dos lugares simultáneamente, sin embargo, el uso de Internet y otras redes de conmutación de paquetes, tales como Internet2, impone retardos de tiempo variables, haciendo que los esquemas de control ya establecidos elaboren soluciones para hacer frente a inestabilidades causadas por estos retardos de tiempo variables. En este trabajo de tesis se presenta el modelado y análisis de un sistema de teloperación bilateral no lineal de n grados de libertad controlado por convergencia de estado. La comunicación entre el sitio local y remoto se realiza mediante un canal de comunicación con retardo de tiempo. El análisis presentado en este trabajo considera que el retardo puede ser constante o variable. Los principales objetivos de este trabajo son; 1) Desarrollar una arquitectura de control no lineal garantizando la estabilidad del sistema teleoperado, 2) Evaluar la estabilidad del sistema considerando el retardo en la comunicación, y 3) Implementación de los algoritmos desarrollados para probar el desempeño de los mismos en un sistema experimental de 3 grados de libertad. A través de la teoría de Estabilidad de Lyapunov y el funcional Lyapunov-Krasovskii, se demuestra que el sistema de lazo cerrado es asintóticamente estable. Estas conclusiones de estabilidad se han obtenido mediante la integración de la función de Lyapunov y aplicando el Lema de Barbalat. Se demuestra también que se logra sincronizar las posiciones del manipulador local y remoto cuando el operador humano no mueve el manipulador local y el manipulador remoto se mueve libremente. El esquema de control propuesto se ha validado mediante simulación y en forma experimental empleando un sistema de teleoperación real desarrollado en esta tesis doctoral y que consta de un un manipulador serie planar de tres grados de libertad, un manipulador local, PHANTOM Omni, el cual es un dispositivo haptico fabricado que consta de 3 grados de libertad (en fuerza) y que proporciona realimentación de fuerza en los ejes x,y,z. El control en tiempo real se ha diseñado usando el Sistema Operativo en Tiempo Real QuaRC de QUARC en el lado local y el Simulink Real-Time Windows TargetTM en el lado remoto. Para finalizar el resumen se destaca el impacto de esta tesis en el mundo científico a través de los resultados publicados: 2 artículos en revistas con índice de impacto , 1 artículo en una revista indexada en Sistemas, Cibernética e Informática, 7 artículos en congresos y ha obtenido un premio en la 9a. Conferencia Iberoamericana en Sistemas, Cibernética e Informática, 2010. ABSTRACT When the physical separation between the local and remote system is relatively short, the delay is not noticeable; however, when the local manipulator and the remote manipulator are at a far distance from each other, the time delay is no longer negligible and negatively influences the performance of the task. The time delay in a control system introduces a phase delay which in turn degrades the system performance and cause instability. Teleoperation systems can benefit from the ability to be in two places simultaneously, however, the use of Internet and other packet switched networks, such as Internet2, imposes varying time delays, making established control schemes to develop solutions to address these instabilities caused by different time delays. In this thesis work we present a modeling and analysis of a nonlinear bilateral teloperation system of n degrees of freedom controlled by state convergence strategy. Communication between the local and remote site is via a communication channel with time delay. The analysis presented in this work considers that the time-delay can be constant or variable. The main objectives of this work are; 1) Develop a nonlinear control schemes to ensure the stability of the teleoperated system, 2) Evaluate the system stability considering the delay in communication, and 3) Implementation of algorithms developed to test the performance of the teleoperation system in an experimental system of 3 degrees of freedom. Through the Theory of Stability of Lyapunov and the functional Lyapunov-Krasovskii, one demonstrates that the closed loop system is asymptotically stable.. The conclusions about stability were obtained by integration of the Lyapunov function and applying Barbalat Lemma. It further shows that the positions of the local and remote manipulator are synchronize when the human operator stops applying a constant force and the remote manipulator does not interact with the environment. The proposed control scheme has been validated by means of simulation and in experimental form using a developed system of real teleoperation in this doctoral thesis, which consists of a series planar manipulator of three degrees of freedom, a local manipulator, PHANTOM Omni, which is an haptic device that consists of 3 degrees of freedom (in force) and that provide feeback force in x-axis, and, z. The control in real time has been designed using the Operating system in Real time QuaRC of Quanser in the local side and the Simulink Real-Time Windows Target in the remote side. In order to finalize the summary, the highlights impact of this thesis in the scientific world are shows through the published results: 2 articles in Journals with impact factor, one article in a indexed Journal on Systemics, Cybernetics and Informatics, 7 articles in Conferences and has won an award in 9a. Conferencia Iberoamericana en Sistemas, Cibernética e Informática, 2010.
Resumo:
Hace no más de una década que empezó a escucharse el término biología sintética. Este área de estudio emergente consiste en la ingeniería y programación de sistemas biológicos, tratando la biología como una tecnología programable a la que aplican los principios y metodologías de la ingeniería, con el fin de crear nuevas funcionalidades genéticas desde cero, procurando asÍ algún beneficio como por ejemplo, programar células bacterianas para producir biocombustibles. Sin embargo, para la creación de dichas funcionalidades es necesario conocer bien al organismo sobre el que se van a implantar. Por este motivo, los biólogos sintéticos emplean bacterias en sus estudios, ya que es la forma de vida más simple, está presente en prácticamente todos los nichos ecológicos, desempeña algunas de las funcionalidades vitales para los humanos y lo mas importante, se conoce prácticamente todo su material genético. Los experimentos son costosos en tiempo y dinero, siendo necesaria la ayuda de herramientas que faciliten esta labor, los simuladores. En PLASWIRES, proyecto europeo de biología sintética en el que se engloba este este trabajo, el simulador empleado es GRO. Sin embargo, en GRO el crecimiento de las bacterias ocurre de forma exponencial y sin restricciones, generando comportamientos poco realistas. Por ello, se ha considerado relevante en biología sintética, y en el simulador GRO en particular, disponer de un modelo de crecimiento bacteriano dependiente de los nutrientes. El desarrollo de este trabajo se centra en la implementación de un módulo de consumo de nutrientes en colonias de bacterias simuladas con GRO, introduciendo así la limitación de nutrientes y evitanto que las bacterias crezcan exponencialmente. Se han introducido nutrientes en el medio y la capacidad de consumirlos, con el objetivo de obtener un crecimiento ajustado al que ocurre en la naturaleza. Además, se ha desarrollado en GRO una nueva función de adquisición de volumen, que condiciona el volumen adquirido por cada bacteria en función de los nutrientes. La implentación de las dos aportaciones presentadas ha supuesto la adición de funcionalidad extra a GRO, convirtiéndolo en el único simulador de bacterias que tiene en cuenta el crecimiento bacteriano dependiente de nutrientes.---ABSTRACT---It has been in this last decade that the synthetic biology term began to be heard. This emergent area of study consists in the engineering and programming of biological systems, dealing with biology as a programable technology in which the engineering principles and methodologies are applied in order to create novel genetic functinalities from scratch, obtaining some advatages such as programmed bacteria in order to produce biofuels. However, to create this functionalities, it is necessary to know well the organisms in which they are going to be implemented. For this reason, synthetic biology researchers use bacteria, because it is the simplest life form, it can be found in almost all the ecological niche, it does some vital function to humans and, most important, almost all of its genetic information is known. Experiments are expensive in time and money, making it necessary to use tools to ease this task: the simulators. In PLASWIRES, the european synthetic biology project in which this work is included, the simulator used is GRO. However, the bacterial growth in GRO is exponential and it does not have restrictions, generating unrealistic behaviours. Therefore, it has been considered relevant in synthetic biology, and in a particular way in GRO, to provide a bacterial growth model dependent on nutrient. This work focuses on the implementation of a nutrient consumption module in bacteria colonies simulated with GRO, introducing a nuntrient limitation and avoiding the bacteria exponential growth. The module introduces nutrients and the capacity for bacteria to consume them, aiming to obtain realistic growth simulations that fit the observations made in nature. Moreover, an adquisition volumen function has been developed in GRO, determining the volumen depending on nutrients. This two contributions make GRO the only bacteria simulator that computes growth depending on nutrients
Resumo:
A raíz de la aparición de los procesadores dotados de varios “cores”, la programación paralela, un concepto que, por otra parte no era nada nuevo y se conocía desde hace décadas, sufrió un nuevo impulso, pues se creía que se podía superar el techo tecnológico que había estado limitando el rendimiento de esta programación durante años. Este impulso se ha ido manteniendo hasta la actualidad, movido por la necesidad de sistemas cada vez más potentes y gracias al abaratamiento de los costes de fabricación. Esta tendencia ha motivado la aparición de nuevo software y lenguajes con componentes orientados precisamente al campo de la programación paralela. Este es el caso del lenguaje Go, desarrollado por Google y lanzado en 2009. Este lenguaje se basa en modelos de concurrencia que lo hacen muy adecuados para abordar desarrollos de naturaleza paralela. Sin embargo, la programación paralela es un campo complejo y heterogéneo, y los programadores son reticentes a utilizar herramientas nuevas, en beneficio de aquellas que ya conocen y les son familiares. Un buen ejemplo son aquellas implementaciones de lenguajes conocidos, pero orientadas a programación paralela, y que siguen las directrices de un estándar ampliamente reconocido y aceptado. Este es el caso del estándar OpenMP, un Interfaz de Programación de Aplicaciones (API) flexible, portable y escalable, orientado a la programación paralela multiproceso en arquitecturas multi-core o multinucleo. Dicho estándar posee actualmente implementaciones en los lenguajes C, C++ y Fortran. Este proyecto nace como un intento de aunar ambos conceptos: un lenguaje emergente con interesantes posibilidades en el campo de la programación paralela, y un estándar reputado y ampliamente extendido, con el que los programadores se encuentran familiarizados. El objetivo principal es el desarrollo de un conjunto de librerías del sistema (que engloben directivas de compilación o pragmas, librerías de ejecución y variables de entorno), soportadas por las características y los modelos de concurrencia propios de Go; y que añadan funcionalidades propias del estándar OpenMP. La idea es añadir funcionalidades que permitan programar en lenguaje Go utilizando la sintaxis que OpenMP proporciona para otros lenguajes, como Fortan y C/C++ (concretamente, similar a esta última), y, de esta forma, dotar al usuario de Go de herramientas para programar estructuras de procesamiento paralelo de forma sencilla y transparente, de la misma manera que lo haría utilizando C/C++.---ABSTRACT---As a result of the appearance of processors equipped with multiple "cores ", parallel programming, a concept which, moreover, it was not new and it was known for decades, suffered a new impulse, because it was believed they could overcome the technological ceiling had been limiting the performance of this program for years. This impulse has been maintained until today, driven by the need for ever more powerful systems and thanks to the decrease in manufacturing costs. This trend has led to the emergence of new software and languages with components guided specifically to the field of parallel programming. This is the case of Go language, developed by Google and released in 2009. This language is based on concurrency models that make it well suited to tackle developments in parallel nature. However, parallel programming is a complex and heterogeneous field, and developers are reluctant to use new tools to benefit those who already know and are familiar. A good example are those implementations from well-known languages, but parallel programming oriented, and witch follow the guidelines of a standard widely recognized and accepted. This is the case of the OpenMP standard, an application programming interface (API), flexible, portable and scalable, parallel programming oriented, and designed for multi-core architectures. This standard currently has implementations in C, C ++ and Fortran. This project was born as an attempt to combine two concepts: an emerging language, with interesting possibilities in the field of parallel programming, and a reputed and widespread standard, with which programmers are familiar with. The main objective is to develop a set of system libraries (which includes compiler directives or pragmas, runtime libraries and environment variables), supported by the characteristics and concurrency patterns of Go; and that add custom features from the OpenMP standard. The idea is to add features that allow programming in Go language using the syntax OpenMP provides for other languages, like Fortran and C / C ++ (specifically, similar to the latter ), and, in this way, provide Go users with tools for programming parallel structures easily and, in the same way they would using C / C ++.
Resumo:
Durante la última década, se han llevado acabo numeroso estudios sobre la síntesis de materiales fotoluminiscentes sub-micrónicos, en gran medida, al amplio número de aplicaciones que demandan este tipo de materiales. En concreto dentro de los materiales fosforescentes o también denominados materiales con una prolongada persistencia de la luminiscencia, los estudios se han enfocado en la matriz de SrAl2O4 dopada con Europio (Eu2+) y Disprosio (Dy3+) dado que tiene mayor estabilidad y persistencia de la fosforescencia con respecto a otras matrices. Estos materiales se emplean mayoritariamente en pinturas luminiscentes, tintas, señalización de seguridad pública, cerámicas, relojes, textiles y juguetes fosforescentes. Dado al amplio campo de aplicación de los SrAl2O4:Eu, Dy, se han investigado múltiples rutas de síntesis como la ruta sol-gel, la síntesis hidrotermal, la síntesis por combustión, la síntesis láser y la síntesis en estado sólido con el fin de desarrollar un método eficiente y que sea fácilmente escalable. Sin embargo, en la actualidad el método que se emplea para el procesamiento a nivel industrial de los materiales basados en aluminato de estroncio es la síntesis por estado sólido, que requiere de temperaturas de entre 1300 a 1900oC y largos tiempos de procesamiento. Además el material obtenido tiene un tamaño de partícula de 20 a 100 μm; siendo este tamaño restrictivo para el empleo de este tipo de material en determinadas aplicaciones. Por tanto, el objetivo de este trabajo es el desarrollo de nuevas estrategias que solventen las actuales limitaciones. Dentro de este marco se plantean una serie de objetivos específicos: Estudio de los parámetros que gobiernan los procesos de reducción del tamaño de partícula mediante molienda y su relación en la respuesta fotoluminiscente. Estudio de la síntesis por combustión de SrAl2O4:Eu, Dy, evaluando el efecto de la temperatura y la cantidad de combustible (urea) en el proceso para la obtención de partículas cristalinas minimizando la presencia de fases secundarias. Desarrollo de nuevas rutas de síntesis de SrAl2O4:Eu, Dy empleando el método de sales fundidas. Determinación de los mecanismos de reacción en presencia de la sal fundida en función de los parámetros de proceso que comprende la relación de sales y reactivos, la naturaleza de la alúmina y su tamaño, la temperatura y atmósfera de tratamiento. Mejora de la eficiencia de los procesos de síntesis para obtener productos con propiedades finales óptimas en procesos factibles industrialmente para su transferencia tecnológica. Es este trabajo han sido evaluados los efectos de diferentes procesos de molienda para la reducción del tamaño de partícula del material de SrAl2O4:Eu, Dy comercial. En el proceso de molienda en medio húmedo por atrición se observa la alteración de la estructura cristalina del material debido a la reacción de hidrólisis generada incluso empleando como medio líquido etanol absoluto. Con el fin de solventar las desventajas de la molienda en medio húmedo se llevo a cabo un estudio de la molturación en seco del material. La molturación en seco de alta energía reduce significativamente el tamaño medio de partícula. Sin embargo, procesos de molienda superiores a una duración de 10 minutos ocasionan un aumento del estado de aglomeración de las partículas y disminuyen drásticamente la respuesta fotoluminiscente del material. Por tanto, se lleva a cabo un proceso de molienda en seco de baja energía. Mediante este método se consigue reducir el tamaño medio de partícula, d50=2.8 μm, y se mejora la homogeneidad de la distribución del tamaño de partícula evitando la amorfización del material. A partir de los resultados obtenidos mediante difracción de rayos X y microscopia electrónica de barrido se infiere que la disminución de la intensidad de la fotoluminiscencia después de la molienda en seco de alta energía con respecto al material inicial se debe principalmente a la reducción del tamaño de cristalito. Se observan menores variaciones en la intensidad de la fotoluminiscencia cuando se emplea un método de molienda de baja de energía ya que en estos procesos se preserva el dominio cristalino y se reduce la amorfización significativamente. Estos resultados corroboran que la intensidad de la fotoluminiscencia y la persistencia de la luminiscencia de los materiales de SrAl2O4:Eu2+, Dy3+ dependen extrínsecamente de la morfología de las partículas, del tamaño de partícula, el tamaño de grano, los defectos superficiales e intrínsecamente del tamaño de cristalito. Siendo las características intrínsecas las que dominan con respecto a las extrínsecas y por tanto tienen mayor relevancia en la respuesta fotoluminiscente. Mediante síntesis por combustión se obtuvieron láminas nanoestructuradas de SrAl2O4:Eu, Dy de ≤1 μm de espesor. La cantidad de combustible, urea, en la reacción influye significativamente en la formación de determinadas fases cristalinas. Para la síntesis del material de SrAl2O4:Eu, Dy es necesario incluir un contenido de urea mayor que el estequiométrico (siendo m=1 la relación estequiométrica). La incorporación de un exceso de urea (m>1) requiere de la presencia de un agente oxidante interno, HNO3, para que la reacción tenga lugar. El empleo de un mayor contenido de urea como combustible permite una quelación efectiva de los cationes en el sistema y la creación de las condiciones reductoras para obtener un material de mayor cristalinidad y con mejores propiedades fotoluminiscentes. El material de SrAl2O4:Eu, Dy sintetizado a una temperatura de ignición de 600oC tiene un tamaño medio 5-25 μm con un espesor de ≤1 μm. Mediante procesos de molturación en seco de baja energía es posible disminuir el tamaño medio de partícula ≈2 μm y homogenizar la distribución del tamaño de partícula pero hay un deterioro asociado de la respuesta luminiscente. Sin embargo, se puede mejorar la respuesta fotoluminiscente empleando un tratamiento térmico posterior a 900oC N2-H2 durante 1 hora que no supone un aumento del tamaño de partícula pero si permite aumentar el tamaño de cristalito y la reducción del Eu3+ a Eu2+. Con respecto a la respuesta fotoluminiscente, se obtiene valores de la intensidad de la fotoluminiscencia entre un 35%-21% con respecto a la intensidad de un material comercial de referencia. Además la intensidad inicial del decaimiento de la fosforescencia es un 20% de la intensidad del material de referencia. Por tanto, teniendo en cuenta estos resultados, es necesario explorar otros métodos de síntesis para la obtención de los materiales bajo estudio. Por esta razón, en este trabajo se desarrollo una ruta de síntesis novedosa para sintetizar SrAl2O4:Eu, Dy mediante el método de sales fundidas para la obtención de materiales de gran cristalinidad con tamaños de cristalito del orden nanométrico. Se empleo como sal fundente la mezcla eutéctica de NaCl y KCl, denominada (NaCl-KCl)e. La principal ventaja de la incorporación de la mezcla es el incremento la reactividad del sistema, reduciendo la temperatura de formación del SrAl2O4 y la duración del tratamiento térmico en comparación con la síntesis en estado sólido. La formación del SrAl2O4 es favorecida ya que se aumenta la difusión de los cationes de Sr2+ en el medio líquido. Se emplearon diferentes tipos de Al2O3 para evaluar el papel del tamaño de partícula y su naturaleza en la reacción asistida por sales fundidas y por tanto en la morfología y propiedades del producto final. Se obtuvieron partículas de morfología pseudo-esférica de tamaño ≤0.5 μm al emplear como alúmina precursora partículas sub-micrónicas ( 0.5 μm Al2O3, 0.1 μm Al2 O3 y γ-Al2O3). El mecanismo de reacción que tiene lugar se asocia a procesos de disolución-precipitación que dominan al emplear partículas de alúmina pequeñas y reactivas. Mientras al emplear una alúmina de 6 μm Al2O3 prevalecen los procesos de crecimiento cristalino siguiendo un patrón o plantilla debido a la menor reactividad del sistema. La nucleación y crecimiento de nanocristales de SrAl2O4:Eu, Dy se genera sobre la superficie de la alúmina que actúa como soporte. De esta forma se desarrolla una estructura del tipo coraza-núcleo («core-shell» en inglés) donde la superficie externa está formada por los cristales fosforescentes de SrAl2O4 y el núcleo está formado por alúmina. Las partículas obtenidas tienen una respuesta fotoluminiscente diferente en función de la morfología final obtenida. La optimización de la relación Al2O3/SrO del material de SrAl2O4:Eu, Dy sintetizado a partir de la alúmina de 6 μm permite reducir las fases secundarias y la concentración de dopantes manteniendo la respuesta fotoluminiscente. Comparativamente con un material comercial de SrAl2O4:Eu, Dy de referencia, se han alcanzado valores de la intensidad de la emisión de hasta el 90% y de la intensidad inicial de las curvas de decaimiento de la luminiscencia de un 60% para el material sintetizado por sales fundidas que tiene un tamaño medio ≤ 10μm. Por otra parte, es necesario tener en cuenta que el SrAl2O4 tiene dos polimorfos, la fase monoclínica que es estable a temperaturas inferiores a 650oC y la fase hexagonal, fase de alta temperatura, estable a temperaturas superiores de 650oC. Se ha determinado que fase monoclínica presenta propiedades luminiscentes, sin embargo existen discordancias a cerca de las propiedades luminiscentes de la fase hexagonal. Mediante la síntesis por sales fundidas es posible estabilizar la fase hexagonal empleando como alúmina precursora γ-Al2O3 y un exceso de Al2O3 (Al2O3/SrO:2). La estabilización de la fase hexagonal a temperatura ambiente se produce cuando el tamaño de los cristales de SrAl2O4 es ≤20 nm. Además se observó que la fase hexagonal presenta respuesta fotoluminiscente. El diseño de materiales de SrAl2O4:Eu,Dy nanoestructurados permite modular la morfología del material y por tanto la intensidad de la de la fotoluminiscencia y la persistencia de la luminiscencia. La disminución de los materiales precursores, la temperatura y el tiempo de tratamiento significa la reducción de los costes económicos del material. De ahí la viabilidad de los materiales de SrAl2O4:Eu,Dy obtenidos mediante los procesos de síntesis propuestos en esta memoria de tesis para su posterior escalado industrial. ABSTRACT The synthesis of sub-micron photoluminescent particles has been widely studied during the past decade because of the promising industrial applications of these materials. A large number of matrices has been developed, being SrAl2O4 host doped with europium (Eu2+) and dysprosium (Dy3+) the most extensively studied, because of its better stability and long-lasting luminescence. These functional inorganic materials have a wide field of application in persistent luminous paints, inks and ceramics. Large attention has been paid to the development of an efficient method of preparation of SrAl2O4 powders, including solgel method, hydrothermal synthesis, laser synthesis, combustion synthesis and solid state reaction. Many of these techniques are not compatible with large-scale production and with the principles of sustainability. Moreover, industrial processing of highly crystalline powders usually requires high synthesis temperatures, typically between 1300 a 1900oC, with long processing times, especially for solid state reaction. As a result, the average particle size is typically within the 20-100 μm range. This large particle size is limiting for current applications that demand sub-micron particles. Therefore, the objective of this work is to develop new approaches to overcome these limitations. Within this frame, it is necessary to undertake the following purposes: To study the parameters that govern the particle size reduction by milling and their relation with the photoluminescence properties. To obtain SrAl2O4:Eu, Dy by combustion synthesis, assessing the effect of the temperature and the amount of fuel (urea) to synthesize highly crystalline particles minimizing the presence of secondary phases. To develop new synthesis methods to obtain SrAl2O4:Eu, Dy powders. The molten salt synthesis has been proposed. As the method is a novel route, the reaction mechanism should be determine as a function of the salt mixture, the ratio of the salt, the kind of Al2O3 and their particle size and the temperature and the atmosphere of the thermal treatment. To improve the efficiency of the synthesis process to obtain SrAl2O4:Eu, Dy powders with optimal final properties and easily scalable. On the basis of decreasing the particle size by using commercial product SrAl2O4:Eu2+, Dy3+ as raw material, the effects of different milling methods have been evaluated. Wet milling can significantly alter the structure of the material through hydrolysis reaction even in ethanol media. For overcoming the drawbacks of wet milling, a dry milling-based processes are studied. High energy dry milling process allows a great reduction of the particle size, however milling times above 10 min produce agglomeration and accelerates the decrease of the photoluminescence feature. To solve these issues the low energy dry milling process proposed effectively reduces the particle size to d50=2.8 μm, and improves the homogeneity avoiding the amorphization in comparison with previous methods. The X-ray diffraction and scanning electron microscope characterization allow to infer that the large variations in PL (Photoluminescence) values by high energy milling process are a consequence mainly of the crystallite size reduction. The lesser variation in PL values by low energy milling proces is related to the coherent crystalline domain preservation and the unnoticeable amorphization. These results corroborate that the photoluminescence intensity and the persistent luminescence of the SrAl2O4:Eu2+, Dy3+ powders depend extrinsically on the morphology of the particles such as particle size, grain size, surface damage and intrinsically on the crystallinity (crystallite size); being the intrinsically effects the ones that have a significant influence on the photoluminescent response. By combustion method, nanostructured SrAl2O4:Eu2+, Dy3+ sheets with a thickness ≤1 μm have been obtained. The amount of fuel (urea) in the reaction has an important influence on the phase composition; urea contents larger than the stoichiometric one require the presence of an oxidant agent such as HNO3 to complete the reaction. A higher amount of urea (excess of urea: denoted m>1, being m=1 the stoichiometric composition) including an oxidizing agent produces SrAl2O4:Eu2+,Dy3+ particles with persistent luminescence due to the effective chelation of the cations and the creation of suitable atmospheric conditions to reduce the Eu3+ to Eu2+. Therefore, optimizing the synthesis parameters in combustion synthesis by using a higher amount of urea and an internal oxidizing agent allows to complete the reaction. The amount of secondary phases can be significantly reduced and the photoluminescence response can be enhanced. This situation is attributed to a higher energy that improves the crystallinity of the powders. The powders obtained have a particle size c.a. 5-25 μm with a thickness ≤1 μm and require relatively low ignition temperatures (600oC). It is possible to reduce the particle size by a low energy dry milling but this process implies the decrease of the photoluminescent response. However, a post-thermal treatment in a reducing atmosphere allows the improvement of the properties due to the increment of crystallinity and the reduction of Eu3+ to Eu2+. Compared with the powder resulted from solid state method (commercial reference: average particle size, 20 μm and heterogeneous particle size distribution) the emission intensity of the powder prepared by combustion method achieve the values between 35% to 21% of the reference powder intensity. Moreover, the initial intensity of the decay curve is 20% of the intensity of the reference powder. Taking in account these results, it is necessary to explore other methods to synthesize the powders For that reason, an original synthetic route has been developed in this study: the molten salt assisted process to obtain highly crystalline SrAl2O4 powders with nanometric sized crystallites. The molten salt was composed of a mixture of NaCl and KCl using a 0.5:0.5 molar ratio (eutectic mixture hereafter abbreviated as (NaCl-KCl)e). The main advantages of salt addition is the increase of the reaction rate, the significant reduction of the synthesis temperature and the duration of the thermal treatment in comparison with classic solid state method. The SrAl2O4 formation is promoted due to the high mobility of the Sr2+ cations in the liquid medium. Different kinds of Al2O3 have been employed to evaluate the role of the size and the nature of this precursor on the kinetics of reaction, on the morphology and the final properties of the product. The SrAl2O4:Eu2+, Dy3+ powders have pseudo-spherical morphology and particle size ≤0.5 μm when a sub-micron Al2O3 ( 0.5 μm Al2O3, 0.1 μm Al2O3 and γ-Al2O3) has been used. This can be attributed to a higher reactivity in the system and the dominance of dissolution-precipitation mechanism. However, the use of larger alumina (6 μm Al2O3) modifies the reaction pathway leading to a different reaction evolution. More specifically, the growth of SrAl2O4 sub-micron particles on the surface of hexagonal platelets of 6μm Al2O3 is promoted. The particles retain the shape of the original Al2O3 and this formation process can be attributed to a «core-shell» mechanism. The particles obtained exhibit different photoluminescent response as a function of the final morphology of the powder. Therefore, through this study, it has been elucidated the reaction mechanisms of SrAl2O4 formation assisted by (NaCl-KCl)e that are governed by the diffusion of SrCO3 and the reactivity of the alumina particles. Optimizing the Al2O3/SrO ratio of the SrAl2O4:Eu, Dy powders synthesized with 6 μm Al2O3 as a precursor, the secondary phases and the concentration of dopant needed can be reduced keeping the photoluminescent response of the synthesized powder. Compared with the commercial reference powder, up to 90% of the emission intensity of the reference powder has been achieved for the powder prepared by molten salt method using 6μm Al2O3 as alumina precursor. Concerning the initial intensity of the decay curve, 60% of the initial intensity of the reference powder has been obtained. Additionally, it is necessary to take into account that SrAl2O4 has two polymorphs: monoclinic symmetry that is stable at temperatures below 650oC and hexagonal symmetry that is stable above this temperature. Monoclinic phase shows luminescent properties. However, there is no clear agreement on the emission of the hexagonal structure. By molten salt, it is possible to stabilize the hexagonal phase of SrAl2O4 employing an excess of Al2O3 (Al2O3/SrO: 2) and γ-Al2O3 as a precursor. The existence of nanometric crystalline domains with lower size (≤20 nm) allows the stabilization of the hexagonal phase. Moreover, it has been evidenced that the hexagonal polymorph exhibits photoluminescent response. To sum up, the design of nanostructured SrAl2O4:Eu2+, Dy3+ materials allows to obtain different morphologies and as consequence different photoluminescent responses. The reduction of temperature, duration of the thermal treatment and the precursors materials needed imply the decrease of the economic cost of the material. Therefore, the viability, suitability and scalability of the synthesis strategy developed in this work to process SrAl2O4:Eu2+, Dy3+ are demonstrated.
Resumo:
El mundo de la web admite actualmente los productos desarrollados tanto por desarrolladores profesionales como por usuarios finales con un conocimiento más limitado. A pesar de la diferencia que se puede suponer de calidad entre los productos de ambos, las dos soluciones pueden ser reconocidas y empleadas en una aplicación. En la Web 2.0, este comportamiento se observa en el desarrollo de componentes web. Lo que se persigue en el trabajo es desarrollar un modelo de persistencia que, apoyado por un lado servidor y por uno cliente, recoja las métricas de calidad de los componentes cuando los usuarios interaccionan con ellos. A partir de estas métricas, es posible mejorar la calidad de estos componentes. La forma en la que se van a recoger las métricas es a través de PicBit, la aplicación desarrollada para que los usuarios puedan interconectar diferentes componentes entre ellos sin restricciones, de forma que tras interactuar con ellos puedan expresar su grado de satisfacción, que se recoge para la evaluación de la calidad. Se definen también unas métricas intrínsecas al componente, no determinadas por el usuario y que sirven como referencia de la evaluación. Cuando se tienen tanto las métricas intrínsecas como procedentes del usuario, se realiza una correlación entre ellas que permite analizar las posibles desviaciones entre ellas y determinar la calidad propia del componente. Las conclusiones que se pueden obtener del trabajo es que cuando los usuarios pueden realizar pruebas de usabilidad de forma libre, sin restricciones, es mayor la posibilidad de obtener resultados favorables porque estos resultados muestran cómo usará un usuario final la aplicación. Este método de trabajo se ve favorecido por el número de herramientas que se pueden utilizar hoy para monitorizar el flujo de usuario en el servicio.---ABSTRACT---Nowadays, the web world deals with products developed both by professional developers and by end-users with some limited knowledge. Although the difference between both can be important in quality terms, both are accepted and included in web applications. In web 2.0, this behavior can be recognized in the web components development. The goal pursued in the work presented is to create a persistent model that, supported by an end and a back side, will pick the quality measures of the components when the users interact with them. These measures are the starting point for improving the components. The way in which the measures are going to be picked is through PicBit, the application we have developed in order to allow the users playing with the components without restrictions or rules, so after the interaction they can give their satisfaction mark with the application. This will be the value used to evaluate the quality. Some own measures are also defined, which does not depend on the user and which will be used as a reference point of the evaluation. When the measures from users and own ones are got, their correlation is analyzed to study the differences between them and to establish the quality of the component. The conclusion that can be gained from the project is the importance of giving freedom for users when doing usability tests because it increases the chance to get positive results, in the way the users execute the operations they want with the application. This method is fortunate for having such a number of tools to monitor the user flow when using the service.
Resumo:
Se plantea desarrollar una herramienta que ofrezca un soporte eficiente para la creación y el diseño de protocolos biológicos a los investigadores en biología sintética. Partiendo de este objetivo, se definen dos cometidos principales: Realizar un estudio de las herramientas existentes que ofrezcan soporte al diseño y aquellas pensadas para diseñar protocolos biológicos, el fin de este estudio es descubrir las funcionalidades que implementan estas herramientas para mejorarlas. Además, se ha de desarrollar una herramienta web que, mediante un lenguaje visual, permita diseñar y crear protocolos de biología sintética, guardándolos en un formato de archivo independiente del lenguaje. En este documento se encuentra, en primer lugar, la definición de objetivos y la descripción del método de desarrollo seguido durante la implementación del proyecto; después, el marco teórico, donde se exponen las herramientas estudiadas y las similitudes y diferencias con la idea que se tiene de la aplicación, y también las herramientas de desarrollo web con las que se va a implementar el proyecto. A continuación, se muestran los resultados obtenidos, mediante la definición de requisitos, así como una exposición de la propia herramienta. Por último, se encuentra la estrategia de validación que se ha seguido en el desarrollo del proyecto y se exponen las conclusiones obtenidas de estas validaciones; también se incluyen al final las conclusiones del proyecto y las líneas futuras de desarrollo.---ABSTRACT---It is planned to develop a tool that provides efficient support for the creation and design of biological protocols researchers in synthetic biology. Based on this goal, two main tasks are defined: Conduct a study of existing tools that provide design support and those intended to design biological protocols, the purpose of this study is to discover the functionalities that implement these tools to improve them. Furthermore, it has to develop a web tool that, through a visual language, allowing design and create synthetic biology protocols, storing them in an independent language file format. In this document is located, first, the definition of objectives and description of the development method followed during project implementation; then the theoretical framework where tools and studied the similarities and differences with the idea we have of the application are discussed, and development tools with which they will implement the project. Then the results obtained, by defining requirements as well as an exhibition of the own tool. Finally, the validation strategy that has been followed in the development of the project and the conclusions drawn from these validations are exposed; also, it is included at the end of the project conclusions and future lines of development.
Resumo:
La web vive un proceso de cambio constante, basado en una interacción mayor del usuario. A partir de la actual corriente de paradigmas y tecnologías asociadas a la web 2.0, han surgido una serie de estándares de gran utilidad, que cubre la necesidad de los desarrollos actuales de la red. Entre estos se incluyen los componentes web, etiquetas HTML definidas por el usuario que cubren una función concreta dentro de una página. Existe una necesidad de medir la calidad de dichos desarrollos, para discernir si el concepto de componente web supone un cambio revolucionario en el desarrollo de la web 2.0. Para ello, es necesario realizar una explotación de componentes web, considerada como la medición de calidad basada en métricas y definición de un modelo de interconexión de componentes. La plataforma PicBit surge como respuesta a estas cuestiones. Consiste en una plataforma social de construcción de perfiles basada en estos elementos. Desde la perspectiva del usuario final se trata de una herramienta para crear perfiles y comunidades sociales, mientras que desde una perspectiva académica, la plataforma consiste en un entorno de pruebas o sandbox de componentes web. Para ello, será necesario implementar el extremo servidor de dicha plataforma, enfocado a la labor de explotación, por medio de la definición de una interfaz REST de operaciones y un sistema para la recolección de eventos de usuario en la plataforma. Gracias a esta plataforma se podrán discernir qué parámetros influyen positivamente en la experiencia de uso de un componente, así como descubrir el futuro potencial de este tipo de desarrollos.---ABSTRACT---The web evolves into a more interactive platform. From the actual version of the web, named as web 2.0, many paradigms and standards have arisen. One of those standards is web components, a set of concepts to define new HTML tags that covers a specific function inside a web page. It is necessary to measure the quality of this kind of software development, and the aim behind this approach is to determine if this new set of concepts would survive in the actual web paradigm. To achieve this, it is described a model to analyse components, in the terms of quality measure and interconnection model description. PicBit consists of a social platform to use web components. From the point of view of the final user, this platform is a tool to create social profiles using components, whereas from the point of view of technicians, it consists of a sandbox of web components. Thanks to this platform, we will be able to discover those parameters that have a positive effect in the user experience and to discover the potential of this new set of standards into the web 2.0.
Resumo:
La web ha evolucionado hacia la participación en la creación de contenido tanto por desarrolladores expertos como por usuarios finales sin un gran conocimiento en esta área. A pesar de que su uso es igual de válido y funcional, las diferencias entre la calidad de los productos desarrollados por ambos puede llegar a ser considerable. Esta característica se observa con mayor claridad cuando se analizan los web components. El trabajo consiste en el desarrollo de un entorno capaz de recoger las métricas de calidad de los componentes, basadas en la interacción con ellos por parte de los usuarios. A partir de las métricas obtenidas, se determinará su calidad para realizar una mejora de la misma, en función de las características valoradas. La selección de las métricas se realiza mediante un estudio de las características que definen a un componente, y permiten ser analizadas. Para poder llevar a cabo la construcción del portal, se ha descrito un prototipo capaz de proporcionar un sistema para permitir que los componentes intercambien información entre ellos. El modelo ha sido integrado en los componentes que se han de evaluar para obtener nuevas métricas sobre esta característica. Se ha desarrollado un dashboard que permite la interacción sin limitaciones de los usuarios con los componentes, facilitándoles un sistema para conectar componentes, utilizando para ello el sistema previamente descrito. Como conclusión del trabajo, se puede observar la necesidad de integrar los componentes web en un entorno real para poder determinar su calidad. Debido a que la calidad está determinada por los usuarios que consumen los componentes, se ha de contar con su opinión en la cuantificación de la misma.---ABSTRACT---Recently, the web has evolved to the collaboration between professional developers and end users with limited knowledge to create web content. Although both solutions are correct and functional, the differences in the quality between them can be appreciable. This feature is shown clearly when the web components are analyzed. The work is composed of the development of a virtual environment which is able to pick the quality measures of the components, based on the interaction between these components and the user. The measures are the starting point to decide the quality, and improve them with the rated measures. The measures selection is done through a study of the main features of a component. This selection can be analyzed. In order to create the website, a prototype has been specified to provide a system in which the components can be trade information between them. The interconnection model has been integrated in the components to evaluate. A dashboard has been developed to allow users interacting with the components without rules, making them possible connecting components through the model. The main conclusion of the work is the necessity of integrating web components in a real environment to decide their quality. Due to the fact that the quality is measured in terms of the rate of the users, it is a must to give them the main roles in the establishment of that quality.
Resumo:
El presente Trabajo Fin de Grado (TFG) surge de la necesidad de disponer de tecnologías que faciliten el Procesamiento de Lenguaje Natural (NLP) en español dentro del sector de la medicina. Centrado concretamente en la extracción de conocimiento de las historias clínicas electrónicas (HCE), que recogen toda la información relacionada con la salud del paciente y en particular, de los documentos recogidos en dichas historias, pretende la obtención de todos los términos relacionados con la medicina. El Procesamiento de Lenguaje Natural permite la obtención de datos estructurados a partir de información no estructurada. Estas técnicas permiten un análisis de texto que genera etiquetas aportando significado semántico a las palabras para la manipulación de información. A partir de la investigación realizada del estado del arte en NLP y de las tecnologías existentes para otras lenguas, se propone como solución un módulo de anotación de términos médicos extraídos de documentos clínicos. Como términos médicos se han considerado síntomas, enfermedades, partes del cuerpo o tratamientos obtenidos de UMLS, una ontología categorizada que agrega distintas fuentes de datos médicos. Se ha realizado el diseño y la implementación del módulo así como el análisis de los resultados obtenidos realizando una evaluación con treinta y dos documentos que contenían 1372 menciones de terminología médica y que han dado un resultado medio de Precisión: 70,4%, Recall: 36,2%, Accuracy: 31,4% y F-Measure: 47,2%.---ABSTRACT---This Final Thesis arises from the need for technologies that facilitate the Natural Language Processing (NLP) in Spanish in the medical sector. Specifically it is focused on extracting knowledge from Electronic Health Records (EHR), which contain all the information related to the patient's health and, in particular, it expects to obtain all the terms related to medicine from the documents contained in these records. Natural Language Processing allows us to obtain structured information from unstructured data. These techniques enable analysis of text generating labels providing semantic meaning to words for handling information. From the investigation of the state of the art in NLP and existing technologies in other languages, an annotation module of medical terms extracted from clinical documents is proposed as a solution. Symptoms, diseases, body parts or treatments are considered part of the medical terms contained in UMLS ontology which is categorized joining different sources of medical data. This project has completed the design and implementation of a module and the analysis of the results have been obtained. Thirty two documents which contain 1372 mentions of medical terminology have been evaluated and the average results obtained are: Precision: 70.4% Recall: 36.2% Accuracy: 31.4% and F-Measure: 47.2%.
Resumo:
En el departamento de Ocio Digital de bq se desarrollan multitud de proyectos con diferentes modelos de negocio y diferentes stack tecnológicos. Para llevar a cabo todos estos proyectos, es necesario tener un ecosistema de desarrollo lo más unificado y centralizado posible. Por eso, en el departamento existe una plataforma genérica de servicios REST sobre la que se apoyan todos los aplicativos desarrollados. Para agilizar y facilitar la integración de los aplicativos con la plataforma de servicios,se desarrolla este SDK (Software Development Kit) basado en JavaScript llamado corbel-js. Este SDK ha de funcionar tanto en aplicaciones web, como en un middleware basado en node.js desarrollado también en la organización, por lo que el SDK se ha desarrollado de forma híbrida, siendo capaz de ejecutarse tanto en en el lado del cliente, como en el lado del servidor. Además, como parte de la filosofía del departamento, el desarrollo del SDK está basado en tecnologías Open Source, usando metodologías ágiles de desarrollo y un sistema de integración continua y revisión de código, garantizando la calidad del mismo. ABSTRACT A lot of different kinds of software projects are developed in the digital department of bq. To easily develop all of these projects, each one with its own business model and technology stack, it is necessary to have an unique software ecosystem. Because of that, in the software department a generic service REST platform has been developed. To support an easy integration of the applications with the service platform of the organization, this SDK(Software Development Kit) has been developed in JavaScript. As the SDK has to run under a web application and under a software middleware based in node.js, also developed in the organization, the SDK is hybrid, being capable of run inside a web client application or inside a node.js application server. As a part of the software philosophy of the department, the development of the SDK is made with a whole open source software stack, using agile software methodologies.
Resumo:
La revolución industrial, en todas sus etapas, supuso un cambio que afectó de lleno a la actividad comercial en la ciudad, produciéndose paulatinamente, una separación radical entre los lugares de producción de bienes manufacturados y los de intercambio. Estos últimos, van especializándose, desde las primeras agrupaciones de comercios en pequeños mercados, hasta una de las formas más evolucionadas de superficie comercial en la actualidad, los Parques Comerciales. En base a que actualmente, no hay estudios concluyentes sobre la manera de abordar estos nuevos espacios, se ha considerado el estudio de 17 Parques Comerciales representativos españoles, de este se han obtenido datos según su planeamiento, de los cuales se ha postulado una división de los Parques Comerciales en los que tienen ordenación exclusiva y los que se han desarrollado sin ordenación exclusiva, de la misma manera, se han dividido cada uno de ellos en los que se considera parcela de aparcamiento y en los que la parcela de aparcamiento está incluida en la parcela a edificar, de este manera se han obtenido unos parámetros de dimensionamiento representativos para cada uno de los casos considerados, que van a servir de orientación para el responsable de futuros planeamientos, tales como usos, parámetros de ordenación, distribución urbanística, aparcamientos, etc. También se realiza una clasificación de los Parques Comerciales en función de las dimensiones de las "medianas comerciales" que los corforman. La Tesis postula una nueva definición de Parque Comercial más completa y adaptada a la importancia de este formato comercial, así como unas recomendaciones para su diseño y desarrollo en base a los parámetros urbanísticos obtenidos. Se desarrolla en la Tesis el horizonte previsible de los Parques Comerciales y las posibles nuevas líenas de investigación. The industrial revolution, in all its stages, marked a change that would have a major impact on commercial activity in cities, gradually producing a radical separation between the production sites of manufacturated goods and those of trading goods. The latter are becoming increasingly specialized, from the first trade associations in small markets, up to what is now one of the most highly evolved forms of retail spaces, the Commercial Parks. On the grounds that there are currently no conclusive studies on the manner in which to address these new spaces, a study of 17 prominent Spanish Commercial Parks has been considered, from which data has been obtained based on the way in which they were planned. It has been proposed that these Commercial Parks be divided into those that have been developed without exclusive planning. Likewise, each of these has been divided into those considered as parking lots and those in which the parking area is included in the building plot. In this manner, representative sizing parameters have been obtained for each of the cases considered, which will act as guidelines for the person in charge of future proposals, such as uses, development parameters, town planning, parking, etc. The Commercial Parks have also been classified according to the sizes of the "mid-sized stores" that comprise them. The Thesis proposes a new definition of the Commercial Park, which is more comprehensive and better adapted to the importance of this commercial format, as well as recommendations for design and development based on the urban planning parameters obtained. The Thesis explores the foresseable horizon of Commercial Parks and potential new lines of research.
Resumo:
A la hora de afrontar un proyecto de investigación, no basta con una vigilancia tradicional del entorno. Ya que debido a lo cambiante del mundo, a la globalización, a lo rápido que se desarrollan nuevas tecnologías y productos es preciso realizar un proceso sistemático que permita a las organizaciones o empresas anticiparse a los cambios tecnológicos. En este contexto, el diseño de metodologías basadas en la Vigilancia Tecnológica (VT) permite gestionar la actividad innovadora de organizaciones o empresas facilitando el proceso de generación de ideas para el desarrollo de productos o servicios. Es por ello que en este Proyecto de Fin de Grado se ha diseñado una estrategia para aplicar metodologías de Vigilancia Tecnológica aplicadas a un proyecto de I+D que estudia las Interfaces Naturales de Usuario (NUI). Para ello se ha partido de la metodología de trabajo basada en el proceso de Vigilancia Tecnológica e Inteligencia Competitiva del proyecto CETISME, identificando claramente cada una de las fases que lo componen: identificación de objetivos, selección de las fuentes de información, búsqueda y almacenamiento de la información, análisis de la información y por último validación de la información que concluye con la creación de informes de Vigilancia Tecnológica. Por lo tanto, para cada una de las fases que componen lo que comúnmente se llama el ciclo de la vigilancia, se ha explicado en primer lugar en qué consisten, que estrategias a seguir son las más adecuadas así como la manera de llevarlas a cabo, y por último, si fuera necesario, qué herramientas (desde bases de datos a software) son necesarias o son de utilidad para llevar a cabo el proceso y optimizarlo. De esta manera, como se verá a lo largo de este documento, la aplicación de dicha metodología permitirá a las organizaciones o empresas obtener situaciones ventajosas a la hora de innovar, captar oportunidades o detectar amenazas, identificar competidores o alianzas potenciales, entre otros. ABSTRACT. When taking over a research project, a traditional surveillance of the environment is not enough. Mainly due to the changing the world, to the globalization, to how fast new technologies and products are developed, is necessary to make a systematic process that enables organizations or companies anticipate to technological changes. In this context, the design of methodologies based on the Technology Watch (TW) allows managing the innovative activity of organizations or companies facilitating the process of generating ideas for products or services development. For this reason, in this Thesis a strategy for applying Technological Watch methodologies applied to a R&D project studying Natural User Interfaces (NUI) has been designed. To achieve this goal, the starting point was the CETISME project methodologies, which are based on the Technology Watch and the Competitive Intelligence process, clearly identifying each of the phases that compose it: identification of objectives, selection of the information sources, storage, search and analysis of the information, and finally validating the information that concludes with the creation of Technological Watch reports. Therefore, for each of the phases composing what is commonly known as the monitoring cycle, it has been explained in first place what they consist of, what strategies are more adequate as well as how they should be implemented, and finally, if necessary, what tools (from databases to software) are needed or are useful for managing the process and optimize it. Thus, as discussed throughout this document, the application of said methodology will allow organizations or companies to obtain advantageous situations when it comes to innovate, catch opportunities or detect threats, to identify competitors or potential alliances, among others.
Resumo:
Desde su aparición en los años 50, los videojuegos han estado muy presentes en la vida de los jóvenes. Un mercado que nunca se ha mantenido estático, donde la revolución científica vivida en el siglo XX ha colaborado en su gran evolución. Empezando por un juego implementado en una máquina de rayos catódicos, pasando por las recreativas, hasta meterse en los hogares de cualquier familia con los PC y videoconsolas. Contando además con una calidad gráfica que hace difícil diferenciar hoy en día entre realidad y mundo virtual. Pero no sólo los videojuegos están concebidos para el ocio y desconectar de la realidad. Existe un concepto llamado “gamification”, una técnica que busca el transmitir conocimientos, ayudar a personas con discapacidades, facilitar las rehabilitaciones, etc… transformando actividades que puedan parecer aburridas, en algo divertido. Aquí es donde entran los juegos serios, juegos que buscan tales objetivos. Dado que los videojuegos hoy en día están muy metidos en la sociedad, y cada vez llegan a más público de distintas edades y género. Hemos elegido este proyecto para fomentar la creación de videojuegos serios, a través de un tutorial completo con el motor gráfico Unity, intentando usar el mayor número de herramientas posible. ABSTRACT. From the beginning in the 1950s, video games have played an important role in young people’s life. A market that has never been static, where scientific revolution lived in the twentieth century has contributed to a great evolution. Starting from a game implemented on a cathode ray machine, reaching arcade rooms and then getting into families with PCs and consoles. Nowadays the graphic quality makes difficult to differentiate between reality and the virtual world. Not only video games are designed for leisure and to disconnect from the real world for a while. There is a concept called “gamification”, a technique which tends to transmit knowledge, give help to people with disabilities, facilitate rehab, etc. Transforming activities, which might seem boring into fun ones. This is where serious games take place, games looking for the goals mentioned. Since nowadays video games are completely set in our society, and increasing a wider public with different ages and gender, this project has been chosen to promote the creation of serious video games, through a complete tutorial with the game engine - Unity - attempting to use as many tools as it can be possible.
Resumo:
Actualmente en España, y en toda Europa en general, contamos con un gran Patrimonio Industrial que ya ha comenzado a deteriorase y a verse afectado por el transcurso del tiempo. Desde hace unos años, estos edificios tienen gran interés, tanto desde el punto de vista arquitectónico, como cultural, y por ello, ha incrementado la preocupación por su conservación y restauración. Es por ello que se han desarrollado documentos y leyes que ayudan a regular la gestión de nuestro patrimonio y que están poniendo un gran interés en que se elaboren inventarios que nos permitan conocer cuáles son esos edificios y en qué estado se encuentran, con el fin de lograr su conservación. Surgen por tanto, diferentes proyectos de rehabilitación del Patrimonio Industrial que tienen como propósito, no sólo la conservación de los mismos, sino también darles una nueva vida, un reuso que consiga que estos edificios no pierdan su interés o que caigan en el olvido. En este trabajo se muestran cuáles están siendo las nuevas iniciativas que tienen como propósito rehabilitar edificios del Patrimonio Industrial de España conservando sus valores arquitectónicos e históricos y que a su vez se adaptan a la situación actual de la arquitectura y de nuestro país. Aproximándose a esta idea desde el marco más teórico, se estudian diferentes estrategias y métodos de intervención en estos edificios y de una manera más profunda, aquellos proyectos que incluyen la participación ciudadana en el proceso. Para el estudio de la gestión y el funcionamiento de este tipo de estrategia, se ha seleccionado La Campaneta, un proyecto de rehabilitación de la Antigua Fábrica de Cerámica del municipio de Onda, en Castellón, incluido en el Plan Especial del Centro Histórico de Onda y que se encuentra en sus primeras etapas de intervención.