959 resultados para Adicción al trabajo


Relevância:

80.00% 80.00%

Publicador:

Resumo:

La evolución de la maquinaria agrícola en el siglo XX ha sido tan espectacular que, de los tres grandes avances habidos a lo largo de la historia de la maquinaria agrícola, dos de ellos podemos considerar que marcan el comienzo y el fin del siglo XX. El primer avance fundamental se dio el día en que el hombre que removía la tierra golpeándola con una herramienta tipo azada decidió avanzar con ella introducida en el suelo venciendo la fuerza de tiro. Nació así el arado en un tiempo indeterminado de la prehistoria. Esa primera máquina y las pocas que en muchos siglos después se diseñaron para trabajar la tierra estaban accionadas por esfuerzo muscular, ya fuera el del hombre o de los animales de tiro. El siguiente paso decisivo, que libra al hombre de la necesidad de contar con fuerza muscular para trabajar el campo, se dio al aplicar a la agricultura la energía generada por motores que consumen combustibles. Aunque a lo largo del siglo XIX se construyeron máquinas de vapor estacionarias denominadas locomóviles que, mediante un juego de cables y poleas, conseguían tirar de los arados, su uso fue escaso y los agricultores no se libraron de seguir con su collera de muías o yunta de bueyes. Sin embargo, la construcción del primer tractor con motor de combustión interna, debida a Froelich en 1892, marca el inicio de la actual tractorización. A partir de ese momento, tanto el tamaño de las máquinas como el de la superficie trabajada por un agricultor pueden crecer, porque es la energía desarrollada por un motor la que realiza los esfuerzos necesarios. Esta fecha de 1892 podemos considerarla el inicio del siglo XX en maquinaria agrícola. Por último, en época reciente estamos asistiendo al empleo de dispositivos electrónicos e informáticos en las máquinas, los cuales miden diversas variables relativas al trabajo que desarrolla, guardan la información en registros e, incluso, deciden cómo debe comandarse la máquina. No sólo estamos liberados de realizar esfuerzos, sino también de mantener toda nuestra atención en el trabajo y tomar decisiones en función de las características del terreno, cultivo, etc. Estas técnicas, que a nivel de investigación y prototipo existen desde los años 90, marcan el inicio del siglo XXI en el que es de esperar que se difundan. Por tanto, ya tenemos encuadrado el siglo XX como el periodo comprendido desde que el esfuerzo para trabajar la tierra deja de ser muscular hasta que el cerebro que toma las decisiones podrá dejar de ser humano.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Los prodigiosos progresos de la tecnología de la información dibujan una nueva frontera de rotundos cambios sociales. Algunos de estos cambios son evidentes, como los que afectan a las relaciones económicas y de mercado de las empresas, o al trabajo técnico y científico, entre otros muchos ejemplos que ya son del dominio público. Pero la naturaleza casi inmaterial de esta tecnología tiene asimismo el poder de penetrar insidiosamente en zonas sutiles,donde habitan el pensamiento de las personas o conceptos hasta ahora considerados firmemente establecidos e incluso "sagrados", como los derechos humanos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El programa "ANISET" (Análisis de Niveles de Seguridad en Túneles) desarrollado por SINEX, S.A. constituye una herramienta de cálculo orientada a la realización de estudios de Fiabilidad de las estructuras de sostenimiento de túneles y galerías subterráneas. El desarrollo del Nuevo Método Austriaco de construcción de túneles (NATM) ha supuesto un gran avance de tecnificación en un tipo de obras tradicionalmente poco exigentes en lo que al cálculo de refiere. La aplicación de esta nueva metodología ha propiciado un gran desarrollo en la aplicación de métodos numéricos y de nuevos modelos de comportamiento para el estudio del problema de interacción terreno-sostenimiento. Sin embargo, la investigación en torno a procedimientos adecuados para la introducción de la seguridad en los cálculos no ha sido tan intensa, lo que ha creado un estado de cierta confusión entorno a este tema. Con este trabajo, se ha pretendido impulsar un avance en este terreno. Para ello se ha considerado que el mejor método era la aplicación de las técnicas de Fiabilidad Estructural en Nivel U, como de hecho se está realizando en muchos otros terrenos en el ámbito del cálculo estructural. Para realizar el programa, se ha tomado como base el modelo mecánico bidimensional desarrollado por P. Fritz (1984) que básicamente coincide con el aplicado en el programa SOSTENIM. En este modelo el terreno se considera un medio de comportamiento elastoplástico, de acuerdo al criterio de Mohr-Coulomb, sobre el que se realiza una excavación de sección circular. El sostenimiento se ha modelado teniendo en cuenta las aportaciones del hormigón proyectado, del acero de las armaduras y de las cerchas metálicas habitualmente utilizadas. Los Estados Límite considerados en el programa, para los cuales se han desarrollado las correspondientes funciones de fallo, son los siguientes: - Agotamiento de la capacidad resistente del terreno. Caracterizado por un radio de plastificación excesivo del terreno. - Agotamiento de la estructura, producido por la aparición de deformaciones superiores al máximo admisible por los materiales del sostenimiento. - Convergencia excesiva: el desplazamiento radial en el sostenimiento supera un máximo fijado por el proyectista en base a criterios prácticos de utilización, etc. El tratamiento de las incertidumbres para la estimación de los correspondientes índices de fiabilidad y probabilidades de fallo respecto a los 3 estados límite mencionados, responde básicamente al esquema propuesto por E. Rosenblueth (1981). Se espera que el enfoque eminentemente práctico dado al trabajo, y la sencillez de manejo del programa, permitan una fácil y útil aplicación del mismo.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En esta tesis se aborda el estudio del proceso de isomerización del sistema molecular LiNC/LiCN tanto aislado como en presencia de un pulso láser aplicando la teoría del estado de transición (TST). Esta teoría tiene como pilar fundamental el hecho de que el conocimiento de la dinámica en las proximidades de un punto de silla de la superficie de energía potencial permite determinar los parámetros cinéticos de la reacción objeto de estudio. Históricamente, existen dos formulaciones de la teoría del estado de transición, la versión termodinámica de Eyring (Eyr38) y la visión dinámica de Wigner (Wig38). Ésta última ha sufrido recientemente un amplio desarrollo, paralelo a los avances en sistemas dinámicos que ha dado lugar a una formulación geométrica en el espacio de fases que sirve como base al trabajo desarrollado en esta tesis. Nos hemos centrado en abordar el problema desde una visión fundamentalmente práctica, ya que la teoría del estado de transición presenta una desventaja: su elevado coste computacional y de tiempo de cálculo. Dos han sido los principales objetivos de este trabajo. El primero de ellos ha sido sentar las bases teóricas y computacionales de un algoritmo eficiente que permita obtener las magnitudes fundamentales de la TST. Así, hemos adaptado con éxito un algoritmo computacional desarrollado en el ámbito de la mecánica celeste (Jor99), obteniendo un método rápido y eficiente para la obtención de los objetos geométricos que rigen la dinámica en el espacio de fases y que ha permitido calcular magnitudes cinéticas tales como el flujo reactivo, la densidad de estados de reactivos y productos y en última instancia la constante de velocidad. Dichos cálculos han sido comparados con resultados estadísticos (presentados en (Mül07)) lo cual nos ha permitido demostrar la eficacia del método empleado. El segundo objetivo de esta tesis, ha sido la evaluación de la influencia de los parámetros de un pulso electromagnético sobre la dinámica de reacción. Para ello se ha generalizado la metodología de obtención de la forma normal del hamiltoniano cuando el sistema químico es alterado mediante una perturbación temporal periódica. En este caso el punto fijo inestable en cuya vecindad se calculan los objetos geométricos de interés para la aplicación de la TST, se transforma en una órbita periódica del mismo periodo que la perturbación. Esto ha permitido la simulación de la reactividad en presencia de un pulso láser. Conocer el efecto de esta perturbación posibilita el control de la reactividad química. Además de obtener los objetos geométricos que rigen la dinámica en una cierta vecindad de la órbita periódica y que son la clave de la TST, se ha estudiado el efecto de los parámetros del pulso sobre la reactividad en el espacio de fases global así como sobre el flujo reactivo que atraviesa la superficie divisoria que separa reactivos de productos. Así, se ha puesto de manifiesto, que la amplitud del pulso es el parámetro más influyente sobre la reactividad química, pudiendo producir la aparición de flujos reactivos a energías inferiores a las de aparición del sistema aislado y el aumento del flujo reactivo a valores constantes de energía inicial. ABSTRACT We have studied the isomerization reaction LiNC/LiCN isolated and perturbed by a laser pulse. Transition State theory (TST) is the main tool we have used. The basis of this theory is knowing the dynamics close to a fixed point of the potential energy surface. It is possible to calculate kinetic magnitudes by knowing the dynamics in a neighbourhood of the fixed point. TST was first formulated in the 30's and there were 2 points of view, one thermodynamical by Eyring (Eyr38) and another dynamical one by Wigner (Wig38). The latter one has grown lately due to the growth of the dynamical systems leading to a geometrical view of the TST. This is the basis of the work shown in this thesis. As the TST has one main handicap: the high computational cost, one of the main goals of this work is to find an efficient method. We have adapted a methodology developed in the field of celestial mechanics (Jor99). The result: an efficient, fast and accurate algorithm that allows us to obtain the geometric objects that lead the dynamics close to the fixed point. Flux across the dividing surface, density of states and reaction rate coefficient have been calculated and compared with previous statistical results, (Mül07), leading to the conclusion that the method is accurate and good enough. We have widen the methodology to include a time dependent perturbation. If the perturbation is periodic in time, the fixed point becomes a periodic orbit whose period is the same as the period of the perturbation. This way we have been able to simulate the isomerization reaction when the system has been perturbed by a laser pulse. By knowing the effect of that perturbation we will be able to control the chemical reactivity. We have also studied the effect of the parameters on the global phase space dynamics and on the flux across the dividing surface. It has been prove that amplitude is the most influent parameter on the reaction dynamics. Increasing amplitude leads to greater fluxes and to some flux at energies it would not if the systems would not have been perturbed.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En las siguientes líneas, se podrá encontrar un trabajo perteneciente al Trabajo Fin de Grado realizado por Cristina Parra Cruz. Dicho trabajo tendrá un tema central de estudio y análisis, la lesión del Ligamento Cruzado Anterior (LCA) en el fútbol femenino. El Ligamento Cruzado Anterior es de dos a cuatro veces superior en el fútbol femenino que en el masculino. Independientemente del sexo afectado, esta lesión conlleva un tiempo de baja deportiva elevado y sus complicaciones futuras (riesgo de nueva lesión) deben ser tenidas en cuenta, como también, el mecanismo de producción, factores de riesgo, momento de la lesión, pierna lesionada o tratamiento médico. El principal objetivo de este estudio es presentar el número de lesiones del LCA en diferentes equipos y categorías a lo lardo de dos temporadas (2012-2013 y 2013-2014).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Diversos estudios consideran que las claves para el desarrollo técnico, social y económico de los países en desarrollo, y en especial en África, son la educación, la investigación y la innovación. No obstante, en el ámbito sanitario en particular, la formación e investigación en África sigue siendo escasa por diversos motivos. Por un lado, los investigadores africanos encuentran dificultades añadidas para obtener financiación frente a investigadores en países de desarrollo. Y, por otro lado, los investigadores no disponen de las herramientas y tecnologías adecuadas para acceder a información relevante para su trabajo. En este contexto, el proyecto AFRICA BUILD tiene como principal objetivo mejorar y fomentar la investigación y educación sanitaria en África a través de las nuevas tecnologías. Uno de los resultados principales de este proyecto es el AFRICA BUILD Portal (ABP), que pretende ser un punto de encuentro para los investigadores africanos, donde podrán encontrar un amplio abanico de herramientas que les permita no sólo mejorar su educación, sino compartir conocimientos con otros investigadores. Este portal, que está actualmente en desarrollo, pretende fomentar la comunicación entre instituciones africanas y les proveerá herramientas biomédicas avanzadas. En este Trabajo de Fin de Grado se han marcado como principal objetivo la mejora del sistema de e-learning que existía en el ABP. El nuevo sistema será: (i) más potente, óptimo y rico en funcionalidades, (ii) tendrá una importante base social permitiendo a los usuarios aportar información y compartir conocimiento, y (iii) será distribuido y escalable, capaz de integrar distintos gestores de contenidos didácticos como fuentes de información. Los resultados obtenidos son positivos y el nuevo sistema de aprendizaje ha mejorado la usabilidad, funcionalidad y apariencia del anterior. Para concluir, la herramienta posee aún un gran margen de mejora, pero gracias al trabajo realizado el sistema de e-learning es ahora más social, distribuido, escalable e innovador. ---ABSTRACT---Several studies find that the keys to the technical, social and economic development of developing countries, especially in Africa, are education, research and innovation. However, in the health sector in particular, training and research in Africa remains low for various reasons. On the one hand, African researchers experience additional difficulties for funding against researchers in developing countries. And on the other hand, researchers do not have the right tools and technologies to access information relevant to their work. In this context, the AFRICA BUILD project's main objective is to improve and enhance research and health education in Africa through new technologies. One of the main results of this project is the AFRICA BUILD Portal (ABP), which aims to be a meeting point for African researchers, where they can find a wide range of tools that allows them to not only improve their education but to share knowledge with other researchers. This portal, which is currently under development, aims to promote communication between African institutions and will provide advanced biomedical tools. The main objective of this Final Year Project is the improvement of the former elearning system that already existed in the ABP. The new system will be: (i) more powerful, richer in features, (ii) will have an important social base allowing users to contribute information and knowledge sharing; and (iii) will be distributed and scalable, capable of integrating different learning management systems as sources of information. The final results obtained are fairly positive and the new e-learning system has improved its usability, functionality and appearance of the former. To conclude, the tool still has much room for improvement, but thanks to the new features of the improved elearning system has become more social, distributed, scalable and innovative.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este Proyecto Fin de Grado, es el primer paso para abordar la construcción de una plataforma de conocimiento evolutivo para dos sistemas que facilitan la detección precoz de trastornos del lenguaje en niños de 0 a 6 años. Concretamente, el objetivo principal de este proyecto es el diseño, desarrollo y puesta en explotación de un sistema de recogida de propuestas de mejora sobre la base de conocimiento de los sistemas de ayuda a la toma de decisiones Gades y Pegaso. Este sistema está formado fundamentalmente por una aplicación diseñada y construida mediante una arquitectura de componentes de software modular y reutilizable. La aplicación será usada por los usuarios de las plataformas Pegaso y Gades para realizar las propuestas de cambio sobre la base de conocimiento de dichos sistemas. El sistema es accesible vía web y almacena toda la información que maneja en una base de datos. Asimismo, expone un estudio de aplicaciones orientadas al trabajo colaborativo (CSCW) y a la toma de decisiones colaborativa, como paso previo al desarrollo de una funcionalidad futura del propio sistema. ABSTRACT. This Final Degree Project, is the first step to address the construction of a platform for two evolutionary knowledge systems that facilitate early detection of language disorders in children aged 0-6 years. Specifically, the main objective of this project is the design, development and start-up of a system that collect improvement proposals about the knowledge of decision support systems Gades and Pegaso. This system consists mainly of an application designed and built by a modular component architecture and reusable software. The application will be used by users of the Pegaso and Gades platforms for change proposals on the basis of knowledge of such systems. The system is accessible via web and stores all the information managed in a database. It also presents a study of collaborative work oriented applications (CSCW) and collaborative decision making, prior to the development of a future system functionality.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The Project you are about to see it is based on the technologies used on object detection and recognition, especially on leaves and chromosomes. To do so, this document contains the typical parts of a scientific paper, as it is what it is. It is composed by an Abstract, an Introduction, points that have to do with the investigation area, future work, conclusions and references used for the elaboration of the document. The Abstract talks about what are we going to find in this paper, which is technologies employed on pattern detection and recognition for leaves and chromosomes and the jobs that are already made for cataloguing these objects. In the introduction detection and recognition meanings are explained. This is necessary as many papers get confused with these terms, specially the ones talking about chromosomes. Detecting an object is gathering the parts of the image that are useful and eliminating the useless parts. Summarizing, detection would be recognizing the objects borders. When talking about recognition, we are talking about the computers or the machines process, which says what kind of object we are handling. Afterwards we face a compilation of the most used technologies in object detection in general. There are two main groups on this category: Based on derivatives of images and based on ASIFT points. The ones that are based on derivatives of images have in common that convolving them with a previously created matrix does the treatment of them. This is done for detecting borders on the images, which are changes on the intensity of the pixels. Within these technologies we face two groups: Gradian based, which search for maximums and minimums on the pixels intensity as they only use the first derivative. The Laplacian based methods search for zeros on the pixels intensity as they use the second derivative. Depending on the level of details that we want to use on the final result, we will choose one option or the other, because, as its logic, if we used Gradian based methods, the computer will consume less resources and less time as there are less operations, but the quality will be worse. On the other hand, if we use the Laplacian based methods we will need more time and resources as they require more operations, but we will have a much better quality result. After explaining all the derivative based methods, we take a look on the different algorithms that are available for both groups. The other big group of technologies for object recognition is the one based on ASIFT points, which are based on 6 image parameters and compare them with another image taking under consideration these parameters. These methods disadvantage, for our future purposes, is that it is only valid for one single object. So if we are going to recognize two different leaves, even though if they refer to the same specie, we are not going to be able to recognize them with this method. It is important to mention these types of technologies as we are talking about recognition methods in general. At the end of the chapter we can see a comparison with pros and cons of all technologies that are employed. Firstly comparing them separately and then comparing them all together, based on our purposes. Recognition techniques, which are the next chapter, are not really vast as, even though there are general steps for doing object recognition, every single object that has to be recognized has its own method as the are different. This is why there is not a general method that we can specify on this chapter. We now move on into leaf detection techniques on computers. Now we will use the technique explained above based on the image derivatives. Next step will be to turn the leaf into several parameters. Depending on the document that you are referring to, there will be more or less parameters. Some papers recommend to divide the leaf into 3 main features (shape, dent and vein] and doing mathematical operations with them we can get up to 16 secondary features. Next proposition is dividing the leaf into 5 main features (Diameter, physiological length, physiological width, area and perimeter] and from those, extract 12 secondary features. This second alternative is the most used so it is the one that is going to be the reference. Following in to leaf recognition, we are based on a paper that provides a source code that, clicking on both leaf ends, it automatically tells to which specie belongs the leaf that we are trying to recognize. To do so, it only requires having a database. On the tests that have been made by the document, they assure us a 90.312% of accuracy over 320 total tests (32 plants on the database and 10 tests per specie]. Next chapter talks about chromosome detection, where we shall pass the metaphasis plate, where the chromosomes are disorganized, into the karyotype plate, which is the usual view of the 23 chromosomes ordered by number. There are two types of techniques to do this step: the skeletonization process and swiping angles. Skeletonization progress consists on suppressing the inside pixels of the chromosome to just stay with the silhouette. This method is really similar to the ones based on the derivatives of the image but the difference is that it doesnt detect the borders but the interior of the chromosome. Second technique consists of swiping angles from the beginning of the chromosome and, taking under consideration, that on a single chromosome we cannot have more than an X angle, it detects the various regions of the chromosomes. Once the karyotype plate is defined, we continue with chromosome recognition. To do so, there is a technique based on the banding that chromosomes have (grey scale bands] that make them unique. The program then detects the longitudinal axis of the chromosome and reconstructs the band profiles. Then the computer is able to recognize this chromosome. Concerning the future work, we generally have to independent techniques that dont reunite detection and recognition, so our main focus would be to prepare a program that gathers both techniques. On the leaf matter we have seen that, detection and recognition, have a link as both share the option of dividing the leaf into 5 main features. The work that would have to be done is to create an algorithm that linked both methods, as in the program, which recognizes leaves, it has to be clicked both leaf ends so it is not an automatic algorithm. On the chromosome side, we should create an algorithm that searches for the beginning of the chromosome and then start to swipe angles, to later give the parameters to the program that searches for the band profiles. Finally, on the summary, we explain why this type of investigation is needed, and that is because with global warming, lots of species (animals and plants] are beginning to extinguish. That is the reason why a big database, which gathers all the possible species, is needed. For recognizing animal species, we just only have to have the 23 chromosomes. While recognizing a plant, there are several ways of doing it, but the easiest way to input a computer is to scan the leaf of the plant. RESUMEN. El proyecto que se puede ver a continuación trata sobre las tecnologías empleadas en la detección y reconocimiento de objetos, especialmente de hojas y cromosomas. Para ello, este documento contiene las partes típicas de un paper de investigación, puesto que es de lo que se trata. Así, estará compuesto de Abstract, Introducción, diversos puntos que tengan que ver con el área a investigar, trabajo futuro, conclusiones y biografía utilizada para la realización del documento. Así, el Abstract nos cuenta qué vamos a poder encontrar en este paper, que no es ni más ni menos que las tecnologías empleadas en el reconocimiento y detección de patrones en hojas y cromosomas y qué trabajos hay existentes para catalogar a estos objetos. En la introducción se explican los conceptos de qué es la detección y qué es el reconocimiento. Esto es necesario ya que muchos papers científicos, especialmente los que hablan de cromosomas, confunden estos dos términos que no podían ser más sencillos. Por un lado tendríamos la detección del objeto, que sería simplemente coger las partes que nos interesasen de la imagen y eliminar aquellas partes que no nos fueran útiles para un futuro. Resumiendo, sería reconocer los bordes del objeto de estudio. Cuando hablamos de reconocimiento, estamos refiriéndonos al proceso que tiene el ordenador, o la máquina, para decir qué clase de objeto estamos tratando. Seguidamente nos encontramos con un recopilatorio de las tecnologías más utilizadas para la detección de objetos, en general. Aquí nos encontraríamos con dos grandes grupos de tecnologías: Las basadas en las derivadas de imágenes y las basadas en los puntos ASIFT. El grupo de tecnologías basadas en derivadas de imágenes tienen en común que hay que tratar a las imágenes mediante una convolución con una matriz creada previamente. Esto se hace para detectar bordes en las imágenes que son básicamente cambios en la intensidad de los píxeles. Dentro de estas tecnologías nos encontramos con dos grupos: Los basados en gradientes, los cuales buscan máximos y mínimos de intensidad en la imagen puesto que sólo utilizan la primera derivada; y los Laplacianos, los cuales buscan ceros en la intensidad de los píxeles puesto que estos utilizan la segunda derivada de la imagen. Dependiendo del nivel de detalles que queramos utilizar en el resultado final nos decantaremos por un método u otro puesto que, como es lógico, si utilizamos los basados en el gradiente habrá menos operaciones por lo que consumirá más tiempo y recursos pero por la contra tendremos menos calidad de imagen. Y al revés pasa con los Laplacianos, puesto que necesitan más operaciones y recursos pero tendrán un resultado final con mejor calidad. Después de explicar los tipos de operadores que hay, se hace un recorrido explicando los distintos tipos de algoritmos que hay en cada uno de los grupos. El otro gran grupo de tecnologías para el reconocimiento de objetos son los basados en puntos ASIFT, los cuales se basan en 6 parámetros de la imagen y la comparan con otra imagen teniendo en cuenta dichos parámetros. La desventaja de este método, para nuestros propósitos futuros, es que sólo es valido para un objeto en concreto. Por lo que si vamos a reconocer dos hojas diferentes, aunque sean de la misma especie, no vamos a poder reconocerlas mediante este método. Aún así es importante explicar este tipo de tecnologías puesto que estamos hablando de técnicas de reconocimiento en general. Al final del capítulo podremos ver una comparación con los pros y las contras de todas las tecnologías empleadas. Primeramente comparándolas de forma separada y, finalmente, compararemos todos los métodos existentes en base a nuestros propósitos. Las técnicas de reconocimiento, el siguiente apartado, no es muy extenso puesto que, aunque haya pasos generales para el reconocimiento de objetos, cada objeto a reconocer es distinto por lo que no hay un método específico que se pueda generalizar. Pasamos ahora a las técnicas de detección de hojas mediante ordenador. Aquí usaremos la técnica explicada previamente explicada basada en las derivadas de las imágenes. La continuación de este paso sería diseccionar la hoja en diversos parámetros. Dependiendo de la fuente a la que se consulte pueden haber más o menos parámetros. Unos documentos aconsejan dividir la morfología de la hoja en 3 parámetros principales (Forma, Dentina y ramificación] y derivando de dichos parámetros convertirlos a 16 parámetros secundarios. La otra propuesta es dividir la morfología de la hoja en 5 parámetros principales (Diámetro, longitud fisiológica, anchura fisiológica, área y perímetro] y de ahí extraer 12 parámetros secundarios. Esta segunda propuesta es la más utilizada de todas por lo que es la que se utilizará. Pasamos al reconocimiento de hojas, en la cual nos hemos basado en un documento que provee un código fuente que cucando en los dos extremos de la hoja automáticamente nos dice a qué especie pertenece la hoja que estamos intentando reconocer. Para ello sólo hay que formar una base de datos. En los test realizados por el citado documento, nos aseguran que tiene un índice de acierto del 90.312% en 320 test en total (32 plantas insertadas en la base de datos por 10 test que se han realizado por cada una de las especies]. El siguiente apartado trata de la detección de cromosomas, en el cual se debe de pasar de la célula metafásica, donde los cromosomas están desorganizados, al cariotipo, que es como solemos ver los 23 cromosomas de forma ordenada. Hay dos tipos de técnicas para realizar este paso: Por el proceso de esquelotonización y barriendo ángulos. El proceso de esqueletonización consiste en eliminar los píxeles del interior del cromosoma para quedarse con su silueta; Este proceso es similar a los métodos de derivación de los píxeles pero se diferencia en que no detecta bordes si no que detecta el interior de los cromosomas. La segunda técnica consiste en ir barriendo ángulos desde el principio del cromosoma y teniendo en cuenta que un cromosoma no puede doblarse más de X grados detecta las diversas regiones de los cromosomas. Una vez tengamos el cariotipo, se continua con el reconocimiento de cromosomas. Para ello existe una técnica basada en las bandas de blancos y negros que tienen los cromosomas y que son las que los hacen únicos. Para ello el programa detecta los ejes longitudinales del cromosoma y reconstruye los perfiles de las bandas que posee el cromosoma y que lo identifican como único. En cuanto al trabajo que se podría desempeñar en el futuro, tenemos por lo general dos técnicas independientes que no unen la detección con el reconocimiento por lo que se habría de preparar un programa que uniese estas dos técnicas. Respecto a las hojas hemos visto que ambos métodos, detección y reconocimiento, están vinculados debido a que ambos comparten la opinión de dividir las hojas en 5 parámetros principales. El trabajo que habría que realizar sería el de crear un algoritmo que conectase a ambos ya que en el programa de reconocimiento se debe clicar a los dos extremos de la hoja por lo que no es una tarea automática. En cuanto a los cromosomas, se debería de crear un algoritmo que busque el inicio del cromosoma y entonces empiece a barrer ángulos para después poder dárselo al programa que busca los perfiles de bandas de los cromosomas. Finalmente, en el resumen se explica el por qué hace falta este tipo de investigación, esto es que con el calentamiento global, muchas de las especies (tanto animales como plantas] se están empezando a extinguir. Es por ello que se necesitará una base de datos que contemple todas las posibles especies tanto del reino animal como del reino vegetal. Para reconocer a una especie animal, simplemente bastará con tener sus 23 cromosomas; mientras que para reconocer a una especie vegetal, existen diversas formas. Aunque la más sencilla de todas es contar con la hoja de la especie puesto que es el elemento más fácil de escanear e introducir en el ordenador.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The introduction of open-plan offices in the 1960s with the intent of making the workplace more flexible, efficient, and team-oriented resulted in a higher noise floor level, which not only made concentrated work more difficult, but also caused physiological problems, such as increased stress, in addition to a loss of speech privacy. Irrelevant background human speech, in particular, has proven to be a major factor in disrupting concentration and lowering performance. Therefore, reducing the intelligibility of speech and has been a goal of increasing importance in recent years. One method employed to do so is the use of masking noises, which consists in emitting a continuous noise signal over a loudspeaker system that conceals the perturbing speech. Studies have shown that while effective, the maskers employed to date – normally filtered pink noise – are generally poorly accepted by users. The collaborative "Private Workspace" project, within the scope of which this thesis was carried out, attempts to develop a coupled, adaptive noise masking system along with a physical structure to be used for open-plan offices so as to combat these issues. There is evidence to suggest that nature sounds might be more accepted as masker, in part because they can have a visual object that acts as the source for the sound. Direct audio recordings are not recommended for various reasons, and thus the nature sounds must be synthesized. This work done consists of the synthesis of a sound texture to be used as a masker as well as its evaluation. The sound texture is composed of two parts: a wind-like noise synthesized with subtractive synthesis, and a leaf-like noise synthesized through granular synthesis. Different combinations of these two noises produced five variations of the masker, which were evaluated at different levels along with white noise and pink noise using a modified version of an Oldenburger Satztest to test for an affect on speech intelligibility and a questionnaire to asses its subjective acceptance. The goal was to find which of the synthesized noises works best as a speech masker. This thesis first uses a theoretical introduction to establish the basics of sound perception, psychoacoustic masking, and sound texture synthesis. The design of each of the noises, as well as their respective implementations in MATLAB, is explained, followed by the procedures used to evaluate the maskers. The results obtained in the evaluation are analyzed. Lastly, conclusions are drawn and future work is and modifications to the masker are proposed. RESUMEN. La introducción de las oficinas abiertas en los años 60 tenía como objeto flexibilizar el ambiente laboral, hacerlo más eficiente y que estuviera más orientado al trabajo en equipo. Como consecuencia, subió el nivel de ruido de fondo, que no sólo dificulta la concentración, sino que causa problemas fisiológicos, como el aumento del estrés, además de reducir la privacidad. Hay estudios que prueban que las conversaciones de fondo en particular tienen un efecto negativo en el nivel de concentración y disminuyen el rendimiento de los trabajadores. Por lo tanto, reducir la inteligibilidad del habla es uno de los principales objetivos en la actualidad. Un método empleado para hacerlo ha sido el uso de ruido enmascarante, que consiste en reproducir señales continuas de ruido a través de un sistema de altavoces que enmascare el habla. Aunque diversos estudios demuestran que es un método eficaz, los ruidos utilizados hasta la fecha (normalmente ruido rosa filtrado), no son muy bien aceptados por los usuarios. El proyecto colaborativo "Private Workspace", dentro del cual se engloba el trabajo realizado en este Proyecto Fin de Grado, tiene por objeto desarrollar un sistema de ruido enmascarador acoplado y adaptativo, además de una estructura física, para su uso en oficinas abiertas con el fin de combatir los problemas descritos anteriormente. Existen indicios de que los sonidos naturales son mejor aceptados, en parte porque pueden tener una estructura física que simule ser la fuente de los mismos. La utilización de grabaciones directas de estos sonidos no está recomendada por varios motivos, y por lo tanto los sonidos naturales deben ser sintetizados. El presente trabajo consiste en la síntesis de una textura de sonido (en inglés sound texture) para ser usada como ruido enmascarador, además de su evaluación. La textura está compuesta de dos partes: un sonido de viento sintetizado mediante síntesis sustractiva y un sonido de hojas sintetizado mediante síntesis granular. Diferentes combinaciones de estos dos sonidos producen cinco variaciones de ruido enmascarador. Estos cinco ruidos han sido evaluados a diferentes niveles, junto con ruido blanco y ruido rosa, mediante una versión modificada de un Oldenburger Satztest para comprobar cómo afectan a la inteligibilidad del habla, y mediante un cuestionario para una evaluación subjetiva de su aceptación. El objetivo era encontrar qué ruido de los que se han sintetizado funciona mejor como enmascarador del habla. El proyecto consiste en una introducción teórica que establece las bases de la percepción del sonido, el enmascaramiento psicoacústico, y la síntesis de texturas de sonido. Se explica a continuación el diseño de cada uno de los ruidos, así como su implementación en MATLAB. Posteriormente se detallan los procedimientos empleados para evaluarlos. Los resultados obtenidos se analizan y se extraen conclusiones. Por último, se propone un posible trabajo futuro y mejoras al ruido sintetizado.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El proyecto trata de realizar una comparativa de dos metodologías mediante la realización de un inventario, una metodología clásica como es la metodología GNSS y la metodología Mobile Mapping. El inventario se realiza en tres escenarios distintos, un escenario es una zona verde, una zona urbana y una zona interurbana. La zona verde es el Parque Central de Tres Cantos, la zona urbano es una zona de viviendas unifamiliares deTres Cantos y la zona interurbana es tramo de la carretera M-618 que une los municipios de Colmenar Viejo y Hoyo de manzanares. Para la metodología GNSS se ha utilizado un receptor GRS-1 y para la metodología Mobile Mapping se ha utilizado el sistema IP-S2 Compact+. Con la realización de este inventario se pretende poder comparar los posibles casos que hay en tres escenarios distintos, estudiando los tiempos que se tarda en realizar un inventario con cada metodología, así como los costes que suponen. Los datos obtenidos por cada equipo se exportan en fichero Shapfile para poder abrirlos en ArcGIS y así poder realizar la comparativa. Para finalizar el proyecto y con los conocimientos adquiridos en esta materia se obtienen una conclusiones referidas al trabajo realizado con cada equipo.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La arquitectura china ha experimentado grandes cambios a lo largo de un extenso proceso histórico. El hito de mayor importancia es el que da paso al denominado Tiempo Moderno, periodo en el cual irrumpe por vez primera en China la arquitectura occidental, que comienza a tener una influencia muy activa y significativa sobre los rasgos y la identidad de la arquitectura tradicional china, hasta ese momento el único estilo o forma de hacer –muy diferente, en cuanto a su concepción y fisonomía, de los planteamientos occidentales- que había sobrevivido sin desvíos significativos, configurando un panorama milenario bastante homogéneo en los aspectos técnicos y artísticos en el desarrollo de esa arquitectura. Por un cúmulo de complejas razones, la mayor parte de la arquitectura china del periodo feudal -es decir el que forman todos los años anteriores a 1849- ha desaparecido. Sin embargo, desde la fecha indicada hasta la Revolución de 1949 (el denominado periodo semicolonial o semifeudal), sí se conservan muchas edificaciones, que fueron mejor construidas y mantenidas luego, destacando por su importancia en ese sentido las iglesias cristianas. Dichos templos representan cronológicamente, no sólo la primera irrupción de la arquitectura clásica occidental en China, sino el inicio de un proceso de modernización de la profundamente enraizada y, en buena medida, estancada arquitectura vernácula, combinando técnicas y estilos de ambos planteamientos, para dar como resultado originales edificaciones de un singular eclecticismo que caracterizarían buena parte de la arquitectura de dicha etapa semicolonial. En términos generales, últimamente se ha ido prestando cada vez más atención a esta arquitectura de los tiempos modernos, aunque las iglesias cristianas de la provincia de Shaanxi no han sido objeto de estudio específico, a pesar de que su tipología es muy representativa de las construcciones de esta clase en otras regiones del interior de China. La investigación que desarrolla la presente tesis doctoral sale al paso de esa deficiencia, abriendo puertas a la continuación del trabajo referido, extendido a otras zonas o arquitecturas, y, por extensión, a la profundización analítica de la hibridación arquitectónica y cultural entre China y Occidente. Sobre las bases de investigación documental, estudios de campo y dibujo, la tesis plantea un estudio aclaratorio de los rasgos y raíces de la arquitectura tradicional china, al que sigue otro histórico y tipológico de los templos cristianos en la provincia de Shaanxi, deteniéndose en sus características fundamentales, situación (uso) actual y estado de conservación. Se ha considerado imprescindible añadir al trabajo, como apéndice, un elaborado glosario conceptual ilustrado de términos básicos arquitectónicos y constructivos, en chino, inglés y español. ABSTRACT The Chinese architecture has gone through great changes during the long process of history. The tremendous changing period was the named Modern Times of China when, for the very first time, the western architecture was introduced into China and became to influence majorly on the traditional Chinese architecture. Before that, the traditional Chinese architecture which has its own, yet totally different system from the occidental architecture system was the only architectural style could be found in China. Although, due to many historical, conceptual and architectural characteristic reasons, large amount of the ancient Chinese architecture built in the feudal China was not preserved, there are a lot of buildings of semi-feudal China that was well constructed and conserved. The most important architectural type of the semi-feudal China is the Christian Churches. It was not only the first western architectural form that was brought into and well developed in China, but also was the beginner of the modernization process of Chinese architecture. Because of the deep root of the 2000-year traditional Chinese architecture, all the Christian Churches built in China during the semi-colonial society has a combined style of both the traditional Chinese architecture and the classic western churches. They are a priceless asset of the Chinese architectural history. Recently, more and more attention had been paid on the Chinese Modern Times architecture, however, the Christian Churches in Shaanxi Province, the province which has a unique history with the Christian, but less economically developed have never been researched yet. The Christian Churches of Shaanxi Province reflect the general feature of developing history of the Christian Churches of common inner-land regions in China. The research opens the door to further study on other Christian Churches and related buildings, and also for the further study on the Chinese-western architectural and culture communication. On the base of document research, field survey and mapping, in this thesis, an in-depth study had been done on the general history of the features and roots of the traditional Chinese architecture, the developing history of the Christian Churches of Shaanxi Province and the architectural types, examples, characteristics, present situation and conservation status. By comparing the Christian Churches of the cities in Shaanxi province to the Christian Churches in other more developed cities, and by comparing the Christian Churches in China to the classic western churches, the architectural combination feature of the Christian Churches in China are highlighted. The thesis is a fundamental research on which many further studies about the architectural developing history, characteristics and conservation of the Christian Churches in China could be done. It is considered essential to add to the work, as an appendix, an elaborate conceptual illustrated glossary of architectural and construction terms in Chinese, English and Spanish.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El trabajo se enmarca dentro de los proyecto INTEGRATE y EURECA, cuyo objetivo es el desarrollo de una capa de interoperabilidad semántica que permita la integración de datos e investigación clínica, proporcionando una plataforma común que pueda ser integrada en diferentes instituciones clínicas y que facilite el intercambio de información entre las mismas. De esta manera se promueve la mejora de la práctica clínica a través de la cooperación entre instituciones de investigación con objetivos comunes. En los proyectos se hace uso de estándares y vocabularios clínicos ya existentes, como pueden ser HL7 o SNOMED, adaptándolos a las necesidades particulares de los datos con los que se trabaja en INTEGRATE y EURECA. Los datos clínicos se representan de manera que cada concepto utilizado sea único, evitando ambigüedades y apoyando la idea de plataforma común. El alumno ha formado parte de un equipo de trabajo perteneciente al Grupo de Informática de la UPM, que a su vez trabaja como uno de los socios de los proyectos europeos nombrados anteriormente. La herramienta desarrollada, tiene como objetivo realizar tareas de homogenización de la información almacenada en las bases de datos de los proyectos haciendo uso de los mecanismos de normalización proporcionados por el vocabulario médico SNOMED-CT. Las bases de datos normalizadas serán las utilizadas para llevar a cabo consultas por medio de servicios proporcionados en la capa de interoperabilidad, ya que contendrán información más precisa y completa que las bases de datos sin normalizar. El trabajo ha sido realizado entre el día 12 de Septiembre del año 2014, donde comienza la etapa de formación y recopilación de información, y el día 5 de Enero del año 2015, en el cuál se termina la redacción de la memoria. El ciclo de vida utilizado ha sido el de desarrollo en cascada, en el que las tareas no comienzan hasta que la etapa inmediatamente anterior haya sido finalizada y validada. Sin embargo, no todas las tareas han seguido este modelo, ya que la realización de la memoria del trabajo se ha llevado a cabo de manera paralela con el resto de tareas. El número total de horas dedicadas al Trabajo de Fin de Grado es 324. Las tareas realizadas y el tiempo de dedicación de cada una de ellas se detallan a continuación:  Formación. Etapa de recopilación de información necesaria para implementar la herramienta y estudio de la misma [30 horas.  Especificación de requisitos. Se documentan los diferentes requisitos que ha de cumplir la herramienta [20 horas].  Diseño. En esta etapa se toman las decisiones de diseño de la herramienta [35 horas].  Implementación. Desarrollo del código de la herramienta [80 horas].  Pruebas. Etapa de validación de la herramienta, tanto de manera independiente como integrada en los proyectos INTEGRATE y EURECA [70 horas].  Depuración. Corrección de errores e introducción de mejoras de la herramienta [45 horas].  Realización de la memoria. Redacción de la memoria final del trabajo [44 horas].---ABSTRACT---This project belongs to the semantic interoperability layer developed in the European projects INTEGRATE and EURECA, which aims to provide a platform to promote interchange of medical information from clinical trials to clinical institutions. Thus, research institutions may cooperate to enhance clinical practice. Different health standards and clinical terminologies has been used in both INTEGRATE and EURECA projects, e.g. HL7 or SNOMED-CT. These tools have been adapted to the projects data requirements. Clinical data are represented by unique concepts, avoiding ambiguity problems. The student has been working in the Biomedical Informatics Group from UPM, partner of the INTEGRATE and EURECA projects. The tool developed aims to perform homogenization tasks over information stored in databases of the project, through normalized representation provided by the SNOMED-CT terminology. The data query is executed against the normalized version of the databases, since the information retrieved will be more informative than non-normalized databases. The project has been performed from September 12th of 2014, when initiation stage began, to January 5th of 2015, when the final report was finished. The waterfall model for software development was followed during the working process. Therefore, a phase may not start before the previous one finishes and has been validated, except from the final report redaction, which has been carried out in parallel with the others phases. The tasks that have been developed and time for each one are detailed as follows:  Training. Gathering the necessary information to develop the tool [30 hours].  Software requirement specification. Requirements the tool must accomplish [20 hours].  Design. Decisions on the design of the tool [35 hours].  Implementation. Tool development [80 hours].  Testing. Tool evaluation within the framework of the INTEGRATE and EURECA projects [70 hours].  Debugging. Improve efficiency and correct errors [45 hours].  Documenting. Final report elaboration [44 hours].

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La modelización es un proceso por el que se obtienen modelos de los procesos del ´mundo real´ mediante la utilización de simplificaciones. Sin embargo, las estimaciones obtenidas con el modelo llevan implícitas incertidumbre que se debe evaluar. Mediante un análisis de sensibilidad se puede mejorar la confianza en los resultados, sin embargo, este paso a veces no se realiza debido básicamente al trabajo que lleva consigo este tipo de análisis. Además, al crear un modelo, hay que mantener un equilibrio entre la obtención de resultados lo más exactos posible mediante un modelo lo más sencillo posible. Por ello, una vez creado un modelo, es imprescindible comprobar si es necesario o no incluir más procesos que en un principio no se habían incluido. Los servicios ecosistémicos son los procesos mediante los cuales los ecosistemas mantienen y satisfacen el bienestar humano. La importancia que los servicios ecosistémicos y sus beneficios asociados tienen, junto con la necesidad de realizar una buena gestión de los mismos, han estimulado la aparición de modelos y herramientas para cuantificarlos. InVEST (Integrated Valuation of Ecosystem Services and Tradoffs) es una de estas herramientas específicas para calcular servicios eco-sistémicos, desarrollada por Natural Capital Project (Universidad de Stanford, EEUU). Como resultado del creciente interés en calcular los servicios eco-sistémicos, se prevé un incremento en la aplicación del InVEST. La investigación desarrollada en esta Tesis pretende ayudar en esas otras importantes fases necesarias después de la creación de un modelo, abarcando los dos siguientes trabajos. El primero es la aplicación de un análisis de sensibilidad al modelo en una cuenca concreta mediante la metodología más adecuada. El segundo es relativo a los procesos dentro de la corriente fluvial que actualmente no se incluyen en el modelo mediante la creación y aplicación de una metodología que estudiara el papel que juegan estos procesos en el modelo InVEST de retención de nutrientes en el área de estudio. Los resultados de esta Tesis contribuirán a comprender la incertidumbre involucrada en el proceso de modelado. También pondrá de manifiesto la necesidad de comprobar el comportamiento de un modelo antes de utilizarlo y en el momento de interpretar los resultados obtenidos. El trabajo en esta Tesis contribuirá a mejorar la plataforma InVEST, que es una herramienta importante en el ámbito de los servicios de los ecosistemas. Dicho trabajo beneficiará a los futuros usuarios de la herramienta, ya sean investigadores (en investigaciones futuras), o técnicos (en futuros trabajos de toma de decisiones o gestión ecosistemas). ABSTRACT Modeling is the process to idealize real-world situations through simplifications in order to obtain a model. However, model estimations lead to uncertainties that have to be evaluated formally. The role of the sensitivity analysis (SA) is to assign model output uncertainty based on the inputs and can increase confidence in model, however, it is often omitted in modelling, usually as a result of the growing effort it involves. In addition, the balance between accuracy and simplicity is not easy to assess. For this reason, when a model is developed, it is necessary to test it in order to understand its behavior and to include, if necessary, more complexity to get a better response. Ecosystem services are the conditions and processes through which natural ecosystems, and their constituent species, sustain and fulfill human life. The relevance of ecosystem services and the need to better manage them and their associated benefits have stimulated the emergence of models and tools to measure them. InVEST, Integrated Valuation of Ecosystem Services and Tradoffs, is one of these ecosystem services-specific tools developed by the Natural Capital Project (Stanford University, USA). As a result of the growing interest in measuring ecosystem services, the use of InVEST is anticipated to grow exponentially in the coming years. However, apart from model development, making a model involves other crucial stages such as its evaluation and application in order to validate estimations. The work developed in this thesis tries to help in this relevant and imperative phase of the modeling process, and does so in two different ways. The first one is to conduct a sensitivity analysis of the model, which consists in choosing and applying a methodology in an area and analyzing the results obtained. The second is related to the in-stream processes that are not modeled in the current model, and consists in creating and applying a methodology for testing the streams role in the InVEST nutrient retention model in a case study, analyzing the results obtained. The results of this Thesis will contribute to the understanding of the uncertainties involved in the modeling process. It will also illustrate the need to check the behavior of every model developed before putting them in production and illustrate the importance of understanding their behavior in terms of correctly interpreting the results obtained in light of uncertainty. The work in this thesis will contribute to improve the InVEST platform, which is an important tool in the field of ecosystem services. Such work will benefit future users, whether they are researchers (in their future research), or technicians (in their future work in ecosystem conservation or management decisions).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

¿La gente utiliza la bicicleta porque les gusta? ¿O es el propio hecho de usarla la razón por la que les gusta hacerlo? ¿O es una combinación de las dos? Este tipo de preguntas reflejan un problema que se puede llamar ‘el círculo de la consideración de la bicicleta’: para poder considerar el uso de la bicicleta en el conjunto de posibles opciones a escoger, un individuo tiene que tener creencias positivas sobre ella, sobre todo en el caso de ‘contextos de bajo uso’. Pero parece poco probable que se formen creencias positivas cuando hay bajos niveles de familiaridad al modo, es decir, con un bajo conocimiento de sus características, su funcionamiento y del imaginario asociado; al mismo tiempo, la familiaridad irá alcanzando niveles más altos conforme aumente el tiempo y la intensidad con la que se utilice la bicicleta a lo largo de la vida de los individuos. El problema parece un circulo recursivo huevo-gallina, ya que es difícil que alguien considere el usar la bicicleta en lugares donde su uso es una práctica poco extendida. En estos lugares, y dentro del conglomerado actual de tecnologías, infraestructuras, reglas, prácticas de los usuarios y preferencias culturales que se han desarrollado alrededor del automóvil (el actual "sistema socio-técnico de la movilidad urbana", Urry 2004; Geels 2005, 2012) usar la bicicleta es considerado por la mayoría como algo difícil, inseguro, y anormal. Como consecuencia, los procesos de aumento de familiaridad con la bicicleta permanecen inactivos. La tesis asume la familiaridad como una fuente de información e influencia sobre las creencias positivas sobre la bicicleta. En ‘contextos de bajo uso’, sin familiaridad al uso de la bicicleta, estas creencias sólo pueden surgir de ciertos rasgos personales (afecto, valores, identidades, voluntad, etc.). Tal como han evidenciado investigaciones recientes, en estos contextos la posibilidad de considerar el uso de la bicicleta (y su eventual adopción), se circunscribe principalmente a los ‘entusiastas’, a los que están dispuestos a “ir contra corriente” (Horton & Parkin 2012), limitando el alcance de las políticas de promoción. La investigación llevada a cabo en esta tesis ofrece un nuevo enfoque al problema del ‘círculo de la consideración de la bicicleta’. Para ello, plantea un modelo en el que se introduce a la familiaridad como un constructo que media entre el comportamiento final –qué modo de transporte elige el individuo– y el conjunto de constructos psicosociales que preceden la elección modal (creencias y actitudes). La familiaridad al uso de la bicicleta se concibe como una medida de la intensidad relativa del uso de una bicicleta, real y percibida (basándose en Diana & Mokhtarian 2009) que puede formarse de manera distinta según sus fines (utilitarios o no utilitarios). El constructo familiaridad con el modo bicicleta está relacionado con la cantidad de tiempo, la intensidad y la regularidad con la que un individuo ha hecho uso de la bicicleta a lo largo de su vida. La familiaridad se concibe así como una condición que permite definir adecuadamente el contexto en el que se toman las decisiones modales de los individuos, en línea con investigaciones que postulan patrones de causalidad alternativos entre los procesos cognitivos de elección y los comportamientos modales (Tardif 1977; Dobson et al. 1978; Golob et al. 1979; Golob 2001; Schwanen et al. 2012; Diana et al. 2009; Vij & Walker 2014). De este modo se plantea que el esquema unidireccional actitudesconductas podría no ser completamente valido en el caso de la consideración de la bicicleta, explorando la hipótesis que sean las propias conductas a influenciar la formación de las actitudes. En esta tesis, el constructo de familiaridad se articula teórica y metodológicamente, y se emplea un instrumento de diseño transversal para contrastarlo. Los resultados de una encuesta telefónica a una muestra representativa de 736 personas en la ciudad española de Vitoria-Gasteiz proveen evidencias que sugieren –aunque de forma preliminar– que la familiaridad juega un papel de mediadora en la relación entre la utilización de la bicicleta y la formación de las creencias y actitudes hacia el su uso. La tesis emplea mediciones para cada individuo con respecto tanto a su consideración como a su familiaridad al uso de la bicicleta. Éstas mediciones se definen haciendo uso del análisis factorial exploratorio (AFE). Por un lado, el AFE arroja una estructura del constructo ‘consideración’ formada por cuatro factores, tres de ellos asociados con elementos positivos y uno con elementos negativos: (1) de cómo el uso de la bicicleta se considera verde e inteligente (G&S); (2) sobre su carácter agradable y adecuado (P&S); (3) sobre su eficacia como modo de transporte para ir al trabajo (E); y (4) sobre los principales inconvenientes de su uso, es decir, las dificultades implícitas (sudoración y estar expuestos a las inclemencias del tiempo) y la sensación de inseguridad que genera (sentirse en riesgo de accidentes y estresarse por el tráfico) (D&T). Por otro lado, la familiaridad al uso de la bicicleta se mide en dos distintas variables ordinales (según se base en el uso utilitario o no utilitario). Como resultado, se puede hablar de que cada individuo se encuentra en una de las siguientes cuatro etapas en orden creciente hacia una familiaridad completa al modo: no familiarizados; apenas familiarizados; moderadamente familiarizados; totalmente familiarizados. El análisis de los datos de los cuatro grupos de sujetos de la muestra, –definidos de acuerdo con cada una de las cuatro etapas de familiaridad definidas– ha evidenciado la existencia de diferencias intergrupo estadísticamente significativas, especialmente para la medida relacionada con el uso utilitario. Asimismo, las personas en los niveles inferiores de familiaridad tienen una consideración menor de los aspectos positivos de la bicicleta y por el contrario presentan preocupaciones mayores hacia las características negativas respecto a aquellas personas que están más familiarizados en el uso utilitario. El uso, aunque esporádico, de una bicicleta para fines utilitarios (ir de compras, hacer recados, etc.), a diferencia de no usarla en absoluto, aparece asociado a unas puntuaciones significativamente más altas en los tres factores positivos (G&S, E, P&S), mientras que parece estar asociado a puntuaciones significativamente más bajas en el factor relacionado con las características negativas (D&U). Aparecen resultados similares cuando se compara un uso moderado, con uno esporádico, sobre todo con respecto a la consideración de las características negativas. Los resultados de esta tesis están en línea con la literatura anterior que se ha basado en variables similares (por ejemplo, de Geus et al. 2008; Stinson & Bhat 2003, 2004; Hunt & Abraham 2006; y van Bekkum et al. 2011a, entre otros), pero en este estudio las diferencias se observan en un contexto de bajo uso y se derivan de un análisis de toda la población de personas que se desplazan a su lugar de trabajo o estudio, lo cual eleva la fiabilidad de los resultados. La posibilidad de que unos niveles más altos de uso de la bicicleta para fines utilitarios puedan llevar a niveles más positivos de su consideración abre el camino a implicaciones teóricas y de políticas que se discuten en la tesis. Con estos resultados se argumenta que el enfoque convencional basado en el cambio de actitudes puede no ser el único y prioritario para lograr cambios a la hora de fomentar el uso de la bicicleta. Los resultados apuntan al potencial de otros esquemas de causalidad, basados en patrones de influencia más descentrados y distribuidos, y que adopten una mirada más positiva hacia los hábitos de transporte, conceptualizándolos como “inteligencia encarnada y pre-reflexiva” (Schwanen et al. 2012). Tales esquemas conducen a un enfoque más práctico para la promoción del uso de la bicicleta, con estrategias que podrían basarse en acciones de ‘degustación’ de su uso o de mayor ‘exposición’ a su uso. Is the fact that people like cycling the reason for them to cycle? Or is the fact that they do cycle the reason for them to like cycling? Or is a combination of the two? This kind of questions reflect a problem that can be called ‘the cycle of cycling consideration’: in order to consider cycling in the set of possible options to be chosen, an individual needs to have positive beliefs about it, especially in the case of ‘low-cycling contexts’. However, positive beliefs seem unlikely to be formed with low levels of mode familiarity, say, with a low acquaintance with mode features, functioning and images; at the same time, higher levels of familiarity are likely to be reached if cycling is practised over relative threshold levels of intensities and extensively across individual life courses. The problem looks like a chicken-egg recursive cycle, since the latter condition is hardly met in places where cycling is little practised. In fact, inside the current conglomerate of technologies, infrastructures, regulations, user practices, cultural preferences that have grown around the automobile (the current “socio-technical system of urban mobility”, Urry 2004; Geels 2005, 2012) cycling is commonly considered as difficult, unsafe, and abnormal. Consequently, the processes of familiarity forming remain disabled, and, as a result, beliefs cannot rely on mode familiarity as a source of information and influence. Without cycling familiarity, origins of positive beliefs are supposed to rely only on personal traits (affect, values, identities, willingness, etc.), which, in low-cycling contexts, confine the possibility of cycling consideration (and eventual adoption) mainly to ‘cycling enthusiasts’ who are willing to “go against the grain” (Horton & Parkin 2012), as it results from previous research. New research conducted by author provides theoretical insights for a different approach of the cycling consideration problem in which the presence of the new construct of cycling familiarity is hypothesised in the relationship between mode choice behaviour and the set of psychosocial constructs that are supposed to precede it (beliefs and attitudes). Cycling familiarity is conceived as a measure of the real and the perceived relative intensity of use of a bicycle (building upon Diana & Mokhtarian 2009) which may be differently formed for utilitarian or non-utilitarian purposes. The construct is assumed to be related to the amount of time, the intensity and the regularity an individual spends in using a bicycle for the two distinct categories of purposes, gaining in this way a certain level of acquaintance with the mode. Familiarity with a mode of transport is conceived as an enabling condition to properly define the decision-making context in which individual travel mode choices are taken, in line with rather disperse research efforts postulating inverse relationships between mode behaviours and mode choices (Tardiff 1977; Dobson et al. 1978; Golob et al. 1979; Golob 2001; Schwanen et al. 2012; Diana et al. 2009; Vij & Walker 2014). The new construct is built theoretically and methodologically, and a cross-sectional design instrument is employed. Results from a telephone survey in a representative sample of 736 commuters in the Spanish city of Vitoria-Gasteiz, provide suggestive –although preliminary– evidence on the role of mode familiarity as a mediator in the relationship between cycling use and the formation of beliefs and attitudes toward cycling. Measures of both cycling consideration and cycling familiarity are defined making use of exploratory factor analysis. On the one hand, four distinct cycling consideration measures are created, based on attitude expressions on four underlying factors relating to the cycling commuting behaviour: on how cycling commuting is considered green and smart (G&S); on its pleasant and suited character (P&S); on its efficiency as a mode of transport for commuting (E); and on the main drawbacks of its use, namely the difficulties implied (sweating and being exposed to adverse weather conditions) and the sense of unsafety it generates (feeling at risk of accidents and getting stressed by traffic) (D&U). On the other hand, dimensions of cycling familiarity are measured on two distinct ordinal variables (whether based on the utilitarian or non-utilitarian use) comprising four stages to a complete mode familiarity: not familiar; barely familiar; moderately familiar; fully familiar. For each of the four stages of cycling familiarity defined, statistical significant differences are found, especially for the measure related to the utilitarian use. Consistently, people at the lower levels of cycling familiarity have a lower consideration of the positive aspects of cycling and conversely they exhibit higher concerns towards the negative characteristics than those individuals that are more familiar in utilitarian cycling. Using a bicycle occasionally for practical purposes, as opposed to not using it at all, seems associated to significant higher scores in the three positive factors (G&S, E, P&S) while it appears to be associated to significant lower scores in the factor relating with the negative characteristics of cycling commuting (D&U). A same pattern also occurs with a moderate use, as opposed to an occasional one, especially for the consideration of the negative characteristics. The results are in line with previous literature based on similar variables (e.g. de Geus et al. 2008; Stinson & Bhat 2003, 2004; Hunt & Abraham 2006; and van Bekkum et al. 2011a, among others), but in this study the differences are observed in a low-cycling context and derive from an analysis of the entire population of commuters, which rises the reliability of results.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

En un momento en el que la Nube cobra cada día más fuerza, contribuyendo como pieza fundamental en la aparición de nuevos modelos de negocio, que a su vez originan una amplia oferta de aplicaciones útiles en prácticamente todos los ámbitos; la Unión Europea decidió sumergirse en el proyecto FIWARE, con la idea de alzarse como una nueva alternativa pública de código abierto, en un mercado dominado desde hace años por Google y Amazon. Desde 2011, FIWARE crece gracias al trabajo colaborativo de multitud de empresas e instituciones europeas especializadas en el ámbito de las TIC, con el objetivo de ofrecer un entorno estandarizado y de código abierto, que de soporte en la nube, tanto a las empresas como a las aplicaciones que puedan surgir en el futuro. Entre el amplio conjunto de contribuidores al proyecto, se encuentra la Universidad Politécnica de Madrid. Concretamente, como parte de la Cátedra de Telefónica en la Escuela Superior de Ingenieros de Telecomunicación, nace el Grupo de Internet de Nueva Generación (GING), responsable de importantes aportaciones al proyecto FIWARE. Entre las diferentes actividades a cargo del GING, están el diseño, la implementación y el mantenimiento del Portal Cloud, la interfaz gráfica que proporciona acceso desde la web a los diferentes servicios de la nube de FIWARE, basados la mayoría en los recursos Openstack: proveedor de infraestructura como servicio (IaaS). El objetivo de este trabajo será introducir al lector los principales propósitos por los que nace FIWARE, y presentar una serie de desarrollos realizados bajo la firma del GING, en torno al Portal y su relación con la infraestructura Openstack. A lo largo del documento, se explicarán los diferentes procedimientos vinculados a la implementación de las herramientas web que han contribuido a mejorar la funcionalidad del Portal. Dichos procedimientos, entrañan el estudio y empleo de tres tecnologías fundamentales: desarrollos web de front-end y el empleo de la framework BackboneJS, los recursos Openstack y el entorno de desarrollo Devstack, y el concepto de los widgets aplicado a la monitorización de máquinas virtuales. La lectura de este documento puede resultar de gran utilidad, pues, la implantación de los diferentes casos de uso tratados en este proyecto, permite hacer un repaso de los diferentes niveles de abstracción con los que cuenta una herramienta como el Portal Cloud: partiendo de la implementación de la interfaz de usuario, hasta llegar a la configuración de los recursos que conforman el soporte de la aplicación, pasando por la creación de APIs y librerías que proporcionen acceso a los distintos servicios disponibles. Así, el análisis de la estructura y componentes que dan forma al Portal Cloud de FIWARE, proporcionará una visión global, extrapolable al diseño y funcionamiento de cualquier aplicación o plataforma que emplee como soporte de sus capacidades los servicios ofrecidos por proveedores de Infraestructura como Servicio.