838 resultados para end to side anastomosis


Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper the main challenges associated with the migration process towards LTE, will be assessed. These challenges comprise, among others, the next key topics: Reliability, Availability Maintainability and Safety (RAMS) requirements, end to end Quality of Service (QoS) requirements, system performance in high speed scenarios, communication system deployment strategy, and system backward compatibility as well as the future system features for delivering railway services. The practical evaluation of the LTE system capabilities and performance in High Speed Railway (HSR) scenarios, require the development of an LTE demonstrator and an LTE system level simulator. Under this scope, the authors have developed an RF LTE demonstrator, as well as an LTE system level simulator, that will provide valuable information for the assessing of LTE performance and suitability in real HSR scenarios. This work is being developed under the framework of a research project to evaluate the feasibility of LTE to become the new railway communication system. The companies and universities involved in this project are: Technical University of Madrid (UPM), Alcatel Lucent Spain, ADIF (Spanish Railway Infrastructure Manager), Metro de Madrid, AT4 Wireless, the University of A Coruña (UDC) and University of Málaga (UMA).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Although the delivery of 3D video services to households is nowadays a reality thanks to frame-compatible formats, many efforts are being made to obtain efficient methods to transmit 3D content offering a high quality of experience to the end users. In this paper, a stereoscopic video streaming scenario is considered and the perceptual impact of various strategies applicable to adaptive streaming situations are compared. Specifically, the mechanisms are based on switching between copies of the content with different coding qualities, on discarding frames of the sequence, on switching from 3D to 2D and on using asymmetric coding of the stereo views. In addition, when video freezes happen, the possibility of keeping the end-to-end latency or maintaining the continuity of the video are considered. These aspects were evaluated carrying out a subjective assessment test considering also visual discomfort issues using a methodology designed to keep as far as possible domestic viewing conditions.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Organización de Estados Iberoamericanos para la Educación, la Ciencia y la Cultura (OEI) pretende llevar energía solar y acceso a internet a más de 66.000 escuelas en Iberoamérica, la mayor parte de ellas ubicadas en zonas rurales y de difícil acceso. Con el proyecto “Luces para aprender” se quiere reducir la brecha digital y poner fin al aislamiento de las comunidades rurales, facilitando su acceso a las tecnologías de la comunicación, con el fin de favorecer su desarrollo educativo, económico, social y cultural. La OEI que coordina el proyecto “Luces para Aprender” se dirigió a TEDECO (Tecnología para el Desarrollo y la Cooperación), que es un grupo de cooperación al desarrollo de la Facultad de Informática de la UPM, para solicitar asesoramiento en la parte software a instalar en el proyecto. Surge la necesidad de dotar de sistema operativo a los computadores que tendrán las escuelas beneficiarias de este proyecto. Por lo tanto, se ha decido crear un sistema operativo que consiste en una distribución GNU/Linux que se adapte a las necesidades de dicho proyecto. Esta distribución va acompañada de un manual de usuario y una guía de instalación para facilitar la implantación en los respectivos centros. Se pretende que la distribución esté disponible en un repositorio web y además esté basada en la filosofía de código libre y abierto. ---ABSTRACT---The OEI (Organization of Ibero-American States for Education, Science and Culture) hopes to provide solar energy and Internet access to more than 66.000 schools in Ibero-America, most of them, located in rural zones and of difficult access. With the project “Luces para aprender” (lights to learn), they would like to reduce the digital gap and put an end to the deprivation of the rural communities, supplying access to the Information Technologies, with the aim of contributing to its educative, economic, social and cultural development. The OEI that coordinates "Luces para Apreder" project, requested TEDECO (Technology for Development and Cooperation), which is a group of development cooperation of Facultad de Informática of the UPM, to advice in the part of software installation in the project. There is a need for an operative system that the computers will have in schools that will benefit from that project. Therefore, it has been decided to create an operative system that consists of a GNU/Linux distribution adapted to the needs of the project. That distribution will be accompanied by a user’s manual and an installation guide to help the implementing in the centres. The distribution is supposed to be available in a web, and moreover, will be based on the philosophy of free and opened codes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Quantum Key Distribution (QKD) is maturing quickly. However, the current approaches to its network use require conditions that make it an expensive technology. All the QKD networks deployed to date are designed as a collection of dedicated point-to-point links that use the trusted repeater paradigm. Instead, we propose a novel network model in which QKD systems use simultaneously quantum and conventional signals that are wavelength multiplexed over a common communication infrastructure. Signals are transmitted end-to-end within a metropolitan area using optical components. The model resembles a commercial telecom network and takes advantage of existing components, thus allowing for a cost-effective and reliable deployment.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los sistemas de telealimentación han tomado gran importancia en diferentes campos, incluido el de las telecomunicaciones, algunos ejemplos pueden ser: En la red conmutada telefónica junto con la señal de información y llamada existe una alimentación de 48v que se transmite a través de toda la línea de transmisión hasta los terminales. En algunos ferrocarriles eléctricos, se aprovecha la producción de energía eléctrica cuando un tren baja una cuesta y el motor funciona como generador, devolviendo la energía excedente a la propia catenaria por medio de superposición, y siendo esta recuperada en otro lugar y aprovechada por ejemplo por otro tren que requiere energía. Otro uso en ferrocarriles de la telealimentación es la llamada "tecnología del transpondedor magnético", en la que el tren transmite a las balizas una señal en 27MHz además de otras de información propias, que se convierte en energía útil para estas balizas. En este proyecto pretendemos implementar un pequeño ejemplo de sistema de telealimentación trabajando en 5 MHz (RF). Este sistema transforma una señal de CC en una señal de potencia de CA que podría ser, por ejemplo, transmitida a lo largo de una línea de transmisión o radiada por medio de una antena. Después, en el extremo receptor, esta señal RF se transforma finalmente en DC. El objetivo es lograr el mejor rendimiento de conversión de energía, DC a AC y AC a DC. El sistema se divide en dos partes: El inversor, que es la cadena de conversión DC-AC y el rectificador, que es la cadena de conversión AC-DC. Cada parte va a ser calculada, simulada, implementada físicamente y medida aparte. Finalmente el sistema de telealimentación completo se va a medir mediante la interconexión de cada parte por medio de un adaptador o una línea de transmisión. Por último, se mostrarán los resultados obtenidos. ABSTRACT. Remote powering systems have become very important in different fields, including telecommunications, some examples include: In the switched telephone network with the information signal and call there is a 48v supply that is transmitted across the transmission line to the terminals. In some electric railways, the production of electrical energy is used when a train is coming down a hill and the motor acts as a generator, returning the surplus energy to the catenary itself by overlapping, and this being recovered elsewhere and used by other train. Home TV amplifiers that are located in places (storage, remote locations ..) where there is no outlet, remote power allows to carry information and power signal by the same physical medium, for instance a coax. The AC power signal is transformed into DC at the end to feed the amplifier. In medicine, photovoltaic converters and fiber optics can be used as means for feeding devices implanted in patients. Another use of the remote powering systems on railways is the "magnetic transponder technology", in which the station transmits a beacon signal at 27MHz own as well as other information, which is converted into useful energy to these beacons. In this Project we are pretending to implement a little example of remote powering system working in 5 MHz (RF). This system transform DC into an AC-RF power signal which could be, for instance, transmitted throughout a transmission line or radiated by means of an aerial. At the receiving end, this RF signal is then transformed to DC. The objective is to achieve the best power conversion performance, DC to AC and AC to DC. The system is divided in two parts: The inverter, that is the DC-AC conversion chain and the rectifier that is the AC-DC conversion chain. Each part is going to be calculated, simulated, implemented physically and measured apart. Then the complete remote-powering system is to be measured by interconnecting each part by means of a interconnector or a transmission line. Finally, obtained results will be shown.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Las infraestructuras de telecomunicaciones son las que forman la capa física para la transmisión de la información de la que se componen las comunicaciones. Según el modelo OSI la capa física se encarga de convertir la trama que recibe (del nivel de enlace) en una serie de bits que envía a través del medio de transmisión correspondiente hacia el sistema destino, liberando a la capa superior de las funciones que imponga la naturaleza particular del medio de transmisión que se utilice. Para ello define las características mecánicas, eléctricas y funcionales de la interconexión al medio físico estableciendo además una interfaz con su capa superior (el nivel de enlace). Dependiendo del medio y el modo de transmisión así como de la topología de la red, el tipo de codificación y configuración de la línea y el tipo de comunicación deseada se requiere de un equipamiento u otro, por lo que la infraestructura de comunicaciones cambia. La complejidad de las redes de comunicaciones (multitud de servicios a multitud de destinos) hace que la gestión de la capa física (o de infraestructura) de las comunicaciones sea un reto difícil para los gestores de las telecomunicaciones en las empresas u organismos públicos. Ya que conseguir una correcta administración de las infraestructuras de telecomunicaciones es un factor clave para garantizar la calidad del servicio, optimizar los tiempos de provisión a los clientes y minimizar la indisponibilidad de la red ante incidencias. Si bien existen diferentes herramientas para la gestión de las telecomunicaciones la mayoría de estas soluciones contempla de manera limitada la capa física, dejando a los gestores con una multitud de aproximaciones, más o menos manuales, para entender y conocer qué pasa en su red a nivel físico y lo que puede ser aún más grave, sin la capacidad de reacción rápida ante la aparición de una incidencia. Para resolver este problema se hace necesaria la capacidad de gestión extremo a extremo de los circuitos y de todas sus conexiones intermedias. Esto es, se necesita implantar una metodología que modele la red de comunicaciones de manera que se pueda representar en un sistema informático y sobre él facilitar la gestión de los circuitos físicos y de sus infraestructuras asociadas. Por ello, la primera parte del proyecto consistirá en la descripción del tipo de infraestructura de telecomunicaciones a gestionar, el estudio de las soluciones actuales de gestión de red y el análisis de las estrategias que se están considerando para permitir la gestión de la capa física. La segunda parte estará dedicada a la definición de una metodología para la representación de la capa física en un sistema informático, de manera que se proporcione una solución completa a las organizaciones para la gestión eficaz de su infraestructura de telecomunicaciones. Y la tercera parte se centrará en la realización de un ejemplo real (piloto) de implantación de esta metodología para un proyecto concreto de una red de comunicaciones. Con objeto de mostrar las prestaciones de la solución propuesta. ABSTRACT. Telecommunications infrastructures have the physical layer component for the transfer of data. As defined in OSI model the physical layer performs the conversion of data received to binary digits which are sent through the transmission devices towards the target system, thus freeing the top layer from defining the functional specifics of each device used. This requires the full definition of the mechanical, electrical and functional features within the physical environment and the implementation of an interface with the top layer. Dependencies on the environment and the transmission modes as well as the network’s topology, the type of protocol and the line’s configuration and the type of communication selected provide specific requirements which define the equipment needed. This may also require changes in the communications environment. Current networks’ complexity (many different types of services to many nodes) demand an efficient management of the physical layer and the infrastructure in enterprises and the public sector agencies thus becoming a challenging task to the responsible for administering the telecommunications infrastructure which is key to provide high quality of service with the need to avoid any disruption of service. We have in the market different tools supporting telecommunications management but most of these solutions have limited functionality for the physical layer, leaving to administrators with the burden of executing manual tasks which need to be performed in order to attain the desired level of control which facilitates the decision process when incidents occur. An adequate solution requires an end to end capacity management of the circuits and all intermediate connections. We must implement a methodology to model the communications network to be able of representing an entire IT system to manage circuitry and associated infrastructure components. For the above purpose, the first part of the Project includes a complete description of the type of communications infrastructure to manage, the study of the current solutions available in network management and an analysis of the strategies in scope for managing the physical layer. The second part is dedicated to the definition of a methodology for the presentation of the physical layer in an IT system with the objective of providing a complete solution to the responsible staffs for efficiently managing a telecommunications infrastructure. The third part focuses on the deployment of a pilot using this methodology in a specific project performed on a communications network. Purpose is to show the deliverables of the proposed solution.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Workflow reuse is a major benefit of workflow systems and shared workflow repositories, but there are barely any studies that quantify the degree of reuse of workflows or the practical barriers that may stand in the way of successful reuse. In our own work, we hypothesize that defining workflow fragments improves reuse, since end-to-end workflows may be very specific and only partially reusable by others. This paper reports on a study of the current use of workflows and workflow fragments in labs that use the LONI Pipeline, a popular workflow system used mainly for neuroimaging research that enables users to define and reuse workflow fragments. We present an overview of the benefits of workflows and workflow fragments reported by users in informal discussions. We also report on a survey of researchers in a lab that has the LONI Pipeline installed, asking them about their experiences with reuse of workflow fragments and the actual benefits they perceive. This leads to quantifiable indicators of the reuse of workflows and workflow fragments in practice. Finally, we discuss barriers to further adoption of workflow fragments and workflow reuse that motivate further work.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Las aplicaciones distribuidas que precisan de un servicio multipunto fiable son muy numerosas, y entre otras es posible citar las siguientes: bases de datos distribuidas, sistemas operativos distribuidos, sistemas de simulación interactiva distribuida y aplicaciones de distribución de software, publicaciones o noticias. Aunque en sus orígenes el dominio de aplicación de tales sistemas distribuidos estaba reducido a una única subred (por ejemplo una Red de Área Local) posteriormente ha surgido la necesidad de ampliar su aplicabilidad a interredes. La aproximación tradicional al problema del multipunto fiable en interredes se ha basado principalmente en los dos siguientes puntos: (1) proporcionar en un mismo protocolo muchas garantías de servicio (por ejemplo fiabilidad, atomicidad y ordenación) y a su vez algunas de éstas en distintos grados, sin tener en cuenta que muchas aplicaciones multipunto que precisan fiabilidad no necesitan otras garantías; y (2) extender al entorno multipunto las soluciones ya adoptadas en el entorno punto a punto sin considerar las características diferenciadoras; y de aquí, que se haya tratado de resolver el problema de la fiabilidad multipunto con protocolos extremo a extremo (protocolos de transporte) y utilizando esquemas de recuperación de errores, centralizados (las retransmisiones se hacen desde un único punto, normalmente la fuente) y globales (los paquetes solicitados se vuelven a enviar al grupo completo). En general, estos planteamientos han dado como resultado protocolos que son ineficientes en tiempo de ejecución, tienen problemas de escalabilidad, no hacen un uso óptimo de los recursos de red y no son adecuados para aplicaciones sensibles al retardo. En esta Tesis se investiga el problema de la fiabilidad multipunto en interredes operando en modo datagrama y se presenta una forma novedosa de enfocar el problema: es más óptimo resolver el problema de la fiabilidad multipunto a nivel de red y separar la fiabilidad de otras garantías de servicio, que pueden ser proporcionadas por un protocolo de nivel superior o por la propia aplicación. Siguiendo este nuevo enfoque se ha diseñado un protocolo multipunto fiable que opera a nivel de red (denominado RMNP). Las características más representativas del RMNP son las siguientes; (1) sigue una aproximación orientada al emisor, lo cual permite lograr un grado muy alto de fiabilidad; (2) plantea un esquema de recuperación de errores distribuido (las retransmisiones se hacen desde ciertos encaminadores intermedios que siempre estarán más cercanos a los miembros que la propia fuente) y de ámbito restringido (el alcance de las retransmisiones está restringido a un cierto número de miembros). Este esquema hace posible optimizar el retardo medio de distribución y disminuir la sobrecarga introducida por las retransmisiones; (3) incorpora en ciertos encaminadores funciones de agregación y filtrado de paquetes de control, que evitan problemas de implosión y reducen el tráfico que fluye hacia la fuente. Con el fin de evaluar el comportamiento del protocolo diseñado, se han realizado pruebas de simulación obteniéndose como principales conclusiones que, el RMNP escala correctamente con el tamaño del grupo, hace un uso óptimo de los recursos de red y es adecuado para aplicaciones sensibles al retardo.---ABSTRACT---There are many distributed applications that require a reliable multicast service, including: distributed databases, distributed operating systems, distributed interactive simulation systems and distribution applications of software, publications or news. Although the application domain of distributed systems of this type was originally confíned to a single subnetwork (for example, a Local Área Network), it later became necessary extend their applicability to internetworks. The traditional approach to the reliable multicast problem in internetworks is based mainly on the following two points: (1) provide a lot of service guarantees in one and the same protocol (for example, reliability, atomicity and ordering) and different levéis of guarantee in some cases, without taking into account that many multicast applications that require reliability do not need other guarantees, and (2) extend solutions adopted in the unicast environment to the multicast environment without taking into account their distinctive characteristics. So, the attempted solutions to the multicast reliability problem were end-to-end protocols (transport protocols) and centralized error recovery schemata (retransmissions made from a single point, normally the source) and global error retrieval schemata (the requested packets are retransmitted to the whole group). Generally, these approaches have resulted in protocols that are inefficient in execution time, have scaling problems, do not make optimum use of network resources and are not suitable for delay-sensitive applications. Here, the multicast reliability problem is investigated in internetworks operating in datagram mode and a new way of approaching the problem is presented: it is better to solve to the multicast reliability problem at network level and sepárate reliability from other service guarantees that can be supplied by a higher protocol or the application itself. A reliable multicast protocol that operates at network level (called RMNP) has been designed on the basis of this new approach. The most representative characteristics of the RMNP are as follows: (1) it takes a transmitter-oriented approach, which provides for a very high reliability level; (2) it provides for an error retrieval schema that is distributed (the retransmissions are made from given intermedíate routers that will always be closer to the members than the source itself) and of restricted scope (the scope of the retransmissions is confined to a given number of members), and this schema makes it possible to optimize the mean distribution delay and reduce the overload caused by retransmissions; (3) some routers include control packet aggregation and filtering functions that prevent implosión problems and reduce the traffic flowing towards the source. Simulation test have been performed in order to evalúate the behaviour of the protocol designed. The main conclusions are that the RMNP scales correctly with group size, makes optimum use of network resources and is suitable for delay-sensitive applications.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ultrasound wave velocity was measured in 30 pieces of Spanish Scots pine (Pinus sylvestris L.), 90 x 140 mm in cross-section and 4 m long. Five different sensor placement arrangements were used: end to end (V0), face to opposite face, edge to opposite edge, face to same face and edge to same edge. The pieces were successively shortened to 3, 2 and 1 m, in order to obtain these velocities and their ratios to reference value V0 for different lengths and angles with respect to the piece axis for the crossed measurements. The velocity obtained in crossed measurements is lower than V0. A correction coefficient for crossed velocities is proposed, depending on the angle, to adjust them to the V0 benchmark. The velocities measured on a surface, are also lower than V0, and their ratio with respect to V0 is close to 0.97 for distances equal to or greater than 18 times the depth of the beam.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Estudios recientes promueven la integración de estímulos multisensoriales en activos multimedia con el fin de mejorar la experiencia de usuario mediante la estimulación de nuevos sentidos, más allá de la tradicional experiencia audiovisual. Del mismo modo, varios trabajos proponen la introducción de componentes de interacción capaces de complementar con nuevas características, funcionalidades y/o información la experiencia multimedia. Efectos sensoriales basados en el uso de nuevas técnicas de audio, olores, viento, vibraciones y control de la iluminación, han demostrado tener un impacto favorable en la sensación de Presencia, en el disfrute de la experiencia multimedia y en la calidad, relevancia y realismo de la misma percibidos por el usuario. Asimismo, los servicios basados en dos pantallas y la manipulación directa de (elementos en) la escena de video tienen el potencial de mejorar la comprensión, la concentración y la implicación proactiva del usuario en la experiencia multimedia. El deporte se encuentra entre los géneros con mayor potencial para integrar y explotar éstas soluciones tecnológicas. Trabajos previos han demostrado asimismo la viabilidad técnica de integrar éstas tecnologías con los estándares actualmente adoptados a lo largo de toda la cadena de transmisión de televisión. De este modo, los sistemas multimedia enriquecidos con efectos sensoriales, los servicios interactivos multiplataforma y un mayor control del usuario sobre la escena de vídeo emergen como nuevas formas de llevar la multimedia immersiva e interactiva al mercado de consumo de forma no disruptiva. Sin embargo, existen numerosas interrogantes relativas a los efectos sensoriales y/o soluciones interactivas más adecuadas para complementar un contenido audiovisual determinado o a la mejor manera de de integrar y combinar dichos componentes para mejorar la experiencia de usuario de un segmento de audiencia objetivo. Además, la evidencia científica sobre el impacto de factores humanos en la experiencia de usuario con estas nuevas formas de immersión e interacción en el contexto multimedia es aún insuficiente y en ocasiones, contradictoria. Así, el papel de éstos factores en el potencial de adopción de éstas tecnologías ha sido amplia-mente ignorado. La presente tesis analiza el impacto del audio binaural, efectos sensoriales (de iluminación y olfativos), interacción con objetos 3D integrados en la escena de vídeo e interacción con contenido adicional utilizando una segunda pantalla en la experiencia de usuario con contenidos de deporte. La posible influencia de dichos componentes en las variables dependientes se explora tanto a nivel global (efecto promedio) como en función de las características de los usuarios (efectos heterogéneos). Para ello, se ha llevado a cabo un experimento con usuarios orientado a explorar la influencia de éstos componentes immersivos e interactivos en dos grandes dimensiones de la experiencia multimedia: calidad y Presencia. La calidad de la experiencia multimedia se analiza en términos de las posibles variaciones asociadas a la calidad global y a la calidad del contenido, la imagen, el audio, los efectos sensoriales, la interacción con objetos 3D y la interacción con la segunda pantalla. El posible impacto en la Presencia considera dos de las dimensiones definidas por el cuestionario ITC-SOPI: Presencia Espacial (Spatial Presence) e Implicación (Engagement). Por último, los individuos son caracterizados teniendo en cuenta los siguientes atributos afectivos, cognitivos y conductuales: preferencias y hábitos en relación con el contenido, grado de conocimiento de las tecnologías integradas en el sistema, tendencia a involucrarse emocionalmente, tendencia a concentrarse en una actividad bloqueando estímulos externos y los cinco grandes rasgos de la personalidad: extroversión, amabilidad, responsabilidad, inestabilidad emocional y apertura a nuevas experiencias. A nivel global, nuestro estudio revela que los participantes prefieren el audio binaural frente al sistema estéreo y que los efectos sensoriales generan un aumento significativo del nivel de Presencia Espacial percibido por los usuarios. Además, las manipulaciones experimentales realizadas permitieron identificar una gran variedad de efectos heterogéneos. Un resultado interesante es que dichos efectos no se encuentran distribuidos de forma equitativa entre las medidas de calidad y Presencia. Nuestros datos revelan un impacto generalizado del audio binaural en la mayoría de las medidas de calidad y Presencia analizadas. En cambio, la influencia de los efectos sensoriales y de la interacción con la segunda pantalla se concentran en las medidas de Presencia y calidad, respectivamente. La magnitud de los efectos heterogéneos identificados está modulada por las siguientes características personales: preferencias en relación con el contenido, frecuencia con la que el usuario suele ver contenido similar, conocimiento de las tecnologías integradas en el demostrador, sexo, tendencia a involucrarse emocionalmente, tendencia a a concentrarse en una actividad bloqueando estímulos externos y niveles de amabilidad, responsabilidad y apertura a nuevas experiencias. Las características personales consideradas en nuestro experimento explicaron la mayor parte de la variación en las variables dependientes, confirmando así el importante (y frecuentemente ignorado) papel de las diferencias individuales en la experiencia multimedia. Entre las características de los usuarios con un impacto más generalizado se encuentran las preferencias en relación con el contenido, el grado de conocimiento de las tecnologías integradas en el sistema y la tendencia a involucrarse emocionalmente. En particular, los primeros dos factores parecen generar un conflicto de atención hacia el contenido versus las características/elementos técnicos del sistema, respectivamente. Asimismo, la experiencia multimedia de los fans del fútbol parece estar modulada por procesos emociona-les, mientras que para los no-fans predominan los procesos cognitivos, en particular aquellos directamente relacionados con la percepción de calidad. Abstract Recent studies encourage the integration of multi-sensorial stimuli into multimedia assets to enhance the user experience by stimulating other senses beyond sight and hearing. Similarly, the introduction of multi-modal interaction components complementing with new features, functionalities and/or information the multimedia experience is promoted. Sensory effects as odor, wind, vibration and light effects, as well as an enhanced audio quality, have been found to favour media enjoyment and to have a positive influence on the sense of Presence and on the perceived quality, relevance and reality of a multimedia experience. Two-screen services and a direct manipulation of (elements in) the video scene have the potential to enhance user comprehension, engagement and proactive involvement of/in the media experience. Sports is among the genres that could benefit the most from these solutions. Previous works have demonstrated the technical feasibility of implementing and deploying end-to-end solutions integrating these technologies into legacy systems. Thus, sensorially-enhanced media, two-screen services and an increased user control over the displayed scene emerge as means to deliver a new form of immersive and interactive media experiences to the mass market in a non-disruptive manner. However, many questions remain concerning issues as the specific interactive solutions or sensory effects that can better complement a given audiovisual content or the best way in which to integrate and combine them to enhance the user experience of a target audience segment. Furthermore, scientific evidence on the impact of human factors on the user experience with these new forms of immersive and interactive media is still insufficient and sometimes, contradictory. Thus, the role of these factors on the potential adoption of these technologies has been widely ignored. This thesis analyzes the impact of binaural audio, sensory (light and olfactory) effects, interaction with 3D objects integrated into the video scene and interaction with additional content using a second screen on the sports media experience. The potential influence of these components on the dependent variables is explored both at the overall level (average effect) and as a function of users’ characteristics (heterogeneous effects). To these aims, we conducted an experimental study exploring the influence of these immersive and interactive elements on the quality and Presence dimensions of the media experience. Along the quality dimension, we look for possible variations on the quality scores as-signed to the overall media experience and to the media components content, image, audio, sensory effects, interaction with 3D objects and interaction using the tablet device. The potential impact on Presence is analyzed by looking at two of the four dimensions defined by the ITC-SOPI questionnaire, namely Spatial Presence and Engagement. The users’ characteristics considered encompass the following personal affective, cognitive and behavioral attributes: preferences and habits in relation to the content, knowledge of the involved technologies, tendency to get emotionally involved and tendency to get absorbed in an activity and block out external distractors and the big five personality traits extraversion, agreeableness, conscientiousness, neuroticism and openness to experience. At the overall level, we found that participants preferred binaural audio than standard stereo audio and that sensory effects increase significantly the level of Spatial Presence. Several heterogeneous effects were also revealed as a result of our experimental manipulations. Interestingly, these effects were not equally distributed across the quality and Presence measures analyzed. Whereas binaural audio was foud to have an influence on the majority of the quality and Presence measures considered, the effects of sensory effects and of interaction with additional content through the tablet device concentrate mainly on the dimensions of Presence and on quality measures, respectively. The magnitude of these effects was modulated by individual’s characteristics, such as: preferences in relation to the content, frequency of viewing similar content, knowledge of involved technologies, gender, tendency to get emotionally involved, tendency to absorption and levels of agreeableness, conscientiousness and openness to experience. The personal characteristics collected in our experiment explained most of the variation in the dependent variables, confirming the frequently neglected role of individual differences on the media experience. Preferences in relation to the content, knowledge of involved technologies and tendency to get emotionally involved were among the user variables with the most generalized influence. In particular, the former two features seem to present a conflict in the allocation of attentional resources towards the media content versus the technical features of the system, respectively. Additionally, football fans’ experience seems to be modulated by emotional processes whereas for not fans, cognitive processes (and in particular those related to quality judgment) prevail.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Las personas que usan la silla de ruedas como su forma de movilidad prioritaria presentan una elevada incidencia (73%) de dolor de hombro debido al sobreuso y al movimiento repetitivo de la propulsión. Existen numerosos métodos de diagnóstico para la detección de las patologías del hombro, sin embargo la literatura reclama la necesidad de un test no invasivo y fiable, y sugiere la termografía como una técnica adecuada para evaluar el dolor articular. La termografía infrarroja (IRT) proporciona información acerca de los procesos fisiológicos a través del estudio de las distribuciones de la temperatura de la piel. Debido a la alta correlación entre ambos lados corporales, las asimetrías térmicas entre flancos contralaterales son una buena indicación de patologías o disfunciones físicas subyacentes. La fiabilidad de la IRT ha sido estudiada con anterioridad en sujetos sanos, pero nunca en usuarios de sillas de ruedas. Las características especiales de la población con discapacidad (problemas de sudoración y termorregulación, distribución sanguínea o medicación), hacen necesario estudiar los factores que afectan a la aplicación de la IRT en usuarios de sillas de ruedas. La bibliografía discrepa en cuanto a los beneficios o daños resultantes de la práctica de la actividad física en las lesiones de hombro por sobreuso en usuarios de sillas de ruedas. Recientes resultados apuntan a un aumento del riesgo de rotura del manguito rotador en personas con paraplejia que practican deportes con elevación del brazo por encima de la cabeza. Debido a esta falta de acuerdo en la literatura, surge la necesidad de analizar el perfil termográfico en usuarios de sillas de ruedas sedentarios y deportistas y su relación con el dolor de hombro. Hasta la fecha sólo se han publicado estudios termográficos durante el ejercicio en sujetos sanos. Un mayor entendimiento de la respuesta termográfica al ejercicio en silla de ruedas en relación al dolor de hombro clarificará su aparición y desarrollo y permitirá una apropiada intervención. El primer estudio demuestra que la fiabilidad de la IRT en usuarios de sillas de ruedas varía dependiendo de las zonas analizadas, y corrobora que la IRT es una técnica no invasiva, de no contacto, que permite medir la temperatura de la piel, y con la cual avanzar en la investigación en usuarios de sillas de ruedas. El segundo estudio proporciona un perfil de temperatura para usuarios de sillas de ruedas. Los sujetos no deportistas presentaron mayores asimetrías entre lados corporales que los sedentarios, y ambos obtuvieron superiores asimetrías que los sujetos sin discapacidad reportados en la literatura. Los no deportistas también presentaron resultados más elevados en el cuestionario de dolor de hombro. El área con mayores asimetrías térmicas fue hombro. En deportistas, algunas regiones de interés (ROIs) se relacionaron con el dolor de hombro. Estos resultados ayudan a entender el mapa térmico en usuarios de sillas de ruedas. El último estudio referente a la evaluación de la temperatura de la piel en usuarios de sillas de ruedas en ejercicio, reportó diferencias significativas entre la temperatura de la piel antes del test y 10 minutos después del test de propulsión de silla de ruedas, en 12 ROIs; y entre el post-test y 10 minutos después del test en la mayoría de las ROIs. Estas diferencias se vieron atenuadas cuando se compararon las asimetrías antes y después del test. La temperatura de la piel tendió a disminuir inmediatamente después completar el ejercicio, e incrementar significativamente 10 minutos después. El análisis de las asimetrías vs dolor de hombro reveló relaciones significativas negativas en 5 de las 26 ROIs. No se encontraron correlaciones significativas entre las variables de propulsión y el cuestionario de dolor de hombro. Todas las variables cinemáticas correlacionaron significativamente con las asimetrías en múltiples ROIs. Estos resultados indican que los deportistas en sillas de ruedas exhiben una capacidad similar de producir calor que los deportistas sin discapacidad; no obstante, su patrón térmico es más característico de ejercicios prolongados que de esfuerzos breves. Este trabajo contribuye al conocimiento de la termorregulación en usuarios de sillas de ruedas durante el ejercicio, y aporta información relevante para programas deportivos y de rehabilitación. ABSTRACT Individuals who use wheelchairs as their main means of mobility have a high incidence (73%) of shoulder pain (SP) owing to overuse and repetitive propulsion movement. There are numerous diagnostic methods for the detection of shoulder pathologies, however the literature claims that a noninvasive accurate test to properly assess shoulder pain would be necessary, and suggests thermography as a suitable technique for joint pain evaluation. Infrared thermography (IRT) provides information about physiological processes by studying the skin temperature (Tsk) distributions. Due to the high correlation of skin temperature between both sides of the body, thermal asymmetries between contralateral flanks are an indicator of underlying pathologies or physical dysfunctions. The reliability of infrared thermography has been studied in healthy subjects but there are no studies that have analyzed the reliability of IRT in wheelchair users (WCUs). The special characteristics of people with disabilities (sweating and thermoregulation problems, or blood distribution) make it necessary to study the factors affecting the application of IRT in WCUs. Discrepant reports exist on the benefits of, or damage resulting from, physical exercise and the relationship to shoulder overuse injuries in WCUs. Recent findings have found that overhead sports increase the risk of rotator cuff tears in wheelchair patients with paraplegia. Since there is no agreement in the literature, the thermographic profile of wheelchair athletes and nonathletes and its relation with shoulder pain should also be analysed. Infrared thermographic studies during exercise have been carried out only with able-bodied population at present. The understanding of the thermographic response to wheelchair exercise in relation to shoulder pain will offer an insight into the development of shoulder pain, which is necessary for appropriate interventions. The first study presented in this thesis demonstrates that the reliability of IRT in WCUs varies depending on the areas of the body that are analyzed. Moreover, it corroborates that IRT is a noninvasive and noncontact technique that allows the measurement of Tsk, which will allow for advances to be made in research concerned with WCUs. The second study provides a thermal profile of WCUs. Nonathletic subjects presented higher side-to-side skin temperature differences (ΔTsk) than athletes, and both had greater ΔTsk than the able-bodied results that have been published in the literature. Nonathletes also revealed larger Wheelchair Users Shoulder Pain Index (WUSPI) score than athletes. The shoulder region of interest (ROI) was the area with the highest ΔTsk of the regions measured. The analysis of the athletes’ Tsk showed that some ROIs are related to shoulder pain. These findings help to understand the thermal map in WCUs. Finally, the third study evaluated the thermal response of WCUs in exercise. There were significant differences in Tsk between the pre-test and the post-10 min in 12 ROIs, and between the post-test and the post-10 in most of the ROIs. These differences were attenuated when the ΔTsk was compared before and after exercise. Skin temperature tended to initially decrease immediately after the test, followed by a significant increase at 10 minutes after completing the exercise. The ΔTsk versus shoulder pain analysis yielded significant inverse relationships in 5 of the 26 ROIs. No significant correlations between propulsion variables and the results of the WUSPI questionnaire were found. All kinematic variables were significantly correlated with the temperature asymmetries in multiple ROIs. These results present indications that high performance wheelchair athletes exhibit similar capacity of heat production to able-bodied population; however, they presented a thermal pattern more characteristic of a prolonged exercise rather than brief exercise. This work contributes to improve the understanding about temperature changes in wheelchair athletes during exercise and provides implications to the sports and rehabilitation programs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El objetivo principal de este Proyecto Fin de Carrera (PFC), consiste en diseñar una plataforma Smart Services dentro de una compañía, para proporcionar a sus clientes servicios de Smart Cities. Se diseñará una plataforma que en fase de implantación llegue a prestar servicios extremo a extremo a las AAPP (Ayuntamientos y concesionarios de servicios municipales). Es decir, desde la petición del servicio, hasta que el mismo se provisiona y se pone en marcha. El diseño de la solución para el Sistema de Gestión deberá cumplir con las siguientes características: 1. Gestión end-to-end de la Plataforma Smart Services. 2. Cobertura a los diferentes módulos funcionales del propio Sistema de Gestión: 3. Gestión del inventario. 4. Gestión de la provisión. 5. Monitorización y supervisión de la Plataforma Smart Services. 6. Gestión del servicio. 7. Escalabilidad: La solución propuesta debe garantizar la escalabilidad necesaria para poder atender a las necesidades de volumetría. 8. Sistema de Gestión implementado bajo herramientas Open Source.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabajo se centra en el estudio de las investigaciones de Jorge Oteiza en torno a la funcionalidad estética del espacio, en especial, en la actividad artística que desarrolló en el año 1958, un año decisivo en la vida del escultor en el que dio por finalizado su proceso de experimentación sobre la naturaleza espacial de la estatua. En este desenlace tuvo un papel fundamental la relación funcional que planteó, a la hora de retomar su trabajo después de su triunfo en la IV Bienal de São Paulo de 1957, entre la escultura y la arquitectura. La primera, entendida como organismo puramente espacial, debía de responder a las condiciones de su mundo circundante, el espacio arquitectónico. Su función: acondicionarlo estéticamente para satisfacer las necesidades espirituales del habitante. Siguiendo el canon estético que para la escultura acababa de anunciar en Brasil, la desocupación espacial (la liberación de la energía espacial de la estatua, el rompimiento de la neutralidad del espacio libre) no se trataba de embellecer superficialmente la arquitectura sino de activar su vacío interior. Oteiza, que siempre estuvo muy interesado por la arquitectura y que había colaborado con anterioridad en numerosas ocasiones con los mejores arquitectos del país, fue durante este año cuando profundizó de manera más sistemática (teórica y prácticamente) sobre la relación arte-arquitectura. De hecho, él mismo nombraba como el último trabajo de su línea de experimentación en escultura a su propuesta para el concurso del Monumento a José Batlle en Montevideo, que junto al arquitecto Roberto Puig acabaron a finales de año. En el proyecto se planteaba a escala urbana, y como ejemplo concreto, el modelo teórico de integración arquitectura + (arte=0) que había elaborado los meses anteriores, la integración vacía. En el texto explicativo que acompañaba al proyecto (un texto que desbordaba los límites de una memoria al uso) demandaba la necesidad de la toma de conciencia estética del espacio, como acto de libertad individual, y declaraba el fin del rol de espectador del hombre frente a la obra de arte, reclamando su participación activa en la misma. Para él, la noción del espacio estético no era una condición innata en el hombre, se descubría, se aprendía, evolucionaba y se olvidaba (una vez convertido en hábito). Frente a la ceguera de la sensibilidad espacial del hombre, proponía la educación de la percepción espacial, condicionar emocionalmente la reflexión espontánea ante el juego espacial de las formas en la naturaleza y el espectáculo natural de la ciudad. Aprender a leer el lenguaje emocional del espacio, a pensar visualmente. La obra de arte era así un catalizador espiritual del contorno del mundo, modificador de la vida espacial circundante que corregía hábitos visuales y condicionaba estímulos y reflejos. Desde una resonancia afectiva con la definición psicológica del término (como energía psíquica profunda que invita o incita a pasar a la acción), a diferencia del instinto, la pulsión (siendo la fuente de toda conducta espontánea) es susceptible de ser modificada por la experiencia, por la educación, por la cultura, por el deseo. Es desde esta aproximación en términos de energía desde la que se propone la noción pulsiones del espacio como fórmula (reversible) entre la energía espacial liberada en el proceso de desocupación definido por Oteiza y caracterizadora de la obra como vacío activo (en escultura, en arquitectura), y la energía psíquica profunda que invita o incita a la toma de posesión del espacio (la voluntad espacial absoluta con la que Oteiza definía su modelo de arte=0, cero como expresión formal). Si el hombre modifica su entorno al mismo tiempo que es condicionado por él, es indispensable una conciencia estética del espacio que le enseñe, de entre todas las posibilidades que este le ofrece, qué es lo que necesita (qué es lo que le falta), para tomar posesión de él, para un efectivo ser o existir en el espacio. Es desde esta caracterización como energía por lo que las pulsiones del espacio se sitúan entre el hombre y su entorno (construido) y permiten la transformación entre energía espacial y energía psíquica; entre su hábitat y sus hábitos. Por estas mismas fechas, Oteiza definía una casa como un conjunto articulado de vacíos activos, como una obra de plástica pura que no es arte sino en función del habitante. Es este habitante, educado en la toma de conciencia estética del espacio, el que participando activamente en la interpretación de los espacios previstos por el arquitecto, sintiendo y movido por las pulsiones del espacio, hará uso adecuado de la arquitectura; pasando de un arte como objeto a un arte como comportamiento, transformará su habitar en un arte, el arte de habitar. ABSTRACT This work focuses on the study of Jorge Oteiza’s investigations on the aesthetic functionality of space, especially on his artistic activity developed in 1958, a decisive year in the life of the sculptor, in which he gave end to his process of experimentation on the spatial nature of the statue. In this outcome it was fundamental the functional relationship that he propounded, at the time of returning to work after his triumph in the IV Bienal de São Paulo in 1957, between sculpture and architecture. The first, understood as a purely spatial organism, should respond to the conditions of its environment (umwelt), the architectonic space. Its function: set it up aesthetically to meet the spiritual needs of the inhabitant. Following the aesthetic canon that he had just announced in Brazil for sculpture, the spatial disoccupation (the liberation of the spatial energy of the statue, the breaking of the neutrality of the free space) the aim was not to superficially beautify architecture but to activate its inner void. Oteiza, who had always been very interested in architecture and who had previously collaborated on numerous occasions with the best architects in the country, was in this year when he deepened in a more systematic way (theoretically and practically) about the art-architecture relationship. In fact, he named as the last work of his line of experimentation in sculpture to his proposal for the competition of the Monument to José Batlle in Montevideo, which, developed together with the architect Roberto Puig, was ended at the end of the year. The project proposed on an urban scale, and as a concrete example, the theoretical model of integration architecture + (art = 0) which he had elaborated the previous months, the empty integration. In the explanatory text accompanying the project (a text that exceeded the normal extents of a competition statement) he demanded the need of the aesthetic awareness of space, as an act of individual freedom, and it declared the end of the role of man as passive spectator in front of the work of art, claiming his actively participation in it. For him, the notion of the aesthetic space was not an inborn condition in man; first it was discovered, then learned, evolved and finally forgotten (once converted into a habit). To counteract blindness of the spatial sensitivity of man, he proposed the education of spatial perception, to emotionally influence the spontaneous reflection in front of the spatial game of forms in nature and the natural spectacle of the city. Learn to read the emotional language of space, to think visually. The work of art was thus a spiritual catalyst of the world’s contour, a modifier of the surrounding spatial life that corrected visual habits and conditioned stimuli and reflexes. From an emotional resonance with the psychological definition of the term (such as deep psychic power that invites or urges action), as opposed to instinct, drive (being the source of all spontaneous behavior) is likely to be modified by experience, by education, by culture, by desire. It is from this approach in terms of energy from which the notion drives of space is proposed, as a (reversible) formula between the spatial energy released in the process of disoccupation defined by Oteiza and characterizing of the work as a charged void (in sculpture, in architecture), and the deep psychic energy that invites or encourages the taking possession of the space (the absolute spatial will with which Oteiza defined its model of Art = 0, zero as a formal expression). If man changes his environment at the same time that is conditioned by it, it is essential an aesthetic awareness of space that shows him, among all the possibilities that it offers, what he needs (what is what he lacks), in order to take possession of it, for an effective being or existing in space. It is this characterization as energy by what drives of space lie between man and his (built) environment and allow the transformation between spatial and psychological energy; between his habitat and his habits. Around this same time, Oteiza defined a House as an articulated set of charged voids, as a work of pure plastic that is not art but according to the inhabitant. It is this inhabitant, educated in aesthetic awareness of space, who actively participating in the interpretation of the spaces provided by the architect, feeling and moved by the drives of the space, will make proper use of the architecture; from an art as object to an art as behavior, he will transform his inhabitation into an art, the art of inhabitation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The 1,3–1,4-β-glucanase from Bacillus macerans (wtGLU) and the 1,4-β-xylanase from Bacillus subtilis (wtXYN) are both single-domain jellyroll proteins catalyzing similar enzymatic reactions. In the fusion protein GluXyn-1, the two proteins are joined by insertion of the entire XYN domain into a surface loop of cpMAC-57, a circularly permuted variant of wtGLU. GluXyn-1 was generated by protein engineering methods, produced in Escherichia coli and shown to fold spontaneously and have both enzymatic activities at wild-type level. The crystal structure of GluXyn-1 was determined at 2.1 Å resolution and refined to R = 17.7% and R(free) = 22.4%. It shows nearly ideal, native-like folding of both protein domains and a small, but significant hinge bending between the domains. The active sites are independent and accessible explaining the observed enzymatic activity. Because in GluXyn-1 the complete XYN domain is inserted into the compact folding unit of GLU, the wild-type-like activity and tertiary structure of the latter proves that the folding process of GLU does not depend on intramolecular interactions that are short-ranged in the sequence. Insertion fusions of the GluXyn-1 type may prove to be an easy route toward more stable bifunctional proteins in which the two parts are more closely associated than in linear end-to-end protein fusions.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

T-DNA nuclear import is a central event in genetic transformation of plant cells by Agrobacterium. Presumably, the T-DNA transport intermediate is a single-stranded DNA molecule associated with two bacterial proteins, VirD2 and VirE2, which most likely mediate the transport process. While VirE2 cooperatively coats the transported single-stranded DNA, VirD2 is covalently attached to its 5′ end. To better understand the mechanism of VirD2 action, a cellular receptor for VirD2 was identified and its encoding gene cloned from Arabidopsis. The identified protein, designated AtKAPα, specifically bound VirD2 in vivo and in vitro. VirD2–AtKAPα interaction was absolutely dependent on the carboxyl-terminal bipartite nuclear localization signal sequence of VirD2. The deduced amino acid sequence of AtKAPα was homologous to yeast and animal nuclear localization signal-binding proteins belonging to the karyopherin α family. Indeed, AtKAPα efficiently rescued a yeast mutant defective for nuclear import. Furthermore, AtKAPα specifically mediated transport of VirD2 into the nuclei of permeabilized yeast cells.