505 resultados para métricas


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La medida de calidad de vídeo sigue siendo necesaria para definir los criterios que caracterizan una señal que cumpla los requisitos de visionado impuestos por el usuario. Las nuevas tecnologías, como el vídeo 3D estereoscópico o formatos más allá de la alta definición, imponen nuevos criterios que deben ser analizadas para obtener la mayor satisfacción posible del usuario. Entre los problemas detectados durante el desarrollo de esta tesis doctoral se han determinado fenómenos que afectan a distintas fases de la cadena de producción audiovisual y tipo de contenido variado. En primer lugar, el proceso de generación de contenidos debe encontrarse controlado mediante parámetros que eviten que se produzca el disconfort visual y, consecuentemente, fatiga visual, especialmente en lo relativo a contenidos de 3D estereoscópico, tanto de animación como de acción real. Por otro lado, la medida de calidad relativa a la fase de compresión de vídeo emplea métricas que en ocasiones no se encuentran adaptadas a la percepción del usuario. El empleo de modelos psicovisuales y diagramas de atención visual permitirían ponderar las áreas de la imagen de manera que se preste mayor importancia a los píxeles que el usuario enfocará con mayor probabilidad. Estos dos bloques se relacionan a través de la definición del término saliencia. Saliencia es la capacidad del sistema visual para caracterizar una imagen visualizada ponderando las áreas que más atractivas resultan al ojo humano. La saliencia en generación de contenidos estereoscópicos se refiere principalmente a la profundidad simulada mediante la ilusión óptica, medida en términos de distancia del objeto virtual al ojo humano. Sin embargo, en vídeo bidimensional, la saliencia no se basa en la profundidad, sino en otros elementos adicionales, como el movimiento, el nivel de detalle, la posición de los píxeles o la aparición de caras, que serán los factores básicos que compondrán el modelo de atención visual desarrollado. Con el objetivo de detectar las características de una secuencia de vídeo estereoscópico que, con mayor probabilidad, pueden generar disconfort visual, se consultó la extensa literatura relativa a este tema y se realizaron unas pruebas subjetivas preliminares con usuarios. De esta forma, se llegó a la conclusión de que se producía disconfort en los casos en que se producía un cambio abrupto en la distribución de profundidades simuladas de la imagen, aparte de otras degradaciones como la denominada “violación de ventana”. A través de nuevas pruebas subjetivas centradas en analizar estos efectos con diferentes distribuciones de profundidades, se trataron de concretar los parámetros que definían esta imagen. Los resultados de las pruebas demuestran que los cambios abruptos en imágenes se producen en entornos con movimientos y disparidades negativas elevadas que producen interferencias en los procesos de acomodación y vergencia del ojo humano, así como una necesidad en el aumento de los tiempos de enfoque del cristalino. En la mejora de las métricas de calidad a través de modelos que se adaptan al sistema visual humano, se realizaron también pruebas subjetivas que ayudaron a determinar la importancia de cada uno de los factores a la hora de enmascarar una determinada degradación. Los resultados demuestran una ligera mejora en los resultados obtenidos al aplicar máscaras de ponderación y atención visual, los cuales aproximan los parámetros de calidad objetiva a la respuesta del ojo humano. ABSTRACT Video quality assessment is still a necessary tool for defining the criteria to characterize a signal with the viewing requirements imposed by the final user. New technologies, such as 3D stereoscopic video and formats of HD and beyond HD oblige to develop new analysis of video features for obtaining the highest user’s satisfaction. Among the problems detected during the process of this doctoral thesis, it has been determined that some phenomena affect to different phases in the audiovisual production chain, apart from the type of content. On first instance, the generation of contents process should be enough controlled through parameters that avoid the occurrence of visual discomfort in observer’s eye, and consequently, visual fatigue. It is especially necessary controlling sequences of stereoscopic 3D, with both animation and live-action contents. On the other hand, video quality assessment, related to compression processes, should be improved because some objective metrics are adapted to user’s perception. The use of psychovisual models and visual attention diagrams allow the weighting of image regions of interest, giving more importance to the areas which the user will focus most probably. These two work fields are related together through the definition of the term saliency. Saliency is the capacity of human visual system for characterizing an image, highlighting the areas which result more attractive to the human eye. Saliency in generation of 3DTV contents refers mainly to the simulated depth of the optic illusion, i.e. the distance from the virtual object to the human eye. On the other hand, saliency is not based on virtual depth, but on other features, such as motion, level of detail, position of pixels in the frame or face detection, which are the basic features that are part of the developed visual attention model, as demonstrated with tests. Extensive literature involving visual comfort assessment was looked up, and the development of new preliminary subjective assessment with users was performed, in order to detect the features that increase the probability of discomfort to occur. With this methodology, the conclusions drawn confirmed that one common source of visual discomfort was when an abrupt change of disparity happened in video transitions, apart from other degradations, such as window violation. New quality assessment was performed to quantify the distribution of disparities over different sequences. The results confirmed that abrupt changes in negative parallax environment produce accommodation-vergence mismatches derived from the increasing time for human crystalline to focus the virtual objects. On the other side, for developing metrics that adapt to human visual system, additional subjective tests were developed to determine the importance of each factor, which masks a concrete distortion. Results demonstrated slight improvement after applying visual attention to objective metrics. This process of weighing pixels approximates the quality results to human eye’s response.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El Daño Cerebral (DC) se refiere a cualquier lesión producida en el cerebro y que afecta a su funcionalidad. Se ha convertido en una de las principales causas de discapacidad neurológica de las sociedades desarrolladas. Hasta la más sencilla de las actividades y acciones que realizamos en nuestro día a día involucran a los procesos cognitivos. Por ello, la alteración de las funciones cognitivas como consecuencia del DC, limita no sólo la calidad de vida del paciente sino también la de las persona de su entorno. La rehabilitación cognitiva trata de aumentar la autonomía y calidad de vida del paciente minimizando o compensando los desórdenes funciones causados por el episodio de DC. La plasticidad cerebral es una propiedad intrínseca al sistema nervioso humano por la que en función a la experiencia se crean nuevos patrones de conectividad. El propósito de la neurorrehabilitación es precisamente modular esta propiedad intrínseca a partir de ejercicios específicos, los cuales podrían derivar en la recuperación parcial o total de las funciones afectadas. La incorporación de la tecnología a las terapias de rehabilitación ha permitido desarrollar nuevas metodologías de trabajo. Esto ha ayudado a hacer frente a las dificultades de la rehabilitación que los procesos tradicionales no logran abarcar. A pesar del gran avance realizado en los Ãoltimos años, todavía existen debilidades en el proceso de rehabilitación; por ejemplo, la trasferencia a la vida real de las habilidades logradas durante la terapia de rehabilitación, así como su generalización a otras actividades cotidianas. Los entornos virtuales pueden reproducir situaciones cotidianas. Permiten simular, de forma controlada, los requisitos conductuales que encontramos en la vida real. En un contexto terapéutico, puede ser utilizado por el neuropsicólogo para corregir en el paciente comportamientos patológicos no deseados, realizar intervenciones terapéuticas sobre Actividades de Vida Diaria que estimulen conductas adaptativas. A pesar de que las tecnologías actuales tienen potencial suficiente para aportar nuevos beneficios al proceso de rehabilitación, existe cierta reticencia a su incorporación a la clínica diaria. A día de hoy, no se ha podido demostrar que su uso aporte una mejorar significativa con respecto a otro tipo de intervención; en otras palabras, no existe evidencia científica de la eficacia del uso de entornos virtuales interactivos en rehabilitación. En este contexto, la presente Tesis Doctoral trata de abordar los aspectos que mantienen a los entornos virtuales interactivos al margen de la rutina clínica diaria. Se estudian las diferentes etapas del proceso de rehabilitación cognitiva relacionado con la integración y uso de estos entornos: diseño de las actividades, su implementación en el entorno virtual, y finalmente la ejecución por el paciente y análisis de los respectivos datos. Por tanto, los bloques en los que queda dividido el trabajo de investigación expuesto en esta memoria son: 1. Diseño de las AVD. La definición y configuración de los elementos que componen la AVD permite al terapeuta diseñar estrategias de intervención terapéutica para actuar sobre el comportamiento del paciente durante la ejecución de la actividad. En esta parte de la tesis se pretende formalizar el diseño de las AVD de tal forma que el terapeuta pueda explotar el potencial tecnológico de los entornos virtuales interactivos abstrayéndose de la complejidad implícita a la tecnología. Para hacer viable este planteamiento se propone una metodología que permita modelar la definición de las AVD, representar el conocimiento implícito en ellas, y asistir al neuropsicólogo durante el proceso de diseño de la intervención clínica. 2. Entorno virtual interactivo. El gran avance tecnológico producido durante los Ãoltimos años permite reproducir AVD interactivas en un contexto de uso clínico. El objetivo perseguido en esta parte de la Tesis es el de extraer las características potenciales de esta solución tecnológica y aplicarla a las necesidades y requisitos de la rehabilitación cognitiva. Se propone el uso de la tecnología de Vídeo Interactivo para el desarrollo de estos entornos virtuales. Para la evaluación de la misma se realiza un estudio experimental dividido en dos fases con la participación de sujetos sanos y pacientes, donde se valora su idoneidad para ser utilizado en terapias de rehabilitación cognitiva. 3. Monitorización de las AVD. El uso de estos entornos virtuales interactivos expone al paciente ante una gran cantidad de estímulos e interacciones. Este hecho requiere de instrumentos de monitorización avanzado que aporten al terapeuta información objetiva sobre el comportamiento del paciente, lo que le podría permitir por ejemplo evaluar la eficacia del tratamiento. En este apartado se propone el uso de métricas basadas en la atención visual y la interacción con el entorno para conocer datos sobre el comportamiento del paciente durante la AVD. Se desarrolla un sistema de monitorización integrado con el entorno virtual que ofrece los instrumentos necesarios para la evaluación de estas métricas para su uso clínico. La metodología propuesta ha permitido diseñar una AVD basada en la definición de intervenciones terapéuticas. Posteriormente esta AVD has sido implementada mediante la tecnología de vídeo interactivo, creando así el prototipo de un entorno virtual para ser utilizado por pacientes con déficit cognitivo. Los resultados del estudio experimental mediante el cual ha sido evaluado demuestran la robustez y usabilidad del sistema, así como su capacidad para intervenir sobre el comportamiento del paciente. El sistema monitorización que ha sido integrado con el entorno virtual aporta datos objetivos sobre el comportamiento del paciente durante la ejecución de la actividad. Los resultados obtenidos permiten contrastar las hipótesis de investigación planteadas en la Tesis Doctoral, aportando soluciones que pueden ayudar a la integración de los entornos virtuales interactivos en la rutina clínica. Esto abre una nueva vía de investigación y desarrollo que podría suponer un gran progreso y mejora en los procesos de neurorrehabilitación cognitiva en daño cerebral. ABSTRACT Brain injury (BI) refers to medical conditions that occur in the brain, altering its function. It becomes one of the main neurological disabilities in the developed society. Cognitive processes determine individual performance in Activities of Daily Living (ADL), thus, the cognitive disorders after BI result in a loss of autonomy and independence, affecting the patient’s quality of life. Cognitive rehabilitation seeks to increase patients’ autonomy and quality of life minimizing or compensating functional disorders showed by BI patients. Brain plasticity is an intrinsic property of the human nervous system whereby its structure is changed depending on experience. Neurorehabilitation pursuits a precise modulation of this intrinsic property, based on specific exercises to induce functional changes, which could result in partial or total recovery of the affected functions. The new methodologies that can be approached by applying technologies to the rehabilitation process, permit to deal with the difficulties which are out of the scope of the traditional rehabilitation. Despite this huge breakthrough, there are still weaknesses in the rehabilitation process, such as the transferring to the real life those skills reached along the therapy, and its generalization to others daily activities. Virtual environments reproduce daily situations. Behavioural requirements which are similar to those we perceive in real life, are simulated in a controlled way. In these virtual environments the therapist is allowed to interact with patients without even being present, inhibiting unsuitable behaviour patterns, stimulating correct answers throughout the simulation and enhancing stimuli with supplementary information when necessary. Despite the benefits which could be brought to the cognitive rehabilitation by applying the potential of the current technologies, there are barriers for widespread use of interactive virtual environments in clinical routine. At present, the evidence that these technologies bring a significant improvement to the cognitive therapies is limited. In other words, there is no evidence about the efficacy of using virtual environments in rehabilitation. In this context, this work aims to address those issues which keep the virtual environments out of the clinical routine. The stages of the cognitive rehabilitation process, which are related with the use and integration of these environments, are analysed: activities design, its implementation in the virtual environment, and the patient’s performance and the data analysis. Hence, the thesis is comprised of the main chapters that are listed below: 1. ADL Design.Definition and configuration of the elements which comprise the ADL allow the therapist to design intervention strategies to influence over the patient behaviour along the activity performance. This chapter aims to formalise the AVD design in order to help neuropsychologists to make use of the interactive virtual environments’ potential but isolating them from the complexity of the technology. With this purpose a new methodology is proposed as an instrument to model the ADL definition, to manage its implied knowledge and to assist the clinician along the design process of the therapeutic intervention. 2. Interactive virtual environment. Continuous advancements make the technology feasible for re-creating rehabilitation therapies based on ADL. The goal of this stage is to analyse the main features of virtual environments in order to apply them according to the cognitive rehabilitation’s requirements. The interactive video is proposed as the technology to develop virtual environments. Experimental study is carried out to assess the suitability of the interactive video to be used by cognitive rehabilitation. 3. ADL monitoring system. This kind of virtual environments bring patients in front lots of stimuli and interactions. Thus, advanced monitoring instruments are needed to provide therapist with objective information about patient’s behaviour. This thesis chapter propose the use of metrics rely on visual patients’ visual attention and their interactions with the environment. A monitoring system has been developed and integrated with the interactive video-based virtual environment, providing neuropsychologist with the instruments to evaluate the clinical force of this metrics. Therapeutic interventions-based ADL has been designed by using the proposed methodology. Interactive video technology has been used to develop the ADL, resulting in a virtual environment prototype to be use by patients who suffer a cognitive deficits. An experimental study has been performed to evaluate the virtual environment, whose overcomes show the usability and solidity of the system, and also its capacity to have influence over patient’s behaviour. The monitoring system, which has been embedded in the virtual environment, provides objective information about patients’ behaviour along their activity performance. Research hypothesis of the Thesis are proven by the obtained results. They could help to incorporate the interactive virtual environments in the clinical routine. This may be a significant step forward to enhance the cognitive neurorehabilitation processes in brain injury.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hoy en día, existen numerosos sistemas (financieros, fabricación industrial, infraestructura de servicios básicos, etc.) que son dependientes del software. Según la definición de Ingeniería del Software realizada por I. Sommerville, “la Ingeniería del Software es una disciplina de la ingeniería que comprende todos los aspectos de la producción de software desde las etapas iniciales de la especificación del sistema, hasta el mantenimiento de éste después de que se utiliza.” “La ingeniería del software no sólo comprende los procesos técnicos del desarrollo de software, sino también actividades tales como la gestión de proyectos de software y el desarrollo de herramientas, métodos y teorías de apoyo a la producción de software.” Los modelos de proceso de desarrollo software determinan una serie de pautas para poder desarrollar con éxito un proyecto de desarrollo software. Desde que surgieran estos modelos de proceso, se investigado en nuevas maneras de poder gestionar un proyecto y producir software de calidad. En primer lugar surgieron las metodologías pesadas o tradicionales, pero con el avance del tiempo y la tecnología, surgieron unas nuevas llamadas metodologías ágiles. En el marco de las metodologías ágiles cabe destacar una determinada práctica, la integración continua. Esta práctica surgió de la mano de Martin Fowler, con el objetivo de facilitar el trabajo en grupo y automatizar las tareas de integración. La integración continua se basa en la construcción automática de proyectos con una frecuencia alta, promoviendo la detección de errores en un momento temprano para poder dar prioridad a corregir dichos errores. Sin embargo, una de las claves del éxito en el desarrollo de cualquier proyecto software consiste en utilizar un entorno de trabajo que facilite, sistematice y ayude a aplicar un proceso de desarrollo de una forma eficiente. Este Proyecto Fin de Grado (PFG) tiene por objetivo el análisis de distintas herramientas para configurar un entorno de trabajo que permita desarrollar proyectos aplicando metodologías ágiles e integración continua de una forma fácil y eficiente. Una vez analizadas dichas herramientas, se ha propuesto y configurado un entorno de trabajo para su puesta en marcha y uso. Una característica a destacar de este PFG es que las herramientas analizadas comparten una cualidad común y de alto valor, son herramientas open-source. El entorno de trabajo propuesto en este PFG presenta una arquitectura cliente-servidor, dado que la mayoría de proyectos software se desarrollan en equipo, de tal forma que el servidor proporciona a los distintos clientes/desarrolladores acceso al conjunto de herramientas que constituyen el entorno de trabajo. La parte servidora del entorno propuesto proporciona soporte a la integración continua mediante herramientas de control de versiones, de gestión de historias de usuario, de análisis de métricas de software, y de automatización de la construcción de software. La configuración del cliente únicamente requiere de un entorno de desarrollo integrado (IDE) que soporte el lenguaje de programación Java y conexión con el servidor. ABSTRACT Nowadays, numerous systems (financial, industrial production, basic services infrastructure, etc.) depend on software. According to the Software Engineering definition made by I.Sommerville, “Software engineering is an engineering discipline that is concerned with all aspects of software production from the early stages of system specification through to maintaining the system after it has gone into use.” “Software engineering is not just concerned with the technical processes of software development. It also includes activities such as software project management and the development of tools, methods, and theories to support software production.” Software development process models determine a set of guidelines to successfully develop a software development project. Since these process models emerged, new ways of managing a project and producing software with quality have been investigated. First, the so-called heavy or traditional methodologies appeared, but with the time and the technological improvements, new methodologies emerged: the so-called agile methodologies. Agile methodologies promote, among other practices, continuous integration. This practice was coined by Martin Fowler and aims to make teamwork easier as well as automate integration tasks. Nevertheless, one of the keys to success in software projects is to use a framework that facilitates, systematize, and help to deploy a development process in an efficient way. This Final Degree Project (FDP) aims to analyze different tools to configure a framework that enables to develop projects by applying agile methodologies and continuous integration in an easy and efficient way. Once tools are analyzed, a framework has been proposed and configured. One of the main features of this FDP is that the tools under analysis share a common and high-valued characteristic: they are open-source. The proposed framework presents a client-server architecture, as most of the projects are developed by a team. In this way, the server provides access the clients/developers to the tools that comprise the framework. The server provides continuous integration through a set of tools for control management, user stories management, software quality management, and software construction automatization. The client configuration only requires a Java integrated development environment and network connection to the server.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El atrio incorporado en los edificios ha sido un recurso espacial que tempranamente se difundió a nivel global, siendo adoptado por las distintas arquitecturas locales en gran parte del mundo. Su masificación estuvo favorecida primero por la rápida evolución de la tecnología del acero y el vidrio, a partir del siglo XIX, y en segundo termino por el posterior desarrollo del hormigón armado. Otro aspecto que explica tal aceptación en la arquitectura contemporánea, es de orden social y radica en la llamativa cavidad del espacio describiendo grandes dimensiones y favoreciendo con ello, el desarrollo de una multiplicidad de usos en su interior que antes eran impensados. Al interior del atrio, la luz natural es clave en las múltiples vivencias que alberga y sea tal vez la condición ambiental más valorada, ya que entrega una sensación de bienestar al conectarnos visualmente con el ambiente natural. Por esta razón de acuerdo al método hipotético deductivo, se evaluaron los efectos de la configuración geométrica, la cubierta y la orientación en el desempeño de la iluminación natural en la planta baja, a partir un modelo extraído desde el inventario de los edificios atrio construidos en Santiago de Chile, en los últimos 30 años que fue desarrollado en el capitulo 2. El análisis cuantitativo de los edificios inventariados se elaboró en el capítulo 3, considerando las dimensiones de los atrios. Simultáneamente fueron clasificados los aspectos constructivos, los materiales y las características del ambiente interior de cada edificio. En esta etapa además, fueron identificadas las variables de estudio de las proporciones geométricas de la cavidad del atrio con los coeficientes de aspecto de las proporciones, en planta (PAR), en corte (SAR) y de la cavidad según (WI), (AR) y (RI). Del análisis de todos estos parámetros se extrajo el modelo de prueba. El enfoque del estudio del capítulo 4 fue la iluminación natural, se revisaron los conceptos y el comportamiento en el atrio, a partir de un modelo físico construido a escala para registro de la iluminancia bajo cielo soleado de la ciudad. Más adelante se construyó el modelo en ambiente virtual, relacionando las variables determinadas por la geometría de la cavidad y el cerramiento superior; examinándose de esta manera distintas transparencias, proporciones de apertura, en definitiva se evaluó un progresivo cerramiento de las aberturas, verificando el ingreso de la luz y disponibilidad a nivel de piso con la finalidad, de proveer lineamientos útiles en una primera etapa del diseño arquitectónico. Para el análisis de la iluminación natural se revisaron diferentes métodos de cálculo con el propósito de evaluar los niveles de iluminancia en un plano horizontal al interior del atrio. El primero de ellos fue el Factor de Luz Día (FLD) que corresponde, a la proporción de la iluminancia en un punto de evaluación interior respecto, la cantidad proveniente del exterior bajo cielo nublado, a partir de la cual se obtuvo resultados que revelaron la alta luminosidad del cielo nublado de la ciudad. Además fueron evaluadas las recientes métricas dinámicas que dan cuenta, de la cantidad de horas en las cuales de acuerdo a los extensos registros meteorológico de la ciudad, permitieron obtener el porcentajes de horas dentro de las cuales se cumplió el estándar de iluminancia requerido, llamado autonomía lumínica (DA) o mejor aún se permanece dentro de un rango de comodidad visual en el interior del atrio referido a la iluminancia diurna útil (UDI). En el Capítulo 5 se exponen los criterios aplicados al modelo de estudio y cada una de las variantes de análisis, además se profundizó en los antecedentes y procedencia de las fuentes de los registros climáticos utilizados en las simulaciones llevadas a cabo en el programa Daysim operado por Radiance. Que permitieron evaluar el desempeño lumínico y la precisión, de cada uno de los resultados para comprobar la disponibilidad de iluminación natural a través de una matriz. En una etapa posterior se discutieron los resultados, mediante la comparación de los datos logrados según cada una de las metodologías de simulación aplicada. Finalmente se expusieron las conclusiones y futuras lineas de trabajo, las primeras respecto el dominio del atrio de cuatro caras, la incidencia del control de cerramiento de la cubierta y la relación establecida con la altura; indicando en lo específico que las mediciones de iluminancia bajo el cielo soleado de verano, permitieron aclarar, el uso de la herramienta de simulación y método basado en el clima local, que debido a su reciente desarrollo, orienta a futuras líneas de trabajo profundizando en la evaluación dinámica de la iluminancia contrastado con monitorización de casos. ABSTRACT Atriums incorporated into buildings have been a spatial resource that quickly spread throughout the globe, being adopted by several local architecture methods in several places. Their widespread increase was highly favored, in the first place, with the rapid evolution of steel and glass technologies since the nineteen century, and, in second place, by the following development of reinforced concrete. Another issue that explains this success into contemporary architecture is associated with the social approach, and it resides in the impressive cavity that describes vast dimensions, allowing the development of multiple uses in its interior that had never been considered before. Inside the atrium, daylight it is a key element in the many experiences that involves and it is possibly the most relevant environmental factor, since it radiates a feeling of well-being by uniting us visually with the natural environment. It is because of this reason that, following the hypothetical deductive method, the effects in the performance of daylight on the floor plan were evaluated considering the geometric configuration, the deck and orientation factors. This study was based in a model withdrawn from the inventory of atrium buildings that were constructed in Santiago de Chile during the past thirty years, which will be explained later in chapter 2. The quantitative analysis of the inventory of those buildings was elaborated in chapter 3, considering the dimensions of the atriums. Simultaneously, several features such as construction aspects, materials and environmental qualities were identified inside of each building. At this stage, it were identified the variables of the geometric proportions of the atrium’s cavity with the plan aspect ratio of proportions in first plan (PAR), in section (SAR) and cavity according to well index (WI), aspect ratio (AR) and room index (RI). An experimental model was obtained from the analysis of all the mentioned parameters. The main focus of the study developed in chapter 4 is daylight. The atrium’s concept and behavior were analyzed from a physical model built under scale to register the illuminances under clear, sunny sky of the city. Later on, this physical model was built in a virtual environment, connecting the variables determined by the geometry of the cavity and the superior enclosure, allowing the examination of transparencies and opening proportions. To summarize, this stage consisted on evaluating a progressive enclosure of the openings, checking the access of natural light and its availability at the atrium floor, in an effort to provide useful guidelines during the first stage of the architectural design. For the analysis of natural lighting, several calculations methods were used in order to determine the levels of illuminances in a horizontal plane inside of the atrium. The first of these methods is the Daylight Factor (DF), which consists in the proportion of light in an evaluation interior place with the amount of light coming from the outside in a cloudy day. Results determined that the cloudy sky of the city has high levels of luminosity. In addition, the recent dynamic metrics were evaluated which reflects the hours quantity. According to the meteorological records of the city’s climate, the standard of illuminance- a standard measure called Daylight Autonomy (DA) – was met. This is even better when the results stay in the line of visual convenience within the atrium, which is referred to as Useful Daylight Illuminance (UDI). In chapter 5, it was presented the criteria applied to the study model and on each of the variants of the analysis. Moreover, the information of the climate records used for the simulations - carried out in the Daysim program managed by Radiance – are detailed. These simulations allowed the observation of the daylight performance and the accuracy of each of the results to confirm the availability of natural light through a matrix. In a later stage, the results were discussed comparing the collected data in each of the methods of simulation used. Finally, conclusions and further discussion are presented. Overall, the four side atrium’s domain and the effect of the control of the cover’s enclosure. Specifically, the measurements of the daylight under summer’s clear, sunny sky allowing clarifying the use of the simulation tool and the method based on the local climate. This method allows defining new and future lines of work deepening on the dynamic of the light in contrast with the monitoring of the cases.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis doctoral aborda el problema de la falta de un protocolo que conecte las elevadas y variadas expectativas formales que plantea la arquitectura singular respecto de la luz natural con las distintas herramientas de cálculo y sus métricas asociadas disponibles. La pregunta que la tesis responde es la siguiente “¿Es posible definir un protocolo que ordene las decisiones de diseño y cálculo en la resolución de los problemas de luz natural en la arquitectura singular en forma de procesos, de modo suficientemente genérico y operativo, creando conocimiento útil sobre el problema de que se trate en cada etapa del mismo?” Metodológicamente se desarrolla en dos ciclos de investigación enlazados: primero se DEFINE de modo científico el protocolo y luego se EVALÚA SU APLICABILIDAD. La construcción del protocolo se resuelve utilizando el método inductivo a partir de un corpus previo de problemas de luz natural ya resueltos por el autor. Son analizados de modo sistemático y aplicando diversas estrategias de reducción y síntesis. conducen a un enunciado inicial del protocolo. Una vez enunciado el protocolo, que se denomina DAYLIGHTING CANVAS, se valora su la aplicabilidad mediante experimentación directa, que se realiza a través de tres experiencias diferentes. En la primera evaluamos su aplicabilidad en un problema representativo, en la segunda su aplicabilidad para resolución de problemas planteados de modo aleatorio, y por último su aplicabilidad en el caso de ser empleado por diferentes autores. ABSTRACT The Ph.D. thesis address the lack of a protocol capable to link the higher expectations regarding daylighting of the singular architecture practice with the available daylighting calculation tools and metrics. The thesis question is as follows: “Is it possible to define a protocol capable to arrange the design and calculation decisions needed to be made to solve a daylighting problem for a singular architecture project, as a process, in a way as generic as operational, by building daylighting related knowledge in each step of it?” Methodologically the research is developed in two linked stages: first the protocol is scientifically DEFINED and then its APPLICABILITY is tested. The protocol is built up by using the inductive method over a group of previously solved daylighting projects provided by the thesis author. Those projects has been systematically analyzed by applying some reduction and synthesis strategies, which leads to a preliminary protocol formulation. Once the protocol is fully formulated under the name of “DAYLIGHTING CANVAS”, its applicability is assessed by direct experimentation, done through three different experiments. In the first one the applicability to a complex problem is assessed; in the second one its applicability to non predicted daylighting problems; and finally its applicability for different users.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O uso das mídias sociais digitais como meio de divulgação de produtos, serviços e conteúdos organizacionais tem crescido nas últimas décadas e ganhou especial atenção nos planejamentos de comunicação organizacional e nos estudos acadêmicos sobre o tema. Nesse sentido, o segmento de empresas esportivas atua com destaque, despertando o interesse e a empatia do consumidor. Por meio de análise bibliográfica e estudo empírico, esta pesquisa teve como objetivo investigar as ações de comunicação mercadológica do segmento esportivo no ambiente digital conectado, através de um estudo de caso múltiplo das empresas Nike e Adidas. Para a obtenção dos dados, foram realizadas entrevistas em profundidade com profissionais do mercado e aplicado um protocolo de investigação de redes sociais digitais nos perfis das duas empresas. Após a coleta dos dados, estes foram analisados à luz das teorias estudadas nos capítulos iniciais (que abordaram temas como comunicação organizacional, comunicação digital, esporte e comunicação esportiva), e foi possível concluir, entre outros pontos, que, no universo do segmento esportivo, a comunicação digital conectada não prioriza o diálogo com seus públicos de interesse, sendo essencialmente baseada na divulgação unilateral de conteúdos, nem tampouco explora a potencialidade de cada uma das plataformas digitais disponíveis, replicando conteúdos em diferentes ambientes. Ficou evidente, também, o uso dos elementos constituintes do universo esportivo como argumentos estratégicos de comunicação das empresas, decorrente de sua capacidade de estreitar os laços relacionais com os públicos de interesse, por meio de seus apelos simbólicos de fácil identificação social

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho tem como proposta avaliar a postura das organizações nas mídias sociais digitais, considerando o fato de que esses novos ambientes virtuais têm modificado drasticamente a maneira pela qual elas promovem o relacionamento com seus públicos estratégicos. O objetivo principal da pesquisa é identificar e compreender como as organizações se posicionam diante de comentários desfavoráveis nas mídias sociais digitais que possam impactar sua imagem e reputação, bem como mostrar a importância de monitorar constantemente o consumidor e dialogar com ele nos canais digitais para evitar riscos à marca. A metodologia aplicada denomina-se Estudo de Casos Múltiplos, por meio da qual analisaram-se os comentários desfavoráveis às marcas: Vivo, Tim e Oi, na página do Facebook, durante o mês de setembro de 2015. Construiu-se um protocolo de pesquisa, e realizou-se o acompanhamento dessas marcas analisando-lhes os posts e os comentários desfavoráveis coletados no período. Constatou-se, após tais procedimentos que as operadoras apresentam frequentemente dificuldades para se relacionar com os públicos nas mídias sociais digitais, o que as coloca em risco quanto à sua imagem e reputação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O estudo investiga os efeitos da adoção obrigatória das IFRS sobre a qualidade do ambiente informacional e confirma a hipótese de que os incentivos econômicos associados aos fatores institucionais são mais relevantes do que os padrões contábeis para explicar a qualidade do ambiente informacional. Foi utilizada uma amostra de 15 países que não passaram por reformas significativas na estrutura de enforcement legal, proporcionando uma estratégia de identificação econométrica mais robusta. Os países analisados adotaram as IFRS em momentos diferentes a partir de 2006. Foram utilizadas quatro métricas de qualidade dos accruals e três métricas de performance dos analistas para operacionalizar a variável dependente qualidade do ambiente informacional. Além disso, foram utilizadas como variáveis mediadoras diversas características institucionais com potencial de afetar os incentivos à elaboração e divulgação de demonstrações financeiras. Os resultados indicam que a adoção obrigatória das IFRS afetou de forma negativa a qualidade dos accruals e a performance dos analistas. No entanto, esses resultados são contingentes à qualidade da infraestrutura institucional da jurisdição que adotou as IFRS como modelo contábil obrigatório. Os efeitos das IFRS foram significativamente mais positivos (ou menos negativos) para os países com origem legal common law, estrutura de enforcement legal mais forte, mercado de capitais mais desenvolvido, menor diferença entre padrões contábeis locais e padrões internacionais, maior grau de liberdade econômica, menor corrupção percebida e instituições mais sólidas. Foram realizados testes de robustez para verificar a sensibilidade desses resultados. Os resultados permaneceram qualitativamente iguais após serem aplicados diferentes critérios de amostragem, controlados os efeitos da crise financeira de 2008 e levado em conta o possível efeito aprendizado dos responsáveis pela elaboração e análise das demonstrações financeiras no primeiro ano de adoção. O estudo contribui com a literatura da área de contabilidade financeira e com os órgãos reguladores da indústria contábil ao fornecer evidências de que a adoção obrigatória das IFRS, quando não acompanhada por reformas econômicas e institucionais, não causará os benefícios informacionais esperados

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho descreve a geologia econômica da região de Currais Novos, no Rio Grande do Norte, onde estão as principais jazidas de scheelita e de molibdenita do Brasil: jazidas Brejuí e Barra Verde. As rochas metamórficas da área pertencem à Série Ceará e são constituídas por gnaisses, calcários e tactitos. O autor evidenciou a existência de duas fases metamórficas no desenvolvimento dessas rochas. A primeira, datada de 750 \'+ OU -\' 50 M.A. possibilitou o desenvolvimento das texturas e dos minerais essenciais dos gnaisses e calcários e a formação dos tactitos compostos essencialmente de epidoto, diopsídio, granada, quartzo, calcita e vesuvianita. Ainda nessa fase ocorreu o empurrão das rochas da área oeste sôbre o gnaisse da Formação Seridó, ocasionando inversões de camadas nas áreas de Brejuí, Barra Verde, Quixabeiral, etc. Na segunda fase, com 550 \'+ OU -\' M.A. de idade, ocorreu microclinização dos gnaisses biotíticos das formações Parelhas e Quixaba e a mineralização dos tactitos, devido ao aporte de tungstênio, molibdênio, flúor, cobre, etc., provenientes do granito de Acari. Na etapa final dessa fase houve a intrusão do granodiorito Acauã. As rochas \"magmáticas da região estão representadas por: a) um grande batólito granítico heterogêneo - o maciço Acari -, constituído por quatro fácies petrográficas: um granodiorito pórfiro, um granito monzonítico, um diorito e pequenos corpos granodioriticos. b) um pequeno stock granodiorítico homogêneo e intrusivo - o. granodiorito Acauã. c) Diques de basaltos, aplitos e pegmatites. O minério da região é o tácito, que apresenta nítidos contrôles estratigráficos e estruturais, os quais servem de guias para a prospecção. Têm as jazidas Brejuí e Barra Verde um teor médio da ordem de 0,6% em \'W IND. O 3\' e 0,2% em Mo e uma espessura média de 2m. Nas outras ocorrências sua possança média é inferior a 1 m e o teor médio inferior a 0,5% em \'W IND. O 3\'. Sendo mantida a atual produção da região, cerca de 650 t métricas/ano de concentrados com 75% de \'W IND. O 3\', só as reservas conhecidas nas jazidas Brejuí e Barra Verde serão suficientes para abastecer o mercado por mais 20 anos

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho teve como objetivo desenvolver um modelo específico para analisar a competitividade de clusters de alta tecnologia. Foi realizado um estudo de casos múltiplos em que foram analisados os clusters de ciências da saúde de Ribeirão Preto, no Brasil, e de Oxfordshire, na Inglaterra. Coletaram-se dados primários e secundários. Os dados primários foram coletados por meio de entrevistas em ambos os clusters e os dados secundários por meio de relatórios, papers, websites, além de coleta realizada nos bancos de dados Fame e Orbis. O modelo Zaccarelli et al. (2008), utilizado como ponto de partida para o desenvolvimento do modelo, foi aprimorado de três maneiras: i. Por meio do ajustamento das métricas utilizadas para avaliar cada fundamento, o que incluiu, dentre outras coisas, uma adaptação do modelo para mapeamento de clusters desenvolvido por Todeva (2008); ii. Pela verificação da aderência de seus fundamentos aos clusters de alta tecnologia analisados; e iii. Pela identificação de fatores emergentes, importantes para competitividade de clusters de alta tecnologia. Os resultados mostram evidências de que entre os onze fundamentos do modelo original, nove se mostraram relevantes aos clusters de alta tecnologia, ratificando sua importância para a análise da competitividade de clusters. Além dos fundamentos originais, os resultados sugerem a inclusão de dois fundamentos emergentes: \"Inserção em cadeias globais\" e \"Disponibilidade de investimentos financeiros\", até então ignorados pelo modelo Zaccarelli et al. (2008). A pesquisa traz como contribuição teórica o desenvolvimento de um modelo específico para clusters de alta tecnologia; como contribuição metodológica as novas métricas, incluindo a incorporação da adaptação da metodologia de Todeva (2008); como contribuição empírica traz a comparação entre clusters de ciências da saúde reconhecidamente competitivos, mas pertencentes a países de realidades culturais e econômicas distintas; e como contribuição gerencial um modelo que pode ser utilizado por empresários e instituições pertencentes a clusters e que desejam analisar fatores que influenciam a sua competitividade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Biologia Computacional tem desenvolvido algoritmos aplicados a problemas relevantes da Biologia. Um desses problemas é a Protein Structure Prediction (PSP). Vários métodos têm sido desenvolvidos na literatura para lidar com esse problema. Porém a reprodução de resultados e a comparação dos mesmos não têm sido uma tarefa fácil. Nesse sentido, o Critical Assessment of protein Structure Prediction (CASP), busca entre seus objetivos, realizar tais comparações. Além disso, os sistemas desenvolvidos para esse problema em geral não possuem interface amigável, não favorecendo o uso por não especialistas da computação. Buscando reduzir essas dificuldades, este trabalho propões o Koala, um sistema baseado em uma plataforma web, que integra vários métodos de predição e análises de estruturas de proteínas, possibilitando a execução de experimentos complexos com o uso de fluxos de trabalhos. Os métodos de predição disponíveis podem ser integrados para a realização de análises dos resultados, usando as métricas RMSD, GDT-TS ou TM-Score. Além disso, o método Sort by front dominance (baseado no critério de optimalidade de Pareto), proposto nesse trabalho, consegue avaliar predições sem uma estrutura de referência. Os resultados obtidos, usando proteínas alvo de artigos recentes e do CASP11, indicam que o Koala tem capacidade de realizar um conjunto relativamente grande de experimentos estruturados, beneficiando a determinação de melhores estruturas de proteínas, bem como o desenvolvimento de novas abordagens para predição e análise por meio de fluxos de trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

PMCTrack es una herramienta de código abierto para Linux que permite monitorizar el rendimiento de las aplicaciones haciendo uso de los contadores hardware del procesador. Esta herramienta soporta la captura de métricas como el número de instrucciones por ciclo o la tasa de fallos de cache. El objetivo de este proyecto es portar PMCTrack al sistema operativo Android sobre plataformas que integran procesadores de ARM. Esto conlleva la realización de las siguientes tareas: (1) modificación de la variante del kernel Linux propia de Android para incluir las extensiones requeridas por el módulo del kernel de PMCTrack, (2) adaptación de las herramientas de modo usuario de PMCTrack, y (3) desarrollo de una aplicación Android que permita visualizar en tiempo real las medidas de los contadores recabadas para las distintas aplicaciones que están siendo monitorizadas. Para poner a prueba la adaptación de la herramienta PMCTrack al sistema operativo Android y mostrar la utilidad de nuestras aportaciones, se han llevado a cabo diversos casos de estudio empleando la placa de desarrollo Odroid XU4.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este proyecto pretende avanzar en el estado del arte de la investigación acerca de los Social Media en las áreas involucradas en aspectos como la detección de regularidades en entornos de los Social Media, la creación de modelos de crecimiento, evolución y propagación o, más en general, el descubrimiento de fenómenos interesantes en torno a la dinámica de los Social Media. Estas áreas abarcarán: La obtención de información mediante la minería del conjunto de datos procedentes de los Social Media, compuestos por contenidos, gente [datos de uso] e interacciones entre los mismos [redes sociales]. La construcción de conocimiento (modelos, métricas, etc.) a partir de la información obtenida mediante minería. El avance en la capacidad de acción en los Social Media mediante la simulación y experimentación con el conocimiento obtenido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A comercialização de energia elétrica de fontes renováveis, ordinariamente, constitui-se uma atividade em que as operações são estruturadas sob condições de incerteza, por exemplo, em relação ao preço \"spot\" no mercado de curto prazo e a geração de energia dos empreendimentos. Deriva desse fato a busca dos agentes pela formulação de estratégias e utilização de ferramentais para auxiliá-los em suas tomadas de decisão, visando não somente o retorno financeiro, mas também à mitigação dos riscos envolvidos. Análises de investimentos em fontes renováveis compartilham de desafios similares. Na literatura, o estudo da tomada de decisão considerada ótima sob condições de incerteza se dá por meio da aplicação de técnicas de programação estocástica, que viabiliza a modelagem de problemas com variáveis randômicas e a obtenção de soluções racionais, de interesse para o investidor. Esses modelos permitem a incorporação de métricas de risco, como por exemplo, o Conditional Value-at-Risk, a fim de se obter soluções ótimas que ponderem a expectativa de resultado financeiro e o risco associado da operação, onde a aversão ao risco do agente torna-se um condicionante fundamental. O objetivo principal da Tese - sob a ótica dos agentes geradores, consumidores e comercializadores - é: (i) desenvolver e implementar modelos de otimização em programação linear estocástica com métrica CVaR associada, customizados para cada um desses agentes; e (ii) aplicá-los na análise estratégica de operações como forma de apresentar alternativas factíveis à gestão das atividades desses agentes e contribuir com a proposição de um instrumento conceitualmente robusto e amigável ao usuário, para utilização por parte das empresas. Nesse contexto, como antes frisado, dá-se ênfase na análise do risco financeiro dessas operações por meio da aplicação do CVaR e com base na aversão ao risco do agente. Considera-se as fontes renováveis hídrica e eólica como opções de ativos de geração, de forma a estudar o efeito de complementaridade entre fontes distintas e entre sites distintos da mesma fonte, avaliando-se os rebatimentos nas operações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La adecuación al nuevo escenario educativo definido en el Espacio Europeo de Educación Superior (EEES) ha supuesto una transformación de la Universidad Española. El cambio en el proceso de enseñanza-aprendizaje implica favorecer el aprendizaje autónomo de competencias genéricas y específicas en el estudiante. La adopción de una nueva metodología centrada en el discente supone que los profesores y los estudiantes deben adoptar nuevos roles, que conllevan nuevas formas de pensar, de sentir y de actuar. El cambio en la concepción pedagógica y la renovación metodológica en el proceso de enseñanza-aprendizaje lleva consigo, a su vez, el uso de diferentes métodos educativos y medios pedagógicos en entornos virtuales de aprendizaje. Al objeto de analizar el modelo y estrategias de enseñanza-aprendizaje aplicado a la formación universitaria, en entornos virtuales, se ha realizado una exhaustiva revisión bibliográfica con el propósito de conseguir un instrumento, con garantías métricas de calidad, que evaluara adecuadamente dicha metodología. Una vez realizada esta revisión, se seleccionó el cuestionario The Distance Education Learning Environments Survey (DELES) de S.L. Walker (2005), como el instrumento más adecuado y con mayor validez aparente para nuestro objetivo de investigación. Ha participado en nuestro proyecto de investigación una muestra de 265 estudiantes matriculados en diversas asignaturas, impartidas por profesorado del Departamento de Psicología de la Salud de la Universidad de Alicante, con metodología de enseñanza-aprendizaje semipresencial y a distancia. El instrumento seleccionado, DELES, evalúa a través de 34 ítems y 5 opciones de respuesta, seis áreas de interés: (1) Apoyo del Profesorado; (2) Interacción y Colaboración entre Estudiantes; (3) Relevancia Personal; (4) Aprendizaje Real; (5) Aprendizaje Activo y (6) Autonomía. Además, este instrumento incluye una escala adicional que permite evaluar el grado de satisfacción del estudiante con la metodología de enseñanza-aprendizaje utilizada en la asignatura. La investigación realizada ha mostrado una buena viabilidad, fiabilidad y validez del instrumento de medida. La adaptación del cuestionario a nuestro medio universitario es satisfactoria. El instrumento muestra buenos criterios de calidad métrica. A través del mismo se comprueba que los estudiantes valoran de manera muy positiva el apoyo e interacción con el profesorado, manifiestan un alto grado de acuerdo en relación a la aplicabilidad de los conocimientos adquiridos en la asignaturat estiman favorablemente la utilización de casos reales en las sesiones y consideran muy provechoso el aprendizaje activo y autónomo.