919 resultados para data analysis software
Resumo:
El transporte aéreo constituye un sector estratégico para el crecimiento económico de cualquier país. El sistema de gestión de tráfico aéreo ATM tiene como objetivo el movimiento seguro y eficiente de las aeronaves dentro del espacio aéreo y de los aeropuertos, siendo la seguridad, en la fase táctica, gestionada por el servicio de control de la circulación aérea. Mediante los procesos de control el tráfico aéreo es vigilado a través de sensores, regulado y guiado de forma organizada y segura. Es precisamente sobre la vigilancia donde se enfoca el contenido de la tesis, en el desarrollo de nuevos conceptos que proporcionen información de vigilancia de ‘bajo coste’ basados en las señales existentes proporcionadas por la infraestructura actual de radar secundario y por los sistemas de posicionamiento basados en satélite que utiliza la ADS-B. El conocimiento y acceso en tiempo real a las trayectorias de las aeronaves es un elemento de valor añadido no sólo para la provisión de los servicios de control de tránsito aéreo, sino para todos los actores del transporte aéreo o de la investigación, siendo uno de los elementos clave en el concepto operacional de los dos grandes proyectos tecnológicos, SESAR en Europa y NextGen en EE.UU.. En las últimas décadas el control de la circulación aérea en espacios aéreos de media y alta densidad de tráfico se ha basado en tecnologías complejas que requieren importantes infraestructuras como son el radar primario de vigilancia (PSR) y el radar secundario de vigilancia (SSR). La filosofía de los programas SESAR y NextGen siguiendo las directrices de la OACI es la de alejarse de las tecnologías basadas en tierra para evolucionar hacia nuevas tecnologías más dinámicas basadas en satélite como la ADS-B. Pero hasta que la implementación y operación de la ADS-B sea completa, existirá un período de transición que implica la coexistencia de aeronaves equipadas o no con ADS-B. El objetivo de la presente Tesis es determinar las metodologías y algoritmos más adecuados para poder hibridar las dos tecnologías descritas anteriormente, utilizando para ello un receptor de bajo coste con antena estática omnidireccional, que analice todas las señales presentes en el canal que comparten el SSR y ADS-B. Mediante esta hibridación se podrá obtener la posición de cualquier aeronave que transmita respuestas a interrogaciones SSR, en cualquiera de sus modos de trabajo, o directamente mensajes de posición ADS-B. Para desarrollar los algoritmos propuestos, además del hardware correspondiente, se han utilizado las aplicaciones LabVIEW para funciones de adquisición de datos reales, y el software MATLAB® para el desarrollo de algoritmos y análisis de datos. La validación de resultados se ha realizado mediante los propios mensajes de posición ADS-B y a través de las trazas radar proporcionadas por la entidad pública empresarial ENAIRE. La técnica desarrollada es autónoma, y no ha requerido de ninguna otra entrada que no sea la recepción omnidireccional de las señales. Sin embargo para la validación de resultados se ha utilizado información pública de las ubicaciones de la red de estaciones SSR desplegadas sobre territorio español y portugués y trazas radar. Los resultados obtenidos demuestran, que con técnicas basadas en superficies de situación definidas por los tiempos de llegada de las respuestas, es posible determinar con una precisión aceptable la posición de las estaciones SSR y la posición de cualquier aeronave que responda mediante el Modo A a éstas. ABSTRACT Air transport is a strategic sector for the economic growth of any country. The air traffic management system (ATM) aims at the safe and efficient movement of aircraft while operating within the airspace and airports, where safety, in the tactical phase, is managed by the air traffic control services. Through the air traffic control processes, aircraft are monitored by sensors, regulated and guided in an organized and safe manner. It is precisely on surveillance where this thesis is focused, developing new concepts that provide a 'low cost' surveillance information based on existing signals provided by currently secondary radar infrastructure and satellite-based positioning systems used by ADS-B. Having a deeper knowledge and a real-time access to the trajectories of the aircraft, is an element of added value not only for the provision of air traffic control services, but also for all air transport or research actors. This is one of the key elements in the operational concept proposed by the two large scale existing technological projects, SESAR in Europe and NextGen in the US. In recent decades, air traffic control in medium and high traffic density areas has been based on complex technologies requiring major infrastructures, such as the primary surveillance radar (PSR) and secondary surveillance radar (SSR). The philosophy of SESAR and NextGen programs, both following the guidelines of ICAO, is to move away from land-based technologies and evolving into some new and more dynamic satellite-based technologies such as ADS-B. Nevertheless, until the ADS-B implementation and operation is fully achieved, there will be a transitional period where aircraft with and without ADS-B equipment will have to coexist. The main objective of this thesis is to determine those methodologies and algorithms which are considered more appropriate to hybridize those two technologies, by using a low cost omnidirectional receiver, which analyzes all signals on the SSR and ADS-B shared channel. Through this hybridization, it is possible to obtain the position of any aircraft answering the SSR interrogations, in any of its modes of operation, or through the emission of ADS-B messages. To develop the proposed algorithms, LabVIEW application has been used for real-time data acquisition, as well as MATLAB software for algorithm development and data analysis, together with the corresponding hardware. The validation of results was performed using the ADS-B position messages and radar tracks provided by the Public Corporate Entity ENAIRE The developed technique is autonomous, and it does not require any other input other than the omnidirectional signal reception. However, for the validation of results, not only radar records have been used, but also public information regarding the position of SSR stations spread throughout the Spanish and Portuguese territory. The results show that using techniques based in the definition of positioning surfaces defined by the responses’ times of arrival, it is possible to determine with an acceptable level of accuracy both the position of the SSR stations as well as the position of any aircraft which transmits Mode A responses.
Resumo:
La gran cantidad de datos que se registran diariamente en los sistemas de base de datos de las organizaciones ha generado la necesidad de analizarla. Sin embargo, se enfrentan a la complejidad de procesar enormes volúmenes de datos a través de métodos tradicionales de análisis. Además, dentro de un contexto globalizado y competitivo las organizaciones se mantienen en la búsqueda constante de mejorar sus procesos, para lo cual requieren herramientas que les permitan tomar mejores decisiones. Esto implica estar mejor informado y conocer su historia digital para describir sus procesos y poder anticipar (predecir) eventos no previstos. Estos nuevos requerimientos de análisis de datos ha motivado el desarrollo creciente de proyectos de minería de datos. El proceso de minería de datos busca obtener desde un conjunto masivo de datos, modelos que permitan describir los datos o predecir nuevas instancias en el conjunto. Implica etapas de: preparación de los datos, procesamiento parcial o totalmente automatizado para identificar modelos en los datos, para luego obtener como salida patrones, relaciones o reglas. Esta salida debe significar un nuevo conocimiento para la organización, útil y comprensible para los usuarios finales, y que pueda ser integrado a los procesos para apoyar la toma de decisiones. Sin embargo, la mayor dificultad es justamente lograr que el analista de datos, que interviene en todo este proceso, pueda identificar modelos lo cual es una tarea compleja y muchas veces requiere de la experiencia, no sólo del analista de datos, sino que también del experto en el dominio del problema. Una forma de apoyar el análisis de datos, modelos y patrones es a través de su representación visual, utilizando las capacidades de percepción visual del ser humano, la cual puede detectar patrones con mayor facilidad. Bajo este enfoque, la visualización ha sido utilizada en minería datos, mayormente en el análisis descriptivo de los datos (entrada) y en la presentación de los patrones (salida), dejando limitado este paradigma para el análisis de modelos. El presente documento describe el desarrollo de la Tesis Doctoral denominada “Nuevos Esquemas de Visualizaciones para Mejorar la Comprensibilidad de Modelos de Data Mining”. Esta investigación busca aportar con un enfoque de visualización para apoyar la comprensión de modelos minería de datos, para esto propone la metáfora de modelos visualmente aumentados. ABSTRACT The large amount of data to be recorded daily in the systems database of organizations has generated the need to analyze it. However, faced with the complexity of processing huge volumes of data over traditional methods of analysis. Moreover, in a globalized and competitive environment organizations are kept constantly looking to improve their processes, which require tools that allow them to make better decisions. This involves being bettered informed and knows your digital story to describe its processes and to anticipate (predict) unanticipated events. These new requirements of data analysis, has led to the increasing development of data-mining projects. The data-mining process seeks to obtain from a massive data set, models to describe the data or predict new instances in the set. It involves steps of data preparation, partially or fully automated processing to identify patterns in the data, and then get output patterns, relationships or rules. This output must mean new knowledge for the organization, useful and understandable for end users, and can be integrated into the process to support decision-making. However, the biggest challenge is just getting the data analyst involved in this process, which can identify models is complex and often requires experience not only of the data analyst, but also the expert in the problem domain. One way to support the analysis of the data, models and patterns, is through its visual representation, i.e., using the capabilities of human visual perception, which can detect patterns easily in any context. Under this approach, the visualization has been used in data mining, mostly in exploratory data analysis (input) and the presentation of the patterns (output), leaving limited this paradigm for analyzing models. This document describes the development of the doctoral thesis entitled "New Visualizations Schemes to Improve Understandability of Data-Mining Models". This research aims to provide a visualization approach to support understanding of data mining models for this proposed metaphor visually enhanced models.
Resumo:
Los sistemas de adquisición de datos utilizados en los diagnósticos de los dispositivos de fusión termonuclear se enfrentan a importantes retos planteados en los dispositivos de pulso largo. Incluso en los dispositivos de pulso corto, en los que se analizan los datos después de la descarga, existen aún una gran cantidad de datos sin analizar, lo cual supone que queda una gran cantidad de conocimiento por descubrir dentro de las bases de datos existentes. En la última década, la comunidad de fusión ha realizado un gran esfuerzo para mejorar los métodos de análisis off‐line para mejorar este problema, pero no se ha conseguido resolver completamente, debido a que algunos de estos métodos han de resolverse en tiempo real. Este paradigma lleva a establecer que los dispositivos de pulso largo deberán incluir dispositivos de adquisición de datos con capacidades de procesamiento local, capaces de ejecutar avanzados algoritmos de análisis. Los trabajos de investigación realizados en esta tesis tienen como objetivo determinar si es posible incrementar la capacidad local de procesamiento en tiempo real de dichos sistemas mediante el uso de GPUs. Para ello durante el trascurso del periodo de experimentación realizado se han evaluado distintas propuestas a través de casos de uso reales elaborados para algunos de los dispositivos de fusión más representativos como ITER, JET y TCV. Las conclusiones y experiencias obtenidas en dicha fase han permitido proponer un modelo y una metodología de desarrollo para incluir esta tecnología en los sistemas de adquisición para diagnósticos de distinta naturaleza. El modelo define no sólo la arquitectura hardware óptima para realizar dicha integración, sino también la incorporación de este nuevo recurso de procesamiento en los Sistemas de Control de Supervisión y Adquisición de Datos (SCADA) utilizados en la comunidad de fusión (EPICS), proporcionando una solución completa. La propuesta se complementa con la definición de una metodología que resuelve las debilidades detectadas, y permite trazar un camino de integración de la solución en los estándares hardware y software existentes. La evaluación final se ha realizado mediante el desarrollo de un caso de uso representativo de los diagnósticos que necesitan adquisición y procesado de imágenes en el contexto del dispositivo internacional ITER, y ha sido testeada con éxito en sus instalaciones. La solución propuesta en este trabajo ha sido incluida por la ITER IO en su catálogo de soluciones estándar para el desarrollo de sus futuros diagnósticos. Por otra parte, como resultado y fruto de la investigación de esta tesis, cabe destacar el acuerdo llevado a cabo con la empresa National Instruments en términos de transferencia tecnológica, lo que va a permitir la actualización de los sistemas de adquisición utilizados en los dispositivos de fusión. ABSTRACT Data acquisition systems used in the diagnostics of thermonuclear fusion devices face important challenges due to the change in the data acquisition paradigm needed for long pulse operation. Even in shot pulse devices, where data is mainly analyzed after the discharge has finished , there is still a large amount of data that has not been analyzed, therefore producing a lot of buried knowledge that still lies undiscovered in the data bases holding the vast amount of data that has been generated. There has been a strong effort in the fusion community in the last decade to improve the offline analysis methods to overcome this problem, but it has proved to be insufficient unless some of these mechanisms can be run in real time. In long pulse devices this new paradigm, where data acquisition devices include local processing capabilities to be able to run advanced data analysis algorithms, will be a must. The research works done in this thesis aim to determining whether it is possible to increase local capacity for real‐time processing of such systems by using GPUs. For that, during the experimentation period, various proposals have been evaluated through use cases developed for several of the most representative fusion devices, ITER, JET and TCV. Conclusions and experiences obtained have allowed to propose a model, and a development methodology, to include this technology in systems for diagnostics of different nature. The model defines not only the optimal hardware architecture for achieving this integration, but also the incorporation of this new processing resource in one of the Systems of Supervision Control and Data Acquisition (SCADA) systems more relevant at the moment in the fusion community (EPICS), providing a complete solution. The final evaluation has been performed through a use case developed for a generic diagnostic requiring image acquisition and processing for the international ITER device, and has been successfully tested in their premises. The solution proposed in this thesis has been included by the ITER IO in his catalog of standard solutions for the development of their future diagnostics. This has been possible thanks to the technologic transfer agreement signed with xi National Instruments which has permitted us to modify and update one of their core software products targeted for the acquisition systems used in these devices.
Resumo:
Dentro del análisis y diseño estructural surgen frecuentemente problemas de ingeniería donde se requiere el análisis dinámico de grandes modelos de elementos finitos que llegan a millones de grados de libertad y emplean volúmenes de datos de gran tamaño. La complejidad y dimensión de los análisis se dispara cuando se requiere realizar análisis paramétricos. Este problema se ha abordado tradicionalmente desde diversas perspectivas: en primer lugar, aumentando la capacidad tanto de cálculo como de memoria de los sistemas informáticos empleados en los análisis. En segundo lugar, se pueden simplificar los análisis paramétricos reduciendo su número o detalle y por último se puede recurrir a métodos complementarios a los elementos .nitos para la reducción de sus variables y la simplificación de su ejecución manteniendo los resultados obtenidos próximos al comportamiento real de la estructura. Se propone el empleo de un método de reducción que encaja en la tercera de las opciones y consiste en un análisis simplificado que proporciona una solución para la respuesta dinámica de una estructura en el subespacio modal complejo empleando un volumen de datos muy reducido. De este modo se pueden realizar análisis paramétricos variando múltiples parámetros, para obtener una solución muy aproximada al objetivo buscado. Se propone no solo la variación de propiedades locales de masa, rigidez y amortiguamiento sino la adición de grados de libertad a la estructura original para el cálculo de la respuesta tanto permanente como transitoria. Adicionalmente, su facilidad de implementación permite un control exhaustivo sobre las variables del problema y la implementación de mejoras como diferentes formas de obtención de los autovalores o la eliminación de las limitaciones de amortiguamiento en la estructura original. El objetivo del método se puede considerar similar a los que se obtienen al aplicar el método de Guyan u otras técnicas de reducción de modelos empleados en dinámica estructural. Sin embargo, aunque el método permite ser empleado en conjunción con otros para obtener las ventajas de ambos, el presente procedimiento no realiza la condensación del sistema de ecuaciones, sino que emplea la información del sistema de ecuaciones completa estudiando tan solo la respuesta en las variables apropiadas de los puntos de interés para el analista. Dicho interés puede surgir de la necesidad de obtener la respuesta de las grandes estructuras en unos puntos determinados o de la necesidad de modificar la estructura en zonas determinadas para cambiar su comportamiento (respuesta en aceleraciones, velocidades o desplazamientos) ante cargas dinámicas. Por lo tanto, el procedimiento está particularmente indicado para la selección del valor óptimo de varios parámetros en grandes estructuras (del orden de cientos de miles de modos) como pueden ser la localización de elementos introducidos, rigideces, masas o valores de amortiguamientos viscosos en estudios previos en los que diversas soluciones son planteadas y optimizadas, y que en el caso de grandes estructuras, pueden conllevar un número de simulaciones extremadamente elevado para alcanzar la solución óptima. Tras plantear las herramientas necesarias y desarrollar el procedimiento, se propone un caso de estudio para su aplicación al modelo de elementos .nitos del UAV MILANO desarrollado por el Instituto Nacional de Técnica Aeroespacial. A dicha estructura se le imponen ciertos requisitos al incorporar un equipo en aceleraciones en punta de ala izquierda y desplazamientos en punta de ala derecha en presencia de la sustentación producida por una ráfaga continua de viento de forma sinusoidal. La modificación propuesta consiste en la adición de un equipo en la punta de ala izquierda, bien mediante un anclaje rígido, bien unido mediante un sistema de reducción de la respuesta dinámica con propiedades de masa, rigidez y amortiguamiento variables. El estudio de los resultados obtenidos permite determinar la optimización de los parámetros del sistema de atenuación por medio de múltiples análisis dinámicos de forma que se cumplan de la mejor forma posible los requisitos impuestos con la modificación. Se comparan los resultados con los obtenidos mediante el uso de un programa comercial de análisis por el método de los elementos .nitos lográndose soluciones muy aproximadas entre el modelo completo y el reducido. La influencia de diversos factores como son el amortiguamiento modal de la estructura original, el número de modos retenidos en la truncatura o la precisión proporcionada por el barrido en frecuencia se analiza en detalle para, por último, señalar la eficiencia en términos de tiempo y volumen de datos de computación que ofrece el método propuesto en comparación con otras aproximaciones. Por lo tanto, puede concluirse que el método propuesto se considera una opción útil y eficiente para el análisis paramétrico de modificaciones locales en grandes estructuras. ABSTRACT When developing structural design and analysis some projects require dynamic analysis of large finite element models with millions of degrees of freedom which use large size data .les. The analysis complexity and size grow if a parametric analysis is required. This problem has been approached traditionally in several ways: one way is increasing the power and the storage capacity of computer systems involved in the analysis. Other obvious way is reducing the total amount of analyses and their details. Finally, complementary methods to finite element analysis can also be employed in order to limit the number of variables and to reduce the execution time keeping the results as close as possible to the actual behaviour of the structure. Following this third option, we propose a model reduction method that is based in a simplified analysis that supplies a solution for the dynamic response of the structure in the complex modal space using few data. Thereby, parametric analysis can be done varying multiple parameters so as to obtain a solution which complies with the desired objetive. We propose not only mass, stiffness and damping variations, but also addition of degrees of freedom to the original structure in order to calculate the transient and steady-state response. Additionally, the simple implementation of the procedure allows an in-depth control of the problem variables. Furthermore, improvements such as different ways to obtain eigenvectors or to remove damping limitations of the original structure are also possible. The purpose of the procedure is similar to that of using the Guyan or similar model order reduction techniques. However, in our method we do not perform a true model order reduction in the traditional sense. Furthermore, additional gains, which we do not explore herein, can be obtained through the combination of this method with traditional model-order reduction procedures. In our procedure we use the information of the whole system of equations is used but only those nodes of interest to the analyst are processed. That interest comes from the need to obtain the response of the structure at specific locations or from the need to modify the structure at some suitable positions in order to change its behaviour (acceleration, velocity or displacement response) under dynamic loads. Therefore, the procedure is particularly suitable for parametric optimization in large structures with >100000 normal modes such as position of new elements, stiffness, mass and viscous dampings in previous studies where different solutions are devised and optimized, and in the case of large structures, can carry an extremely high number of simulations to get the optimum solution. After the introduction of the required tools and the development of the procedure, a study case is proposed with use the finite element model (FEM) of the MILANO UAV developed by Instituto Nacional de Técnica Aeroespacial. Due to an equipment addition, certain acceleration and displacement requirements on left wing tip and right wing tip, respectively, are imposed. The structure is under a continuous sinusoidal wind gust which produces lift. The proposed modification consists of the addition of an equipment in left wing tip clamped through a rigid attachment or through a dynamic response reduction system with variable properties of mass, stiffness and damping. The analysis of the obtained results allows us to determine the optimized parametric by means of multiple dynamic analyses in a way such that the imposed requirements have been accomplished in the best possible way. The results achieved are compared with results from a commercial finite element analysis software, showing a good correlation. Influence of several factors such as the modal damping of the original structure, the number of modes kept in the modal truncation or the precission given by the frequency sweep is analyzed. Finally, the efficiency of the proposed method is addressed in tems of computational time and data size compared with other approaches. From the analyses performed, we can conclude that the proposed method is a useful and efficient option to perform parametric analysis of possible local modifications in large structures.
Resumo:
El autor de este proyecto es miembro reciente de la asociación SoloBoulder, dedicada a la modalidad de escalada boulder, noticias y actualidad, contenido multimedia, promoción de un equipo de escaladores y defensa de valores medioambientales en la montaña. El principal canal de distribución de contenidos es una página web existente previa a este proyecto. La asociación ha detectado una escasez y mala calidad de recursos en internet en cuanto a guías de zonas donde poder practicar el boulder. Tal circunstancia impulsa la iniciativa de este proyecto fin de carrera. El objetivo general es el desarrollo de una nueva aplicación que proporcione a los usuarios a nivel mundial una guía interactiva de boulder y otros puntos de interés, una red social que permita la creación cooperativa y orgánica de contenido, y servicios web para el consumo de la información desde otras plataformas u organizaciones. El nuevo software desarrollado es independiente de la página web de SoloBoulder previa. No obstante, ambas partes se integran bajo el mismo domino web y aspecto. La nueva aplicación ofrece a escaladores y turistas un servicio informativo e interactivo de calidad, con el que se espera aumentar el número de visitas en todo el sitio web y poder ampliar la difusión de valores medioambientales, diversificar las zonas de boulder y regular las masificadas, favorecer el deporte y brindar al escalador una oportunidad de autopromoción personal. Una gran motivación para el autor también es el proceso de investigación y formación en tecnologías, patrones arquitecturales de diseño y metodologías de trabajo adaptadas a las tendencias actuales en la ingeniería de software, con especial curiosidad hacia el mundo web. A este respecto podemos destacar: metodología de trabajo en proyectos, análisis de proyectos, arquitecturas de software, diseño de software, bases de datos, programación y buenas prácticas, seguridad, interfaz gráfica web, diseño gráfico, Web Performance Optimization, Search Engine Optimization, etc. En resumen, este proyecto constituye un aprendizaje y puesta en práctica de diversos conocimientos adquiridos durante la ejecución del mismo, así como afianzamiento de materias estudiadas en la carrera. Además, el producto desarrollado ofrece un servicio de calidad a los usuarios y favorece el deporte y la autopromoción del escalador. ABSTRACT. The author of this Project is recent member of the association SoloBoulder, dedicated to a rock climbing discipline called bouldering, news, multimedia content, promotion of a team of climbers and defense of environmental values in the mountain. The main content distribution channel is a web page existing previous to this project. The association has detected scarcity and bad quality of resources on the internet about guides of bouldering areas. This circumstance motivates the initiative of this project. The general objective is the development of a new application which provides a worldwide, interactive bouldering guide, including other points of interest, a social network which allows the cooperative and organic creation of content, and web services for consumption of information from other platforms or organizations. The new software developed is independent of the previous SoloBoulder web page. However, both parts are integrated under the same domain and appearance. The new application offers to climbers and tourists a quality informative and interactive service, with which we hope to increase the number of visits in the whole web site and be able to expand the dissemination of environmental values, diversify boulder areas and regulate the overcrowded ones, encourage sport and offer to the climber an opportunity of self-promotion. A strong motivation for the author is also the process of investigation and education in technologies, architectural design patterns and working methodologies adapted to the actual trends in software engineering, with special curiosity about the web world. In this regard we could highlight: project working methodologies, project analysis, software architectures, software design, data bases, programming and good practices, security, graphic web interface, graphic design, Web Performance Optimization, Search Engine Optimization, etc. To sum up, this project constitutes learning and practice of diverse knowledge acquired during its execution, as well as consolidation of subjects studied in the degree. In addition, the product developed offers a quality service to the users and favors the sport and the selfpromotion of the climber.
Resumo:
Tendo em conta a importância assumida das bolas paradas (BP), como elementos decisivos no desenvolvimento e decisão nos jogos de futebol, o objetivo do estudo foi construir e validar um Sistema de Observação em Competição no Futebol de Bolas Paradas (SOCFutBP), de acordo com a metodologia observacional e suportado por um software de análise de jogo (VideObserver). O estudo foi constituído por uma amostra de 80 ações de bolas paradas observadas numa das partes de um jogo de futebol do Campeonato Nacional de Juvenis de Sub-17. A metodologia de desenvolvimento do sistema de observação adotou os seguintes passos: definição de critérios (e respetivas categorias); seleção e adequação do instrumento; aperfeiçoamento e validação facial do sistema; validação propriamente dita do sistema (intra e inter-observadores) e aplicação do estudo piloto. O Sistema de Observação em Competição de Futebol de Bola Paradas (SOCFutBP) foi construído e validado apresentando dez critérios adequados e ajustados para a recolha e análise de dados no âmbito da investigação focada nas bolas paradas no Futebol, uma vez que todos os critérios apresentaram valores de K superiores a 0,75 na fiabilidade intra-observador e inter-observadores.
Resumo:
O objetivo deste trabalho foi analisar a expressão dos torques dentários em pacientes tratados com aparelhos ortodônticos fixos com bráquetes autoligados, utilizando tomografias computadorizadas. Para este estudo, foi selecionada uma amostra clínica de 10 pacientes, seguindo como critérios de inclusão, indivíduos que apresentavam dentição permanente e todos os dentes presentes, com apinhamento superior ou igual a 4 mm, tratados sem extração. Todos os pacientes foram tratados na clínica da pós-graduação em Ortodontia da Universidade Metodista de São Paulo, utilizando-se bráquetes autoligados Damon 2 ORMCO na prescrição padrão. Foram realizadas medições das inclinações dos dentes anteriores, de canino a canino, superiores e inferiores, realizadas por meio de imagens tomográficas obtidas em um tomógrafo computadorizado volumétrico NewTom, em seu modelo DVT-9000 (NIM Verona - Itália), obtidas em dois tempos: antes do início do tratamento ortodôntico (denominado de T1) e depois do tratamento ortodôntico, após a inserção do último fio de nivelamento, de calibre 0,019 x 0,025 de aço inoxidável(denominado de T2). Para auxílio destas mensurações, foi utilizado o software QR-DVT 9000 e após análise dos resultados foram aplicados testes estatíscos (testes "t" pareado e Dalberg) e observou-se que as inclinações dos dentes do segmento anterior aumentaram, principalmente, nos caninos e incisivos laterais superiores, incisivos centrais e laterais inferiores. Os dentes apresentaram valores de inclinação diferentes da prescrição, tanto no início quanto no final do tratamento, denotando a incapacidade do fio 0,019 x 0,025 de aço inoxidável em reproduzir os torques indicados na prescrição padrão utilizada neste presente estudo.(AU)
Resumo:
O objetivo deste trabalho foi analisar a expressão dos torques dentários em pacientes tratados com aparelhos ortodônticos fixos com bráquetes autoligados, utilizando tomografias computadorizadas. Para este estudo, foi selecionada uma amostra clínica de 10 pacientes, seguindo como critérios de inclusão, indivíduos que apresentavam dentição permanente e todos os dentes presentes, com apinhamento superior ou igual a 4 mm, tratados sem extração. Todos os pacientes foram tratados na clínica da pós-graduação em Ortodontia da Universidade Metodista de São Paulo, utilizando-se bráquetes autoligados Damon 2 ORMCO na prescrição padrão. Foram realizadas medições das inclinações dos dentes anteriores, de canino a canino, superiores e inferiores, realizadas por meio de imagens tomográficas obtidas em um tomógrafo computadorizado volumétrico NewTom, em seu modelo DVT-9000 (NIM Verona - Itália), obtidas em dois tempos: antes do início do tratamento ortodôntico (denominado de T1) e depois do tratamento ortodôntico, após a inserção do último fio de nivelamento, de calibre 0,019 x 0,025 de aço inoxidável(denominado de T2). Para auxílio destas mensurações, foi utilizado o software QR-DVT 9000 e após análise dos resultados foram aplicados testes estatíscos (testes "t" pareado e Dalberg) e observou-se que as inclinações dos dentes do segmento anterior aumentaram, principalmente, nos caninos e incisivos laterais superiores, incisivos centrais e laterais inferiores. Os dentes apresentaram valores de inclinação diferentes da prescrição, tanto no início quanto no final do tratamento, denotando a incapacidade do fio 0,019 x 0,025 de aço inoxidável em reproduzir os torques indicados na prescrição padrão utilizada neste presente estudo.(AU)
Resumo:
Este estudo teve como objetivo principal analisar a relação entre a Liderança Transformacional, a Conversão do Conhecimento e a Eficácia Organizacional. Foram considerados como pressupostos teóricos conceitos consolidados sobre os temas desta relação, além de recentes pesquisas já realizadas em outros países e contextos organizacionais. Com base nisto identificou-se potencial estudo de um modelo que relacionasse estes três conceitos. Para tal considera-se que as organizações que buscam atingir Vantagem Competitiva e incorporam a Knowledge-Based View possam conquistar diferenciação frente a seus concorrentes. Nesse contexto o conhecimento ganha maior destaque e papel protagonista nestas organizações. Dessa forma criar conhecimento através de seus colaboradores, passa a ser um dos desafios dessas organizações ao passo que sugere melhoria de seus indicadores Econômicos, Sociais, Sistêmicos e Políticos, o que se define por Eficácia Organizacional. Portanto os modos de conversão do conhecimento nas organizações, demonstram relevância, uma vez que se cria e se converte conhecimentos através da interação entre o conhecimento existente de seus colaboradores. Essa conversão do conhecimento ou modelo SECI possui quatro modos que são a Socialização, Externalização, Combinação e Internalização. Nessa perspectiva a liderança nas organizações apresenta-se como um elemento capaz de influenciar seus colaboradores, propiciando maior dinâmica ao modelo SECI de conversão do conhecimento. Se identifica então na liderança do tipo Transformacional, características que possam influenciar colaboradores e entende-se que esta relação entre a Liderança Transformacional e a Conversão do Conhecimento possa ter influência positiva nos indicadores da Eficácia Organizacional. Dessa forma esta pesquisa buscou analisar um modelo que explorasse essa relação entre a liderança do tipo Transformacional, a Conversão do Conhecimento (SECI) e a Eficácia Organizacional. Esta pesquisa teve o caráter quantitativo com coleta de dados através do método survey, obtendo um total de 230 respondentes válidos de diferentes organizações. O instrumento de coleta de dados foi composto por afirmativas relativas ao modelo de relação pesquisado com um total de 44 itens. O perfil de respondentes concentrou-se entre 30 e 39 anos de idade, com a predominância de organizações privadas e de departamentos de TI/Telecom, Docência e Recursos Humanos respectivamente. O tratamento dos dados foi através da Análise Fatorial Exploratória e Modelagem de Equações Estruturais via Partial Least Square Path Modeling (PLS-PM). Como resultado da análise desta pesquisa, as hipóteses puderam ser confirmadas, concluindo que a Liderança Transformacional apresenta influência positiva nos modos de Conversão do Conhecimento e que; a Conversão do Conhecimento influencia positivamente na Eficácia Organizacional. Ainda, concluiu-se que a percepção entre os respondentes não apresenta resultado diferente sobre o modelo desta pesquisa entre quem possui ou não função de liderança.
Resumo:
Improvements over the past 30 years in statistical data, analysis, and related theory have strengthened the basis for science and technology policy by confirming the importance of technical change in national economic performance. But two important features of scientific and technological activities in the Organization for Economic Cooperation and Development countries are still not addressed adequately in mainstream economics: (i) the justification of public funding for basic research and (ii) persistent international differences in investment in research and development and related activities. In addition, one major gap is now emerging in our systems of empirical measurement—the development of software technology, especially in the service sector. There are therefore dangers of diminishing returns to the usefulness of economic research, which continues to rely completely on established theory and established statistical sources. Alternative propositions that deserve serious consideration are: (i) the economic usefulness of basic research is in the provision of (mainly tacit) skills rather than codified and applicable information; (ii) in developing and exploiting technological opportunities, institutional competencies are just as important as the incentive structures that they face; and (iii) software technology developed in traditional service sectors may now be a more important locus of technical change than software technology developed in “high-tech” manufacturing.
Resumo:
Introdução: O Programa Bolsa Família é a principal estratégia brasileira para amenizar a pobreza e vulnerabilidade social, com diferentes impactos na vida dos beneficiários. O aumento da renda, em função do benefício, poderia trazer resultados positivos na alimentação, uma vez que possibilitam uma maior diversidade da dieta. Porém, poderia trazer resultados negativos como a ingestão excessiva de energia e consequente aumento da adiposidade. As avaliações dos impactos do programa em termos de obesidade e massa gorda de crianças são inexistentes. Objetivo: Avaliar o impacto do Programa Bolsa Família no estado nutricional (IMC/idade) e na composição corporal aos 6 anos de idade entre as crianças da Coorte de Nascimentos de Pelotas (RS), 2004. Métodos: Os dados foram provenientes da integração dos bancos da Coorte de Nascimentos de Pelotas de 2004 e do Cadastro Único do Governo Federal. Foi realizada análise descritiva da cobertura e focalização do programa, com informações do nascimento e dos 6 anos de idade (n=4231). Considerou-se focalização o percentual de elegíveis entre o total de beneficiários e cobertura o percentual de famílias elegíveis que são beneficiárias do programa. Nos modelos de impacto (n=3446), as exposições principais foram o recebimento do benefício: beneficiário em 2010, no período de 2004-2010; o valor médio mensal recebido e o tempo de recebimento. Foram gerados modelos de regressão linear para os desfechos score-Z do índice de massa corporal por idade (IMC/I), percentual e índice de massa gorda (IMG), e percentual e índice de massa livre de gordura (IMLG); e de Poisson, com ajuste robusto, para o desfecho obesidade (score-Z IMC/I 2), todos estratificados por sexo. As informações antropométricas e de composição corporal (BOD POD) foram obtidas do acompanhamento aos 6-7 anos de idade. Potenciais fatores de confusão foram identificados por modelo hierárquico e por um diagrama causal (DAG). Para analisar os impactos foram usadas como medidas de efeito a diferença de médias na regressão linear múltipla (IMC/I, por cento MG, IMG, por cento MLG e IMLG, variáveis contínuas) e a razão de prevalência (obesidade, variável binária). Para permanecer no modelo, considerou-se valor p0,20. A análise dos dados foi realizada por meio do software STATA. Resultados: Entre 2004-2010, a proporção de famílias beneficiárias na coorte aumentou (11 por cento para 34 por cento ) enquanto, de acordo com a renda familiar, a proporção de famílias elegíveis diminui (29 por cento para 16 por cento ). No mesmo período, a cobertura do programa aumentou tanto pela renda familiar quanto pelo IEN. Já a focalização caiu de 78 por cento para 32 por cento de acordo com a renda familiar e, de acordo com o IEN, manteve-se em 37 por cento . A média (não ajustada) de IMC e de MG dos não beneficiários foi superior a dos não beneficiários tanto em meninos quanto em meninas. Meninos do 3º tercil de valor per capita recebido e meninas com menos de 7 meses de benefício em 2010 tiveram IMC maior do que, respectivamente, aqueles dos demais tercis e daquelas com mais de 7 meses de benefício em 2010; esse padrão foi semelhante para obesidade. Meninas não beneficiárias tiveram MG maior do que as beneficiárias e superior também aos meninos, independente de ser beneficiário ou não. Em relação à MLG observou-se um comportamento contrário, no qual meninas beneficiárias tiveram maior MLG, quando comparadas com meninas não beneficiárias e, meninos quando comparados com meninas. Nos modelos de regressão ajustados, não houve diferença significativa entre beneficiários e não beneficiários em nenhum desfecho. Conclusões: De acordo com os resultados, as famílias que receberam maiores valores per capita parecem incluir crianças com maior média de IMC. O programa, nessa análise, parece não ter impacto sobre a composição corporal das crianças, nem em termos de massa gorda, tampouco em termos de massa livre de gordura.
Resumo:
O adoecimento de um membro familiar costuma acarretar inúmeras alterações em toda a estrutura e dinâmica familiar. Com a progressão e o agravamento da doença, quando a pessoa se encontra sem possibilidade de tratamento modificador da doença, aumenta o sofrimento tanto da pessoa adoecida quanto de sua família. O cuidador familiar de pessoas idosas em cuidados paliativos sofre junto ao enfermo, podendo enfrentar sobrecarga física, emocional e social decorrente da tarefa de cuidar e da possibilidade da morte. Entretanto, são escassos os estudos que avaliam a sobrecarga desta população. O objetivo deste estudo é identificar e analisar a percepção de sobrecarga por parte do cuidador familiar de idosos em cuidados paliativos. Trata-se de uma pesquisa do tipo transversal, exploratório, de metodologia quantitativa, não probabilística, com uma casuística total composta por 100 pessoas. Essa casuística foi estratificada de acordo com escore obtido por meio da aplicação do protocolo Karnofsky Performance Scale (KPS) com os idosos (com 60 anos ou acima) em cuidados paliativos oncológicos: um grupo com 25 cuidadores familiares de idosos com KPS abaixo de 40%; um grupo com 25 cuidadores de idosos em cuidados paliativos oncológicos com KPS de 70%, 60% ou 50%; um grupo controle com 50 cuidadores familiares de idosos em cuidados paliativos oncológicos, com KPS maior ou igual a 80%. Durante a coleta de dados, além do KPS, foram aplicados o questionário de caracterização clínica e sociodemográfica e os protocolos: Questionário de Classificação Socioeconômica Brasil e o Caregiver Burden Scale (CBScale), validado no Brasil. Para análise dos dados, foi realizada estatística descritiva e as comparações com os grupos foram feitas por meio do Teste Exato de Fisher e de um modelo de regressão quantílica. As análises foram feitas pelo software SAS 9.0 e Stata versão 13. Os resultados indicaram que os cuidadores familiares são, em sua maioria, mulheres, filhas ou esposas, de meia idade a idade mais avançada, predominantemente, na faixa etária de 56 a 71 anos, com baixa escolaridade, pertencentes a classes sociais C e que não realizam nenhuma atividade remunerada. Os maiores índices de sobrecarga foram percebidos em cuidadores do sexo feminino e em cuidadores de idosos os quais apresentam menores escores relativos à capacidade funcional (avaliados pelo KPS). Conclui-se que o agravamento da doença, o declínio funcional do idoso e a possibilidade da sua morte mais próxima fazem aumentar a sobrecarga dos cuidadores, com impactos na sua saúde e qualidade de vida, o que indica a necessidade de oferecimento de serviços de apoio a essa população o mais precocemente possível
Resumo:
A ciência na qual se estuda a deformação de um fluido no qual é aplicada uma tensão de cisalhamento é conhecida como reologia e o equipamento utilizado para a realização dos ensaios é chamado de reômetro. Devido a impraticabilidade de uso de reômetros comerciais, diversos pesquisadores desenvolveram reômetros capazes de analisar suspensões de macropartículas, baseados nos mesmos princípios de funcionamento dos equipamentos já existentes. Em alguns casos, a medição do torque do motor é realizada pela aquisição da tensão, uma vez que esta é proporcional ao torque. Entretanto, para melhor compreensão do resultado e para evitar a possibilidade de conclusões precipitadas, vê-se necessária correta interpretação do sinal elétrico, precisando avaliar qual frequência do sinal é relevante para o ensaio e, também, qual a melhor taxa de amostragem. Além da aquisição, para que o ensaio reológico seja realizado com precisão, é indispensável ótimo controle da taxa ou tensão do motor e uma alternativa é a utilização de um servomotor e um servoconversor. No caso desse ser comercial é essencial saber configurá-lo. Para facilitar o usuário leigo, alguns pesquisadores desenvolveram softwares para controle do equipamento e análise dos dados. Assim, o presente trabalho tem como objetivo propor uma metodologia para compreender o sinal aquisitado de um reômetro servo controlado e desenvolvimento do software de análise para o tratamento dos dados obtidos a partir de ensaios reológicos. Verificou-se a melhor configuração do servocontrolador, a melhor taxa de amostragem, de no mínimo 20 amostras/segundo, e, também, desenvolveu-se um filtro digital passa-baixa do tipo FIR para remover a frequência indesejada. Além disso, foi desenvolvido um software utilizando uma rotina em Matlab e uma interface gráfica do usuário (Graphical User Interface - GUI), para o pós-processamento dos dados para auxiliar o usuário leigo no tratamento e interpretação do resultado, que se mostrou eficaz.
Resumo:
O objetivo deste trabalho é analisar o impacto dos Sistemas de Gestão Integrados (SGI) no desempenho organizacional sob a óptica do Triple Bottom Line (TBL), verificando se esta implementação auxilia a empresa a se tornar mais sustentável. A abordagem multi-método utilizada está dividida em três partes. A primeira compreende uma revisão sistemática da literatura, tendo como base a abordagem bibliométrica. A base de dados escolhida para a seleção dos artigos que compõem a amostra foi a ISI Web of Knowledge (Web of Science). As análises conduzidas sugerem lacunas na literatura a serem pesquisadas de modo a relacionar a integração dos sistemas de gestão como meio para as organizações tornarem-se mais sustentáveis, auxiliando assim na elaboração de um modelo teórico e das hipóteses de pesquisa. Os resultados parciais obtidos ressaltam a lacuna na literatura de estudos nessa área, principalmente que contemplem a dimensão social do Triple Bottom Line. Lacunas na literatura foram identificadas também no que se refere à análise do impacto da adoção dessas abordagens normativas no desempenho organizacional. A segunda etapa da metodologia é composta por estudos de casos múltiplos em empresas de diferentes setores e que tenham implantado sistemas de gestão de maneira integrada. Os resultados obtidos mostram que a certificação auxilia no desenvolvimento de ações sustentáveis, resultando em impactos econômicos, ambientais e sociais positivos. Nesta etapa, testou-se o modelo e as hipóteses levantadas na abordagem bibliométrica. A terceira etapa da metodologia é composta por análises estatísticas de dados secundários extraídos da revista Exame ?Maiores e Melhores\'. Os dados do ano de 2014 das empresas foram tratados por meio do software MINITAB 17 ®. Por meio do teste de mediana de mood, as amostras foram testadas e apresentaram diferenças estatisticamente significativas para o desempenho das empresas em diferentes setores. De maneira geral, as empresas com SGI apresentam melhor desempenho econômico do que as demais. Com a mesma base de dados, utilizando o modelo de equações estruturais e o software Smart PLS 2.0, criou-se um diagrama de caminhos analisando os constructos (SGI) com variáveis de desempenho (Endividamento, Lucratividade, Patrimônio, Crescimento e Retorno). O modelo de equações estruturais testado apresentou força para a relação entre SGI com Endividamento, Lucratividade, Patrimônio e Crescimento. As diferentes metodologias apresentadas contribuíram para responder a hipótese e afirmar com base na amostra deste trabalho que o SGI leva as empresas a terem melhor desempenho econômico, ambiental e social (baseado no TBL).
Resumo:
As world communication, technology, and trade become increasingly integrated through globalization, multinational corporations seek employees with global leadership experience and skills. However, the demand for these skills currently outweighs the supply. Given the rarity of globally ready leaders, global competency development should be emphasized in higher education programs. The reality, however, is that university graduate programs are often outdated and focus mostly on cognitive learning. Global leadership competence requires moving beyond the cognitive domain of learning to create socially responsible and culturally connected global leaders. This requires attention to development methods; however, limited research in global leadership development methods has been conducted. A new conceptual model, the global leadership development ecosystem, was introduced in this study to guide the design and evaluation of global leadership development programs. It was based on three theories of learning and was divided into four development methodologies. This study quantitatively tested the model and used it as a framework for an in-depth examination of the design of one International MBA program. The program was first benchmarked, by means of a qualitative best practices analysis, against the top-ranking IMBA programs in the world. Qualitative data from students, faculty, administrators, and staff was then examined, using descriptive and focused data coding. Quantitative data analysis, using PASW Statistics software, and a hierarchical regression, showed the individual effect of each of the four development methods, as well as their combined effect, on student scores on a global leadership assessment. The analysis revealed that each methodology played a distinct and important role in developing different competencies of global leadership. It also confirmed the critical link between self-efficacy and global leadership development.