987 resultados para multi-camera registration
Resumo:
Introduction : Les accéléromètres sont actuellement les appareils les plus utilisés pour mesurer le niveau d’activité physique, et ce, parce qu'ils évaluent les niveaux d'activité physique de façon objective. Toutefois, les mouvements humains sont difficiles à mesurer, et de nombreuses limitations doivent être prises en considération pour la bonne utilisation des accéléromètres. Les études présentées s’intéressent donc à la validité de la fonction podomètre des accéléromètres ainsi qu’à la validation de la composante accéléromètre d’un nouvel appareil multicapteur (SenseDoc). Méthode : Les sujets ayant participé à la première étude, qui consistait en la validation de la fonction podomètre des accéléromètres, ont marché sur un tapis roulant à trois vitesses différentes (2,5 km/h, 3,5 km/h et 4,8 km/h) pendant 5 minutes par palier. Un accéléromètre (ActiGraph GT3X) porté à la ceinture a enregistré le nombre de pas tandis qu'une caméra a enregistré la marche des participants. Pour la seconde étude, les participants portaient un accéléromètre Actigraph et un SenseDoc à la hanche. Les données brutes des accéléromètres et la mesure de la consommation d’oxygène par calorimétrie indirecte ont été mesurées lors de 14 activités réalisées en laboratoire allant de sédentaires à vigoureuses. Résultats : La première étude indique que les accéléromètres ont détecté seulement 53 % des pas à 2,5 km/h, 82 % à 3,5 km/h et 91 % à 4,8 km/h pour les personnes non obèses. Pour les personnes obèses, l'accéléromètre a détecté 47 % des pas à 2.5 km/h, 67 % à 3.5 km/h et 100 % à 4.8 km/h, des résultats significativement différents des personnes non obèses. La seconde étude confirme pour sa part que le SenseDoc est un outil valide de mesure du niveau d’activité physique. Les accéléromètres possèdent une bonne capacité prédictive de la dépense énergétique avec des valeurs de R carré de 0,84 et 0,80 respectivement pour l'Actigraph et le SenseDoc. Conclusion : À vitesse de marche lente, les accéléromètres sous-estiment le nombre de pas, et ce, dans une plus large mesure chez les personnes obèses que chez les personnes non obèses. Également, une méthode valide et transparente de transformation de données brutes d’accélérométrie a été divulguée dans l’étude avec le SenseDoc. Les travaux présentés dans ce mémoire visent à améliorer l’utilisation en milieu clinique et en recherche des accéléromètres et ouvrent la voie à une plus grande uniformité entre les études utilisant différents types d’accéléromètres.
Resumo:
L’évolution récente des commutateurs de sélection de longueurs d’onde (WSS -Wavelength Selective Switch) favorise le développement du multiplexeur optique d’insertionextraction reconfigurable (ROADM - Reconfigurable Optical Add/Drop Multiplexers) à plusieurs degrés sans orientation ni coloration, considéré comme un équipement fort prometteur pour les réseaux maillés du futur relativement au multiplexage en longueur d’onde (WDM -Wavelength Division Multiplexing ). Cependant, leur propriété de commutation asymétrique complique la question de l’acheminement et de l’attribution des longueur d’ondes (RWA - Routing andWavelength Assignment). Or la plupart des algorithmes de RWA existants ne tiennent pas compte de cette propriété d’asymétrie. L’interruption des services causée par des défauts d’équipements sur les chemins optiques (résultat provenant de la résolution du problème RWA) a pour conséquence la perte d’une grande quantité de données. Les recherches deviennent ainsi incontournables afin d’assurer la survie fonctionnelle des réseaux optiques, à savoir, le maintien des services, en particulier en cas de pannes d’équipement. La plupart des publications antérieures portaient particulièrement sur l’utilisation d’un système de protection permettant de garantir le reroutage du trafic en cas d’un défaut d’un lien. Cependant, la conception de la protection contre le défaut d’un lien ne s’avère pas toujours suffisante en termes de survie des réseaux WDM à partir de nombreux cas des autres types de pannes devenant courant de nos jours, tels que les bris d’équipements, les pannes de deux ou trois liens, etc. En outre, il y a des défis considérables pour protéger les grands réseaux optiques multidomaines composés de réseaux associés à un domaine simple, interconnectés par des liens interdomaines, où les détails topologiques internes d’un domaine ne sont généralement pas partagés à l’extérieur. La présente thèse a pour objectif de proposer des modèles d’optimisation de grande taille et des solutions aux problèmes mentionnés ci-dessus. Ces modèles-ci permettent de générer des solutions optimales ou quasi-optimales avec des écarts d’optimalité mathématiquement prouvée. Pour ce faire, nous avons recours à la technique de génération de colonnes afin de résoudre les problèmes inhérents à la programmation linéaire de grande envergure. Concernant la question de l’approvisionnement dans les réseaux optiques, nous proposons un nouveau modèle de programmation linéaire en nombres entiers (ILP - Integer Linear Programming) au problème RWA afin de maximiser le nombre de requêtes acceptées (GoS - Grade of Service). Le modèle résultant constitue celui de l’optimisation d’un ILP de grande taille, ce qui permet d’obtenir la solution exacte des instances RWA assez grandes, en supposant que tous les noeuds soient asymétriques et accompagnés d’une matrice de connectivité de commutation donnée. Ensuite, nous modifions le modèle et proposons une solution au problème RWA afin de trouver la meilleure matrice de commutation pour un nombre donné de ports et de connexions de commutation, tout en satisfaisant/maximisant la qualité d’écoulement du trafic GoS. Relativement à la protection des réseaux d’un domaine simple, nous proposons des solutions favorisant la protection contre les pannes multiples. En effet, nous développons la protection d’un réseau d’un domaine simple contre des pannes multiples, en utilisant les p-cycles de protection avec un chemin indépendant des pannes (FIPP - Failure Independent Path Protecting) et de la protection avec un chemin dépendant des pannes (FDPP - Failure Dependent Path-Protecting). Nous proposons ensuite une nouvelle formulation en termes de modèles de flots pour les p-cycles FDPP soumis à des pannes multiples. Le nouveau modèle soulève un problème de taille, qui a un nombre exponentiel de contraintes en raison de certaines contraintes d’élimination de sous-tour. Par conséquent, afin de résoudre efficacement ce problème, on examine : (i) une décomposition hiérarchique du problème auxiliaire dans le modèle de décomposition, (ii) des heuristiques pour gérer efficacement le grand nombre de contraintes. À propos de la protection dans les réseaux multidomaines, nous proposons des systèmes de protection contre les pannes d’un lien. Tout d’abord, un modèle d’optimisation est proposé pour un système de protection centralisée, en supposant que la gestion du réseau soit au courant de tous les détails des topologies physiques des domaines. Nous proposons ensuite un modèle distribué de l’optimisation de la protection dans les réseaux optiques multidomaines, une formulation beaucoup plus réaliste car elle est basée sur l’hypothèse d’une gestion de réseau distribué. Ensuite, nous ajoutons une bande pasiv sante partagée afin de réduire le coût de la protection. Plus précisément, la bande passante de chaque lien intra-domaine est partagée entre les p-cycles FIPP et les p-cycles dans une première étude, puis entre les chemins pour lien/chemin de protection dans une deuxième étude. Enfin, nous recommandons des stratégies parallèles aux solutions de grands réseaux optiques multidomaines. Les résultats de l’étude permettent d’élaborer une conception efficace d’un système de protection pour un très large réseau multidomaine (45 domaines), le plus large examiné dans la littérature, avec un système à la fois centralisé et distribué.
Resumo:
Les systèmes logiciels sont devenus de plus en plus répondus et importants dans notre société. Ainsi, il y a un besoin constant de logiciels de haute qualité. Pour améliorer la qualité de logiciels, l’une des techniques les plus utilisées est le refactoring qui sert à améliorer la structure d'un programme tout en préservant son comportement externe. Le refactoring promet, s'il est appliqué convenablement, à améliorer la compréhensibilité, la maintenabilité et l'extensibilité du logiciel tout en améliorant la productivité des programmeurs. En général, le refactoring pourra s’appliquer au niveau de spécification, conception ou code. Cette thèse porte sur l'automatisation de processus de recommandation de refactoring, au niveau code, s’appliquant en deux étapes principales: 1) la détection des fragments de code qui devraient être améliorés (e.g., les défauts de conception), et 2) l'identification des solutions de refactoring à appliquer. Pour la première étape, nous traduisons des régularités qui peuvent être trouvés dans des exemples de défauts de conception. Nous utilisons un algorithme génétique pour générer automatiquement des règles de détection à partir des exemples de défauts. Pour la deuxième étape, nous introduisons une approche se basant sur une recherche heuristique. Le processus consiste à trouver la séquence optimale d'opérations de refactoring permettant d'améliorer la qualité du logiciel en minimisant le nombre de défauts tout en priorisant les instances les plus critiques. De plus, nous explorons d'autres objectifs à optimiser: le nombre de changements requis pour appliquer la solution de refactoring, la préservation de la sémantique, et la consistance avec l’historique de changements. Ainsi, réduire le nombre de changements permets de garder autant que possible avec la conception initiale. La préservation de la sémantique assure que le programme restructuré est sémantiquement cohérent. De plus, nous utilisons l'historique de changement pour suggérer de nouveaux refactorings dans des contextes similaires. En outre, nous introduisons une approche multi-objective pour améliorer les attributs de qualité du logiciel (la flexibilité, la maintenabilité, etc.), fixer les « mauvaises » pratiques de conception (défauts de conception), tout en introduisant les « bonnes » pratiques de conception (patrons de conception).
Resumo:
Située dans le discours actuel à la mode sur la diversité culturelle, l’objet de cette thèse consiste à comprendre l’orientation pratique d’une organisation internationale en matière de gestion de sa diversité culturelle interne. Il propose que, face aux changements qui ont modifié la configuration sociodémographique de la sphère organisationnelle, il serait intéressant de partir d’une organisation pour laquelle la diversité est une tradition tributaire de son fonctionnement. L’organisation sujet d’étude est internationale, affiliée à l’Unesco. Cette dernière étant reconnue pour son mandat qui valorise et protège les cultures. L’ancrage épistémologique de la thèse est bi-disciplinaire. Il considère deux champs théoriques sur lesquels se construit la diversité culturelle. Le premier est forgé dans les théories de management dites « occidentales » sur la diversité. Le deuxième champ, s’établit sur une approche dynamique de la culture apportée par les « Cross-Cultural Studies ». La méthodologie que nous avons mobilisée pour cette recherche est principalement qualitative. Elle est également diverse puisqu’elle veut identifier trois niveaux d’analyses. D’abord, l’étude historique réalisée se fonde sur l’analyse d’articles choisis tirés des archives de l’« organisation mère » (Unesco). Elle se veut être une étude exhaustive qui révèle l’évolution du discours « global » de cette organisation sur la diversité culturelle depuis sa création. Ensuite, afin de mieux comprendre le discours interne de l’Organisation sur la diversité culturelle, une analyse du contenu d’un « halo » de ses politiques internes a lieu. Elle nous permet de comprendre la valeur que prend la diversité culturelle dans son discours « organisationnel » dans la période de temps que nous traitons. Enfin, les histoires « individuelles » des acteurs de la diversité culturelle, apportent une description riche et, complètent l’analyse avec leurs interprétions des pratiques de gestions mises en place à leur égard. Des éléments de recherche sous adjacentes sont aussi amenés dans la thèse et font également partie du processus de l’analyse de la pratique de la diversité culturelle dans l’Organisation. En effet, la thèse se penche sur le problème conceptuel sur la « diversité culturelle ». Elle apporte des éclaircissements à la terminologie à travers l’analyse de ses différents emplois dans la littérature organisationnelle. Par ailleurs, elle clarifie la notion d’organisation internationale et propose une description du contexte unesquien défini par sa diversité culturelle interne. L’ensemble des niveaux examinés a permis de mettre en évidence une double constatation. D’une part, le paradoxe entre les trois niveaux. D’autre part, la neutralité des pratiques de gestion de la diversité culturelle pour les employés et la demande implicite de reconnaissance de leurs identités culturelles. Des recommandations sont proposées et des suggestions pour de recherches ultérieures sont formulées à la conclusion de la thèse.
Resumo:
En tant que population majoritairement immigrante, les protestants inhumés au cimetière Saint-Matthew, ville de Québec (1771-1860) ont dû s'adapter à un nouvel environnement à leur arrivée au Québec, et donc à de nouvelles ressources. Parallèlement, les 18e et 19e siècles sont marqués par un contexte socio-économique en pleine mutation avec l'arrivée graduelle de la période industrielle, et la ville de Québec, avec son contexte portuaire, a ainsi été au coeur de ces changements. L'objectif de ce mémoire est d'évaluer si la géochimie des isotopes stables appliquée à plusieurs matériaux du squelette humain (collagène et apatite de l'os, collagène de la dentine, et carbonate de l'émail) permet de mieux comprendre comment les comportements alimentaires des individus analysés provenant de ce cimetière cosmopolite (n=40) ont évolué en cours de vie. L'alimentation étant influencée par des conditions socio-économiques, culturelles et environnementales, cela peut nous informer indirectement sur les processus d'adaptation et l'identité d'un individu. C'est dans cette perspective d'écologie culturelle que nous avons interprété les données recueillies lors de ce projet, en complément aux analyses effectuées précédemment par Morland (2009) et Caron (2013). Nos résultats corroborent les tendances déjà observées, soit des pratiques alimentaires semblables à celles que l'on retrouve en Europe, et des immigrants provenant majoritairement des Îles Britanniques. Ils démontrent également une légère augmentation de la consommation de ressources C4, comme le maïs et la canne à sucre, à l'âge adulte pour 90% des individus analysés, de même qu'une baisse du niveau de protéines. Par ailleurs, les individus étudiés ont généralement eu tendance à conserver le même niveau alimentaire les uns par rapport aux autres tout au cours de leur vie, même si les pratiques étaient moins diversifiés à l'âge adulte. Finalement, on constate des similarités de comportements avec les populations irlandaises et britanniques plus pauvres durant l'enfance, alors qu'ils ressemblent davantage à ceux visibles dans la vallée laurentienne en fin de vie, notamment en ce qui concerne l'apport en protéines. Nos résultats suggèrent donc des changements alimentaires significatifs, fort possiblement liés aux processus de migration et à une adaptation constante à un nouvel environnement de la part des individus étudiés.
Resumo:
Présentation: Cet article a été publié dans le journal : Computerised medical imaging and graphics (CMIG). Le but de cet article est de recaler les vertèbres extraites à partir d’images RM avec des vertèbres extraites à partir d’images RX pour des patients scoliotiques, en tenant compte des déformations non-rigides due au changement de posture entre ces deux modalités. À ces fins, une méthode de recalage à l’aide d’un modèle articulé est proposée. Cette méthode a été comparée avec un recalage rigide en calculant l’erreur sur des points de repère, ainsi qu’en calculant la différence entre l’angle de Cobb avant et après recalage. Une validation additionelle de la méthode de recalage présentée ici se trouve dans l’annexe A. Ce travail servira de première étape dans la fusion des images RM, RX et TP du tronc complet. Donc, cet article vérifie l’hypothèse 1 décrite dans la section 3.2.1.
Resumo:
Background This paper presents a method that registers MRIs acquired in prone position, with surface topography (TP) and X-ray reconstructions acquired in standing position, in order to obtain a 3D representation of a human torso incorporating the external surface, bone structures, and soft tissues. Methods TP and X-ray data are registered using landmarks. Bone structures are used to register each MRI slice using an articulated model, and the soft tissue is confined to the volume delimited by the trunk and bone surfaces using a constrained thin-plate spline. Results The method is tested on 3 pre-surgical patients with scoliosis and shows a significant improvement, qualitatively and using the Dice similarity coefficient, in fitting the MRI into the standing patient model when compared to rigid and articulated model registration. The determinant of the Jacobian of the registration deformation shows higher variations in the deformation in areas closer to the surface of the torso. Conclusions The novel, resulting 3D full torso model can provide a more complete representation of patient geometry to be incorporated in surgical simulators under development that aim at predicting the effect of scoliosis surgery on the external appearance of the patient’s torso.
Resumo:
This paper presents a method based on articulated models for the registration of spine data extracted from multimodal medical images of patients with scoliosis. With the ultimate aim being the development of a complete geometrical model of the torso of a scoliotic patient, this work presents a method for the registration of vertebral column data using 3D magnetic resonance images (MRI) acquired in prone position and X-ray data acquired in standing position for five patients with scoliosis. The 3D shape of the vertebrae is estimated from both image modalities for each patient, and an articulated model is used in order to calculate intervertebral transformations required in order to align the vertebrae between both postures. Euclidean distances between anatomical landmarks are calculated in order to assess multimodal registration error. Results show a decrease in the Euclidean distance using the proposed method compared to rigid registration and more physically realistic vertebrae deformations compared to thin-plate-spline (TPS) registration thus improving alignment.
Resumo:
One of the fastest expanding areas of computer exploitation is in embedded systems, whose prime function is not that of computing, but which nevertheless require information processing in order to carry out their prime function. Advances in hardware technology have made multi microprocessor systems a viable alternative to uniprocessor systems in many embedded application areas. This thesis reports the results of investigations carried out on multi microprocessors oriented towards embedded applications, with a view to enhancing throughput and reliability. An ideal controller for multiprocessor operation is developed which would smoothen sharing of routines and enable more powerful and efficient code I data interchange. Results of performance evaluation are appended.A typical application scenario is presented, which calls for classifying tasks based on characteristic features that were identified. The different classes are introduced along with a partitioned storage scheme. Theoretical analysis is also given. A review of schemes available for reducing disc access time is carried out and a new scheme presented. This is found to speed up data base transactions in embedded systems. The significance of software maintenance and adaptation in such applications is highlighted. A novel scheme of prov1d1ng a maintenance folio to system firmware is presented, alongwith experimental results. Processing reliability can be enhanced if facility exists to check if a particular instruction in a stream is appropriate. Likelihood of occurrence of a particular instruction would be more prudent if number of instructions in the set is less. A new organisation is derived to form the basement for further work. Some early results that would help steer the course of the work are presented.
Resumo:
The laser produced plasma from the multi-component target YBa2CU3O7 was analyzed using Michelson interferometry and time resolved emission spectroscopy. The interaction of 10 ns pulses of 1.06 mum radiation from a Q-switched Nd:YAG laser at laser power densities ranging from 0.55 GW cm-2 to 1.5 GW cm-2 has been studied. Time resolved spectral measurements of the plasma evolution show distinct features at different points in its temporal history. For a time duration of less than 55 ns after the laser pulse (for a typical laser power density of 0.8 GW cm-2, the emission spectrum is dominated by black-body radiation. During cooling after 55 ns the spectral emission consists mainly of neutral and ionic species. Line averaged electron densities were deduced from interferometric line intensity measurements at various laser power densities. Plasma electron densities are of the order of 1017 cm-3 and the plasma temperature at the core region is about 1 eV. The measurement of plasma emission line intensities of various ions inside the plasma gave evidence of multiphoton ionization of the elements constituting the target at low laser power densities. At higher laser power densities the ionization mechanism is collision dominated. For elements such as nitrogen present outside the target, ionization is due to collisions only.
Resumo:
In the present study the availability of satellite altimeter sea level data with good spatial and temporal resolution is explored to describe and understand circulation of the tropical Indian Ocean. The derived geostrophic circulations showed large variability in all scales. The seasonal cycle described using monthly climatology generated using 12 years SSH data from 1993 to 2004 revealed several new aspects of tropical Indian Ocean circulation. The interannual variability presented in this study using monthly means of SSH data for 12 years have shown large year-to-year variability. The EOF analysis has shown the influence of several periodic signals in the annual and interannual scales where the relative strengths of the signals also varied from year to year. Since one of the reasons for this kind of variability in circulation is the presence of planetary waves. This study discussed the influence of such waves on circulation by presenting two cases one in the Arabian Sea and other in the Bay of Bengal.
Resumo:
Isochronal synchronisation between the elements of an array of three mutually coupled directly modulated semiconductor lasers is utilized for the purpose of simultaneous bidirectional secure communication. Chaotic synchronisation is achieved by adding the coupling signal to the self feedback signal provided to each element of the array. A symmetric coupling is effective in inducing synchronisation between the elements of the array. This coupling scheme provides a direct link between every pair of elements thus making the method suitable for simultaneous bidirectional communication between them. Both analog and digital messages are successfully encrypted and decrypted simultaneously by each element of the array.
Resumo:
A study has been carried out to understand the influence of ambient gases on the dynamics of laser-blow-off plumes of multi-layered LiF–C thin film. Plume images at various time intervals ranging from 100 to 3000 ns have been recorded using an intensified CCD camera. Enhancement in the plume intensity and change in size and shape occurs on introducing ambient gases and these changes are highly dependent on the nature and composition of the ambient gas used. Velocity of the plume was found to be higher in helium ambient whereas intensity enhancement is greater in argon environment. The plume shapes have maximum size at 10−2 and 10−1 Torr of Ar and He pressures, respectively. As the background pressure increases further (>10−2 Torr: depending on the nature of gas), the plume gets compressed/focused in the lateral direction. Internal structure formation and turbulences are observed at higher pressures (>10−1 Torr) in both ambient gases.