945 resultados para Estimator standard error and efficiency
Resumo:
La scoliose idiopathique (SI) est une déformation tridimensionnelle (3D) de la colonne vertébrale et de la cage thoracique à potentiel évolutif pendant la croissance. Cette déformation 3D entraîne des asymétries de la posture. La correction de la posture est un des objectifs du traitement en physiothérapie chez les jeunes atteints d’une SI afin d’éviter la progression de la scoliose, de réduire les déformations morphologiques et leurs impacts sur la qualité de vie. Les outils cliniques actuels ne permettent pas de quantifier globalement les changements de la posture attribuables à la progression de la scoliose ou à l’efficacité des interventions thérapeutiques. L’objectif de cette thèse consiste donc au développement et à la validation d’un nouvel outil clinique permettant l’analyse quantitative de la posture auprès de personnes atteintes d’une SI. Ce projet vise plus spécifiquement à déterminer la fidélité et la validité des indices de posture (IP) de ce nouvel outil clinique et à vérifier leur capacité à détecter des changements entre les positions debout et assise. Suite à une recension de la littérature, 34 IP représentant l’alignement frontal et sagittal des différents segments corporels ont été sélectionnés. L’outil quantitatif clinique d’évaluation de la posture (outil 2D) construit dans ce projet consiste en un logiciel qui permet de calculer les différents IP (mesures angulaires et linéaires). L’interface graphique de cet outil est conviviale et permet de sélectionner interactivement des marqueurs sur les photographies digitales. Afin de vérifier la fidélité et la validité des IP de cet outil, la posture debout de 70 participants âgés entre 10 et 20 ans atteints d'une SI (angle de Cobb: 15º à 60º) a été évaluée à deux occasions par deux physiothérapeutes. Des marqueurs placés sur plusieurs repères anatomiques, ainsi que des points de référence anatomique (yeux, lobes des oreilles, etc.), ont permis de mesurer les IP 2D en utilisant des photographies. Ces mêmes marqueurs et points de référence ont également servi au calcul d’IP 3D obtenus par des reconstructions du tronc avec un système de topographie de surface. Les angles de Cobb frontaux et sagittaux et le déjettement C7-S1 ont été mesurés sur des radiographies. La théorie de la généralisabilité a été utilisée pour déterminer la fidélité et l’erreur standard de la mesure (ESM) des IP de l’outil 2D. Des coefficients de Pearson ont servi à déterminer la validité concomitante des IP du tronc de l’outil 2D avec les IP 3D et les mesures radiographiques correspondantes. Cinquante participants ont été également évalués en position assise « membres inférieurs allongés » pour l’étude comparative de la posture debout et assise. Des tests de t pour échantillons appariés ont été utilisés pour détecter les différences entre les positions debout et assise. Nos résultats indiquent un bon niveau de fidélité pour la majorité des IP de l’outil 2D. La corrélation entre les IP 2D et 3D est bonne pour les épaules, les omoplates, le déjettement C7-S1, les angles de taille, la scoliose thoracique et le bassin. Elle est faible à modérée pour la cyphose thoracique, la lordose lombaire et la scoliose thoraco-lombaire ou lombaire. La corrélation entre les IP 2D et les mesures radiographiques est bonne pour le déjettement C7-S1, la scoliose et la cyphose thoracique. L’outil est suffisamment discriminant pour détecter des différences entre la posture debout et assise pour dix des treize IP. Certaines recommandations spécifiques résultents de ce projet : la hauteur de la caméra devrait être ajustée en fonction de la taille des personnes; la formation des juges est importante pour maximiser la précision de la pose des marqueurs; et des marqueurs montés sur des tiges devraient faciliter l’évaluation des courbures vertébrales sagittales. En conclusion, l’outil développé dans le cadre de cette thèse possède de bonnes propriétés psychométriques et permet une évaluation globale de la posture. Cet outil devrait contribuer à l’amélioration de la pratique clinique en facilitant l’analyse de la posture debout et assise. Cet outil s’avère une alternative clinique pour suivre l’évolution de la scoliose thoracique et diminuer la fréquence des radiographies au cours du suivi de jeunes atteints d’une SI thoracique. Cet outil pourrait aussi être utile pour vérifier l’efficacité des interventions thérapeutiques sur la posture.
Resumo:
Objectifs : Le bruxisme survenant au cours du sommeil est un trouble du mouvement caractérisé par du grincement de dents et l’activité rythmique des muscles masticateurs (ARMM). Le bruxisme/ARMM est souvent associé à des mouvements du corps et des à éveils corticaux. Une séquence d’activation précède le ARMM/bruxisme. Ces événements incluent une augmentation des variables suivants : l’activité sympathique (-4 minutes), les activités encéphalographique (-4 second), le fréquence cardiaque, l’amplitude de la respiration (-1 second) et l’activité des muscle suprahyoïdiens (-0.8 second). La présente étude a examiné l’association entre le bruxisme et les changements de la pression artérielle. Méthodes: Dix sujets avec le bruxisme (5 hommes, 5 femmes, âge moyen = 26 ± 1,8) ont complétés 3 nuits de polysomnographie qui comprenait l'enregistrement non invasive de la pression artérielle. La première nuit a servi de dépistage et d’habituation au laboratoire. L'analyse a été réalisée sur les deuxièmes et troisièmes nuits enregistrements. Seuls les épisodes de bruxisme isolés survenant au cours du stade 2 du sommeil ont été utilisés pour l’analyse, pour un total de 65 épisodes. Les mesures des pressions systolique et diastolique ont été prises 20 battements avant et 23 battements après l'apparition de chaque épisode bruxisme lors du sommeil. Les épisodes de bruxisme ont été classés comme suit: 1) bruxisme avec éveil cortical; 2) bruxisme avec mouvement du corps (MC), 3) bruxisme avec éveil cortical et MC. Une quatrième catégorie, bruxisme seul, a également été analysée, mais utilisée comme donnée préliminaire puisque la catégorie se composait de seulement 4 épisodes de bruxisme. Résultats: Les deux pressions systolique et diastolique ont augmenté avec les épisodes de bruxisme. Cette augmentation a été statistiquement significative pour la pression systolique et diastolique pour les épisodes de bruxisme avec éveil cortical et/ou MC (p ≤ 0,05). L’augmentation moyenne de la pression (systolique / diastolique ± SE) a été : 28,4 ± 2,4/13,2 ± 1,5 mm Hg pour le bruxisme avec éveil cortical; 30,7 ± 1,6/19.4 ± 2.3 mm Hg pour bruxisme avec MC; 26.4 ± 2,8 / 14,6 ± 2.0mm Hg pour bruxisme avec éveil cortical et MC; 22,9 ± 5,2/12,4 ± 3,3mm Hg pour les épisodes de bruxisme seuls. Conclusion: Le bruxisme du sommeil est associé à des hausses de la pression artérielle pendant le sommeil. Cette hausse est supérieure dans les épisodes de bruxisme associés à un éveil cortical et / ou MC, qui sont souvent associés avec les événements bruxisme. Ces résultats sont en accord avec nos observations antérieures, où le bruxisme est précédé par une augmentation de l'activité sympathique et de la tachycardie sinusale.
Resumo:
Dans ce mémoire nous allons présenter une méthode de diffusion d’erreur originale qui peut reconstruire des images en demi-ton qui plaisent à l’œil. Cette méthode préserve des détails fins et des structures visuellement identifiables présentes dans l’image originale. Nous allons tout d’abord présenter et analyser quelques travaux précédents afin de montrer certains problèmes principaux du rendu en demi-ton, et nous allons expliquer pourquoi nous avons décidé d’utiliser un algorithme de diffusion d’erreur pour résoudre ces problèmes. Puis nous allons présenter la méthode proposée qui est conceptuellement simple et efficace. L’image originale est analysée, et son contenu fréquentiel est détecté. Les composantes principales du contenu fréquentiel (la fréquence, l’orientation et le contraste) sont utilisées comme des indices dans un tableau de recherche afin de modifier la méthode de diffusion d’erreur standard. Le tableau de recherche est établi dans un étape de pré-calcul et la modification est composée par la modulation de seuil et la variation des coefficients de diffusion. Ensuite le système en entier est calibré de façon à ce que ces images reconstruites soient visuellement proches d’images originales (des aplats d’intensité constante, des aplats contenant des ondes sinusoïdales avec des fréquences, des orientations et des constrastes différents). Finalement nous allons comparer et analyser des résultats obtenus par la méthode proposée et des travaux précédents, et démontrer que la méthode proposée est capable de reconstruire des images en demi-ton de haute qualité (qui préservent des structures) avec un traitement de temps très faible.
Resumo:
Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.
Resumo:
BACKGROUND: Acute liver failure (ALF) is characterized haemodynamically by a progressive hyperdynamic circulation. The pathophysiological mechanism is unknown, but impaired contractility of vascular smooth muscle may play an important role. The aim of this study was to evaluate the vascular response to stimulation with norepinephrine and angiotensin II in endothelium-denuded femoral artery rings. METHODS: Norwegian Landrace pigs weighing 27.1 +/- 0.5 kg (mean +/- sx (standard error of the mean)) were used. ALF was induced by performing a portacaval shunt followed by ligation of the hepatic arteries (n = 6). Sham-operated animals served as controls (n = 5). Cumulative isometric concentration contraction curves were obtained after in vitro stimulation of the femoral artery rings with either angiotensin II (10(-13) - 10(-5) mol/L) or norepinephrine (10(-13) - 10(-3) mol/L). RESULTS: Pigs suffering from ALF developed a hyperdynamic circulation with an increased cardiac index (P = 0.017) and decreased systemic vascular resistance index (P = 0.015). Studies of the hind leg revealed a decreased vascular resistance index and increased blood flow compared to sham-operated controls (P = 0.003 and P = 0.01, respectively). Angiotensin II caused a concentration-dependent contraction of the arterial segments, with no significant differences in vascular responses between the two groups. Maximum force generated did not differ (55 +/- 7 versus 56 +/- 7 mN, P = 0.95). Furthermore, there were no differences for norepinephrine in the cumulative concentration-response curves and the maximum contractile force was not significantly different (87 +/- 8 versus 93 +/- 16 mN, P = 0.55). CONCLUSIONS: This study documents for the first time that there are no signs of endothelium-independent peripheral vascular hyporesponsiveness to angiotensin II and norepinephrine in pigs with ALF.
Resumo:
Justification: Le glaucome entraîne une perte progressive de la vision causée par la détérioration du nerf optique. Le glaucome est répandu dans le monde et cause la cécité dans environ sept millions de personnes. Le glaucome touche plus de 400 000 Canadiens et sa prévalence augmente avec le vieillissement de la population.1,2 Il s'agit d'une maladie chronique surnoise dont les symptômes se manifestent uniquement lors des stades avancés et qui peuvent mener à la cécité. Présentement, le seul moyen possible d’arrêter la progression du glaucome au stade initial est de diminuer la pression intra-oculaire (PIO). Les analogues de prostaglandines (APG) topiques sont fréquemment utilisées comme traitement de première ligne. Cependant, la recherche démontre que cette classe de médicaments peut changer certaines propriétés de la cornée, et possiblement influencer la mesure de la PIO.3 Objectif: À déterminer si l'utilisation d'APG affecte les propriétés biomécaniques de la cornée. La conclusion sera basée sur l'analyse intégrée des résultats obtenus de l'analyseur Reichert oculaire Réponse (ORA), la tonométrie par applanation de Goldmann (TAG) et la pachymétrie ultrasonographique. Le deuxième objectif potentiel de cette étude est de déterminer la corrélation, le cas échéant, entre les propriétés biomécaniques de la cornée, l'épaisseur de la cornée centrale (ECC) et la PIO chez les patients subissant un traitement d’APG topique. L'hypothèse principale de cette étude est que l’APG influence les propriétés de la cornée telles que l'épaisseur centrale, l'élasticité et la résistance. Patients et méthodes : Soixante-dix yeux de 35 patients, âgés de 50-85 ans, atteints de glaucome à angle ouvert (GAO) et traités avec APG topique ont été examinés. Seulement les sujets avec une réfraction manifeste entre -6,00 D et +4,25 D ont été inclus. Les critères d'exclusion sont: patients avec n'importe quelle autre maladie de la cornée de l’œil, telles que la dystrophie endothéliale de Fuch’s et kératocône, ou tout antécédent de traumatisme ou d'une chirurgie de la cornée, ainsi que le port de lentilles de contact. Nous avons demandé aux patients atteints du glaucome qui ont des paramètres stables et qui utilisent l’APG dans les deux yeux de cesser l’APG dans l'œil moins affecté par la PIO, et de continuer l’utilisation d’APG dans l'œil contralatéral. Le meilleur œil est défini comme celui avec moins de dommage sur le champ visuel (CV) (déviation moyenne (DM), le moins négatif) ou une PIO maximale historique plus basse si la DM est égale ou encore celui avec plus de dommage sur la tomographie par cohérence optique (TCO, Cirrus, CA) ou la tomographie confocale par balayage laser (HRT, Heidelberg, Allemagne). Toutes les mesures ont été prises avant la cessation d’APG et répétées 6 semaines après l’arrêt. Les patients ont ensuite recommencé l’utilisation d’APG et toutes les mesures ont été répétées encore une fois après une période supplémentaire de 6 semaines. Après commencer ou de changer le traitement du glaucome, le patient doit être vu environ 4-6 semaines plus tard pour évaluer l'efficacité de la goutte.4 Pour cette raison, on été décidé d'utiliser 6 semaines d'intervalle. Toutes les mesures ont été effectuées à l’institut du glaucome de Montréal par le même technicien, avec le même équipement et à la même heure de la journée. L'œil contralatéral a servi comme œil contrôle pour les analyses statistiques. La tonométrie par applanation de Goldmann a été utilisée pour mesurer la PIO, la pachymétrie ultrasonographique pour mesurer l'ECC, et l’ORA pour mesurer les propriétés biomécaniques de la cornée, incluant l'hystérèse cornéenne (HC). L’hypothèse de l'absence d'effet de l'arrêt de l’APG sur les propriétés biomécaniques a été examiné par un modèle linéaire à effets mixtes en utilisant le logiciel statistique R. Les effets aléatoires ont été définies à deux niveaux: le patient (niveau 1) et l'œil de chaque patient (niveau 2). Les effets aléatoires ont été ajoutés au modèle pour tenir compte de la variance intra-individuelle. L’âge a également été inclus dans le modèle comme variable. Les contrastes entre les yeux et les temps ont été estimés en utilisant les valeurs p ajustées pour contrôler les taux d'erreur internes de la famille en utilisant multcomp paquet dans R. Résultats: Une augmentation statistiquement significative due l 'HC a été trouvée entre les visites 1 (sur APG) et 2 (aucun APG) dans les yeux de l'étude, avec une moyenne (±erreur standard) des valeurs de 8,98 ± 0,29 mmHg et 10,35 ± 0,29 mmHg, respectivement, correspondant à une augmentation moyenne de 1,37 ± 0,18 mmHg (p <0,001). Une réduction significative de 1,25 ± 0,18 mmHg (p <0,001) a été observée entre les visites 2 et 3, avec une valeur moyenne HC finale de 9,09 ± 0,29 mmHg. En outre, une différence statistiquement significative entre l’oeil d’étude et le contrôle n'a été observée que lors de la visite 2 (1,01 ± 0,23 mmHg, p <0,001) et non lors des visites 1 et 3. Une augmentation statistiquement significative du facteur de résistance conréen (FRC) a été trouvée entre les visites 1 et 2 dans les yeux de l'étude, avec des valeurs moyennes de 10,23 ± 0,34 mmHg et 11,71 ± 0,34 mmHg, respectivement. Le FRC a ensuite été réduit de 1,90 ± 0,21 mmHg (p <0,001) entre les visites 2 et 3, avec une valeur moyenne FRC finale de 9,81 ± 0,34 mmHg. Une différence statistiquement significative entre l’oeil d’étude et le contrôle n'a été observée que lors de la visite 2 (1,46 ± 0,23 mmHg, p <0,001). Une augmentation statistiquement significative de l'ECC a été trouvée entre les visites 1 et 2 dans les yeux de l'étude, avec des valeurs moyennes de 541,83 ± 7,27 µm et 551,91 ± 7,27 µm, respectivement, ce qui correspond à une augmentation moyenne de 10,09 ± 0,94 µm (p <0,001). L'ECC a ensuite diminué de 9,40 ± 0,94 µm (p <0,001) entre les visites 2 et 3, avec une valeur moyenne finale de 542,51 ± 7,27 µm. Une différence entre l’étude et le contrôle des yeux n'a été enregistré que lors de la visite 2 (11,26 ± 1,79 µm, p <0,001). De même, on a observé une augmentation significative de la PIO entre les visites 1 et 2 dans les yeux de l'étude, avec des valeurs moyennes de 15,37 ± 0,54 mmHg et 18,37 ± 0,54 mmHg, respectivement, ce qui correspond à une augmentation moyenne de 3,0 ± 0,49 mmHg (p <0,001). Une réduction significative de 2,83 ± 0,49 mmHg (p <0,001) a été observée entre les visites 2 et 3, avec une valeur moyenne de la PIO finale de 15,54 ± 0,54 mmHg. L’oeil de contrôle et d’étude ne différaient que lors de la visite 2 (1,91 ± 0,49 mmHg, p <0,001), ce qui confirme l'efficacité du traitement de l’APG. Lors de la visite 1, le biais de la PIO (PIOcc - PIO Goldmann) était similaire dans les deux groupes avec des valeurs moyennes de 4,1 ± 0,54 mmHg dans les yeux de contrôles et de 4,8 ± 0,54 mmHg dans les yeux d’études. Lors de la visite 2, après un lavage de 6 semaines d’APG, le biais de la PIO dans l'œil testé a été réduit à 1,6 ± 0,54 mmHg (p <0,001), ce qui signifie que la sous-estimation de la PIO par TAG était significativement moins dans la visite 2 que de la visite 1. La différence en biais PIO moyenne entre l'étude et le contrôle des yeux lors de la visite 2, en revanche, n'a pas atteint la signification statistique (p = 0,124). On a observé une augmentation peu significative de 1,53 ± 0,60 mmHg (p = 0,055) entre les visites 2 et 3 dans les yeux de l'étude, avec une valeur de polarisation finale de la PIO moyenne de 3,10 ± 0,54 mmHg dans les yeux d'études et de 2,8 ± 0,54 mmHg dans les yeux de contrôles. Nous avons ensuite cherché à déterminer si une faible HC a été associée à un stade de glaucome plus avancé chez nos patients atteints du glaucome à angle ouvert traités avec l’APG. Lorsque l'on considère tous les yeux sur l’APG au moment de la première visite, aucune association n'a été trouvée entre les dommages sur le CV et l'HC. Cependant, si l'on considère seulement les yeux avec un glaucome plus avancé, une corrélation positive significative a été observée entre la DM et l'HC (B = 0,65, p = 0,003). Une HC inférieure a été associé à une valeur de DM de champ visuelle plus négative et donc plus de dommages liés au glaucome. Conclusions : Les prostaglandines topiques affectent les propriétés biomécaniques de la cornée. Ils réduisent l'hystérèse cornéenne, le facteur de résistance cornéen et l'épaisseur centrale de la cornée. On doit tenir compte de ces changements lors de l'évaluation des effets d’APG sur la PIO. Plus de recherche devrait être menées pour confirmer nos résultats. De plus, d’autres études pourraient être réalisées en utilisant des médicaments qui diminuent la PIO sans influencer les propriétés biomécaniques de la cornée ou à l'aide de tonomètre dynamique de Pascal ou similaire qui ne dépend pas des propriétés biomécaniques de la cornée. En ce qui concerne l'interaction entre les dommages de glaucome et l'hystérésis de la cornée, nous pouvons conclure qu' une HC inférieure a été associé à une valeur de DM de CV plus négative. Mots Clés glaucome - analogues de prostaglandines - hystérèse cornéenne – l’épaisseur de la cornée centrale - la pression intraoculaire - propriétés biomécaniques de la cornée.
Resumo:
L’analyse de la marche a émergé comme l’un des domaines médicaux le plus im- portants récemment. Les systèmes à base de marqueurs sont les méthodes les plus fa- vorisées par l’évaluation du mouvement humain et l’analyse de la marche, cependant, ces systèmes nécessitent des équipements et de l’expertise spécifiques et sont lourds, coûteux et difficiles à utiliser. De nombreuses approches récentes basées sur la vision par ordinateur ont été développées pour réduire le coût des systèmes de capture de mou- vement tout en assurant un résultat de haute précision. Dans cette thèse, nous présentons notre nouveau système d’analyse de la démarche à faible coût, qui est composé de deux caméras vidéo monoculaire placées sur le côté gauche et droit d’un tapis roulant. Chaque modèle 2D de la moitié du squelette humain est reconstruit à partir de chaque vue sur la base de la segmentation dynamique de la couleur, l’analyse de la marche est alors effectuée sur ces deux modèles. La validation avec l’état de l’art basée sur la vision du système de capture de mouvement (en utilisant le Microsoft Kinect) et la réalité du ter- rain (avec des marqueurs) a été faite pour démontrer la robustesse et l’efficacité de notre système. L’erreur moyenne de l’estimation du modèle de squelette humain par rapport à la réalité du terrain entre notre méthode vs Kinect est très prometteur: les joints des angles de cuisses (6,29◦ contre 9,68◦), jambes (7,68◦ contre 11,47◦), pieds (6,14◦ contre 13,63◦), la longueur de la foulée (6.14cm rapport de 13.63cm) sont meilleurs et plus stables que ceux de la Kinect, alors que le système peut maintenir une précision assez proche de la Kinect pour les bras (7,29◦ contre 6,12◦), les bras inférieurs (8,33◦ contre 8,04◦), et le torse (8,69◦contre 6,47◦). Basé sur le modèle de squelette obtenu par chaque méthode, nous avons réalisé une étude de symétrie sur différentes articulations (coude, genou et cheville) en utilisant chaque méthode sur trois sujets différents pour voir quelle méthode permet de distinguer plus efficacement la caractéristique symétrie / asymétrie de la marche. Dans notre test, notre système a un angle de genou au maximum de 8,97◦ et 13,86◦ pour des promenades normale et asymétrique respectivement, tandis que la Kinect a donné 10,58◦et 11,94◦. Par rapport à la réalité de terrain, 7,64◦et 14,34◦, notre système a montré une plus grande précision et pouvoir discriminant entre les deux cas.
Resumo:
La réflexion est considérée comme un élément significatif de la pédagogie et de la pratique médicales sans qu’il n’existe de consensus sur sa définition ou sur sa modélisation. Comme la réflexion prend concurremment plusieurs sens, elle est difficile à opérationnaliser. Une définition et un modèle standard sont requis afin d’améliorer le développement d’applications pratiques de la réflexion. Dans ce mémoire, nous identifions, explorons et analysons thématiquement les conceptualisations les plus influentes de la réflexion, et développons de nouveaux modèle et définition. La réflexion est définie comme le processus de s’engager (le « soi » (S)) dans des interactions attentives, critiques, exploratoires et itératives (ACEI) avec ses pensées et ses actions (PA), leurs cadres conceptuels sous-jacents (CC), en visant à les changer et en examinant le changement lui-même (VC). Notre modèle conceptuel comprend les cinq composantes internes de la réflexion et les éléments extrinsèques qui l’influencent.
Resumo:
Le foie est un organe vital ayant une capacité de régénération exceptionnelle et un rôle crucial dans le fonctionnement de l’organisme. L’évaluation du volume du foie est un outil important pouvant être utilisé comme marqueur biologique de sévérité de maladies hépatiques. La volumétrie du foie est indiquée avant les hépatectomies majeures, l’embolisation de la veine porte et la transplantation. La méthode la plus répandue sur la base d'examens de tomodensitométrie (TDM) et d'imagerie par résonance magnétique (IRM) consiste à délimiter le contour du foie sur plusieurs coupes consécutives, un processus appelé la «segmentation». Nous présentons la conception et la stratégie de validation pour une méthode de segmentation semi-automatisée développée à notre institution. Notre méthode représente une approche basée sur un modèle utilisant l’interpolation variationnelle de forme ainsi que l’optimisation de maillages de Laplace. La méthode a été conçue afin d’être compatible avec la TDM ainsi que l' IRM. Nous avons évalué la répétabilité, la fiabilité ainsi que l’efficacité de notre méthode semi-automatisée de segmentation avec deux études transversales conçues rétrospectivement. Les résultats de nos études de validation suggèrent que la méthode de segmentation confère une fiabilité et répétabilité comparables à la segmentation manuelle. De plus, cette méthode diminue de façon significative le temps d’interaction, la rendant ainsi adaptée à la pratique clinique courante. D’autres études pourraient incorporer la volumétrie afin de déterminer des marqueurs biologiques de maladie hépatique basés sur le volume tels que la présence de stéatose, de fer, ou encore la mesure de fibrose par unité de volume.
Resumo:
Objective To determine overall, test–retest and inter-rater reliability of posture indices among persons with idiopathic scoliosis. Design A reliability study using two raters and two test sessions. Setting Tertiary care paediatric centre. Participants Seventy participants aged between 10 and 20 years with different types of idiopathic scoliosis (Cobb angle 15 to 60°) were recruited from the scoliosis clinic. Main outcome measures Based on the XY co-ordinates of natural reference points (e.g. eyes) as well as markers placed on several anatomical landmarks, 32 angular and linear posture indices taken from digital photographs in the standing position were calculated from a specially developed software program. Generalisability theory served to estimate the reliability and standard error of measurement (SEM) for the overall, test–retest and inter-rater designs. Bland and Altman's method was also used to document agreement between sessions and raters. Results In the random design, dependability coefficients demonstrated a moderate level of reliability for six posture indices (ϕ = 0.51 to 0.72) and a good level of reliability for 26 posture indices out of 32 (ϕ ≥ 0.79). Error attributable to marker placement was negligible for most indices. Limits of agreement and SEM values were larger for shoulder protraction, trunk list, Q angle, cervical lordosis and scoliosis angles. The most reproducible indices were waist angles and knee valgus and varus. Conclusions Posture can be assessed in a global fashion from photographs in persons with idiopathic scoliosis. Despite the good reliability of marker placement, other studies are needed to minimise measurement errors in order to provide a suitable tool for monitoring change in posture over time.
Resumo:
In the present study made an attempt to analyse the structure, performance and growth of women industrial cooperatives in kannur district, Kerala. The study encompasses all women industrial cooperatives registered at the district industries center, kannur and that currently exist. The women industrial cooperatives are classified into two ie; group with network and another group without network. In Kannur there are 54 units working as women industrial cooperatives. One of the main problems the women cooperatives face is the lack of working capital followed marketing problem. The competition between cooperatives and private traders is very high. The variables examined to analyse the performance of women industrial cooperatives in Kannur showed that there exists inter unit differences in almost all the variables. The financial structure structure shows that the short term liquidity of women cooperatives in Kannur favour more the units which have political networks; but the long term financial coverage is seen to be highly geared in this group, not because of a decline is net worth but due to highly proportionate increase in financial liabilities in the form of borrowings. The encouragement given by the government through financial stake and other incentives has been the major factor in the formation and growth of women cooperatives. As a result both productivity and efficiency improves in the cooperatives. In short the present study helped to capture the impact, role and dynamics of networking in general and socio political network in particular in relation to intra and inter unit differences on the structure, growth and performance of women industrial cooperatives societies in Kannur district
Resumo:
Nonlinear dynamics has emerged into a prominent area of research in the past few Decades.Turbulence, Pattern formation,Multistability etc are some of the important areas of research in nonlinear dynamics apart from the study of chaos.Chaos refers to the complex evolution of a deterministic system, which is highly sensitive to initial conditions. The study of chaos theory started in the modern sense with the investigations of Edward Lorentz in mid 60's. Later developments in this subject provided systematic development of chaos theory as a science of deterministic but complex and unpredictable dynamical systems. This thesis deals with the effect of random fluctuations with its associated characteristic timescales on chaos and synchronization. Here we introduce the concept of noise, and two familiar types of noise are discussed. The classifications and representation of white and colored noise are introduced. Based on this we introduce the concept of randomness that we deal with as a variant of the familiar concept of noise. The dynamical systems introduced are the Rossler system, directly modulated semiconductor lasers and the Harmonic oscillator. The directly modulated semiconductor laser being not a much familiar dynamical system, we have included a detailed introduction to its relevance in Chaotic encryption based cryptography in communication. We show that the effect of a fluctuating parameter mismatch on synchronization is to destroy the synchronization. Further we show that the relation between synchronization error and timescales can be found empirically but there are also cases where this is not possible. Studies show that under the variation of the parameters, the system becomes chaotic, which appears to be the period doubling route to chaos.
Resumo:
The present study focused on the quality of rainwater at various land use locations and its variations on interaction with various domestic rainwater harvesting systems.Sampling sites were selected based upon the land use pattern of the locations and were classified as rural, urban, industrial and sub urban. Rainwater samples were collected from the south west monsoon of May 2007 to north east monsoon of October 2008, from four sampling sites namely Kothamangalam, Emakulam, Eloor and Kalamassery, in Ernakulam district of the State of Kerala, which characterized typical rural, urban, industrial and suburban locations respectively. Rain water samples at various stages of harvesting were also collected. The samples were analyzed according to standard procedures and their physico-chemical and microbiological parameters were determined. The variations of the chemical composition of the rainwater collected were studied using statistical methods. It was observed that 17.5%, 30%, 45.8% and 12.1% of rainwater samples collected at rural, urban, industrial and suburban locations respectively had pH less than 5.6, which is considered as the pH of cloud water at equilibrium with atmospheric CO,.Nearly 46% of the rainwater samples were in acidic range in the industrial location while it was only 17% in the rural location. Multivariate statistical analysls was done using Principal Component Analysis, and the sources that inf1uence the composition of rainwater at each locations were identified .which clearly indicated that the quality of rain water is site specific and represents the atmospheric characteristics of the free fall The quality of harvested rainwater showed significant variations at different stages of harvesting due to deposition of dust from the roof catchment surface, leaching of cement constituents etc. Except the micro biological quality, the harvested rainwater satisfied the Indian Standard guide lines for drinking water. Studies conducted on the leaching of cement constituents in water concluded that tanks made with ordinary portland cement and portland pozzolana cement could be safely used for storage of rain water.
Resumo:
This thesis presents in detail. the theoretical developments and calculations which are used for the simultaneous determination of thermal parameters, namely thermal diffusivity (a). thermal effusivity (e), thermal conductivity (K) and heat capacity (cr ) employing photopyroelectric technique. In our calculations. we have assumed that the pyroelectric detector is supported on a copper backing. so that there will be sufficient heat exchange between the heated pyroelectric detector and the backing so that the signal fluctuations are reduced to a minimum. Since the PPE signal depends on the properties of the detector that are also temperature dependent. a careful temperature calibration of the system need to be carried out. APPE cell has been fabricated for the measurements that can be used to measure the thermal properties of solid samples from ~ 90 K to ~ 350 K. The cell has been calibrated using standard samples and the accuracy of the technique is found to be of the order of± 1%.In this thesis, we have taken up work n photopyroelectric investigation of thermal parameters of ferroelectric crystals such as Glycine phosphite (NH3CH2COOH3P03), Triglycine sulfate and Thiourea as well as mixed valence perovskites samples such as Lead doped Lanthanum Manganate (Lal_xPb~Mn03) Calcium doped (Lal_xCaxMnOJ) and Nickel doped Lanthanum Stroncium Cobaltate (Lao~Sro5Ni,Col_x03).The three ferroelectric crystals are prepared by the slow evaporation technique and the mixed valence perovskites by solid state reaction technique.Mixed valence perovskites, with the general formula RI_xA~Mn03 (R = La. Nd or Pr and A = Ba, Ca, Sr or Pb) have been materials of intense experimental and theoretical studies over the past few years. These materials show . colossal magneloresis/ance' (CMR) in samples with 0.2 < x < 0.5 in such a doping region, resistivity exhibits a peak at T = T p' the metal - insulator transition temperature. The system exhibits metallic characteristics with d %T > Oabove Tp (wherep is the resistivity) and insulating characteristics with d % T < 0 above T p. Despite intensive investigations on the CMR phenomena and associated electrical properties. not much work has been done on the variation of thermal properties of these samples. We have been quite successful in finding out the nature of anomaly associated with thermal properties when the sample undergoes M-I transition.The ferroelectric crystal showing para-ferroelectric phase transitions - Glycine phosphite. Thiourea and Triglycine sulfate - are studied in detail in order to see how well the PPE technique enables one to measure the thermal parameters during phase transitions. It is seen that the phase transition gets clearly reflected in the variation of thermal parameters. The anisotropy in thermal transport along different crystallographic directions are explained in terms of the elastic anisotropy and lattice contribution to the thermal conductivity. Interesting new results have been obtained on the above samples and are presented in three different chapters of the thesis.In summary. we have carried investigations of the variations of the thermal parameters during phase transitions employing photopyroelectric technique. The results obtained on different systems are important not only in understanding the physics behind the transitions but also in establishing the potentiality of the PPE tool. The full potential of PPE technique for the investigation of optical and thermal properties of materials still remains to be taken advantage of by workers in this field.
Resumo:
Vibrio are important during hatchery rearing. aquaculture phase and post-harvest quality of shrimps. Vibrio spp are of concern to shrimp farmers and hatchery operators because certain species can cause Vibriosis. Vibrio species are of concern to humans because certain species cause serious diseases.With the progress in aquaculture, intensive systems used for shrimp aquaculture create an artificial environment that increases bacterial growth. To maintain the productivity of such an intensive aquaculture, high inputs of fish protein have to be employed for feeding together with high levels of water exchange and the massive use of antibiotics/ probiotics / chemicals. It seems that the combination of these conditions favours the proliferation of vibrios and enhances their virulence and disease prevalence. The risk of a microbial infection is high, mainly at larval stages. The effect and severity are related to Vibrio species and dose, water, feed, shrimp quality and aquaculture management.Consumption of seafood can occasionally result in food-bome illnesses due to the proliferation of indigenous pathogens like Vibrio.Of the l2 pathogenic Vibrio species, 8 species are known to be directly food associated. Strict quality guidelines have been laid by the importing nations, for the food products that enter their markets. The microbiological quality requirement for export of frozen shrimp products is that V.cholerae, V.parahaemolyticus and V. vulnificus should be absent in 25g of the processed shrimp (Export Inspection Council of India, 1995). The mere presence of these pathogenic Vibrios is sufficient for the rejection of the exported product.The export rejections cause serious economic loss to the shrimp industry and might harm the brand image of the shrimp products from the countiy.There is a need for an independent study on the incidence of different pathogenic vibrios in shrimp aquaculture and investigate their biochemical characteristics to have a better understanding about the growth and survival of these organisms in the shrimp aquaculture niche. PCR based methods (conventional PCR, duplex PCR, multiplex-PCR and Real Time PCR) for the detection of the pathogenic Vibrios is important for rapid post-harvest quality assessment. Studies on the genetic heterogeneity among the specific pathogenic vibrio species isolated from shrimp aquaculture system provide; valuable information on the extent of genetic diversity of the pathogenic vibrios, the shrimp aquaculture system.So the present study was undertaken to study the incidence of pathogenic Vibrio spp. in Penaeus monodon shrimp hatcheries and aquaculture farms, to carry out biochemical investigations of the pathogenic Vibrio spp isolated from P. monodon hatchery and. aquaculture environments, to assess the effect of salt (NaCl) on the growth and enzymatic activities of pathogenic Vibrio spp., to study the effect of preservatives, and chemicals on the growth of pathogenic Vibrio spp. and to employ polymerase chain reaction (PCR) methods for the detection of pathogenic V ibrio spp.Samples of water (n=7) and post-larvae (n=7) were obtained from seven Penaeus monodon hatcheries and samples of water (n=5), sediment (n=5) and shrimp (n=5) were obtained from five P. monodon aquaculture farms located on the East Coast of lndia. The microbiological examination of water, sediment, post-larvae and shrimp samples was carried out employing standard methods and by using standard media.The higher bacterial loads were obtained in pond sediments which can be attributed to the accumulation of organic matter at the pond bottom which stimulated bacterial growth.Shrimp head. (4.78 x 105 +/- 3.0 x 104 cfu/g) had relatively higher bacterial load when compared to shrimp muscle 2.7 x 105 +/- 1.95 x 104 cfu/g). ln shrimp hatchery samples, the post-larvae (2.2 x 106 +/- 1.9 x 106 cfu/g) had higher bacterial load than water (5.6 x 103 +/- 3890 cfu/ml).The mean E.coli counts were higher in aquaculture pond sediment (204+/-13 cfu/g) and pond water (124+/-88 cfu/ml). Relatively lower Escherichia coli counts were obtained from shrimp samples (12+/-11 to 16+/-16.7 cfu/g). The presence of E.coli in aquaculture environment might have been from the source water. E.coli was not detected in hatchery waters and post-larvae.