953 resultados para Genealogical concordance
Resumo:
L'hétérogénéité de réponses dans un groupe de patients soumis à un même régime thérapeutique doit être réduite au cours d'un traitement ou d'un essai clinique. Deux approches sont habituellement utilisées pour atteindre cet objectif. L'une vise essentiellement à construire une observance active. Cette approche se veut interactive et fondée sur l'échange ``médecin-patient '', ``pharmacien-patient'' ou ``vétérinaire-éleveurs''. L'autre plutôt passive et basée sur les caractéristiques du médicament, vise à contrôler en amont cette irrégularité. L'objectif principal de cette thèse était de développer de nouvelles stratégies d'évaluation et de contrôle de l'impact de l'irrégularité de la prise du médicament sur l'issue thérapeutique. Plus spécifiquement, le premier volet de cette recherche consistait à proposer des algorithmes mathématiques permettant d'estimer efficacement l'effet des médicaments dans un contexte de variabilité interindividuelle de profils pharmacocinétiques (PK). Cette nouvelle méthode est fondée sur l'utilisation concommitante de données \textit{in vitro} et \textit{in vivo}. Il s'agit de quantifier l'efficience ( c-à-dire efficacité plus fluctuation de concentrations \textit{in vivo}) de chaque profil PK en incorporant dans les modèles actuels d'estimation de l'efficacité \textit{in vivo}, la fonction qui relie la concentration du médicament de façon \textit{in vitro} à l'effet pharmacodynamique. Comparativement aux approches traditionnelles, cette combinaison de fonction capte de manière explicite la fluctuation des concentrations plasmatiques \textit{in vivo} due à la fonction dynamique de prise médicamenteuse. De plus, elle soulève, à travers quelques exemples, des questions sur la pertinence de l'utilisation des indices statiques traditionnels ($C_{max}$, $AUC$, etc.) d'efficacité comme outil de contrôle de l'antibiorésistance. Le deuxième volet de ce travail de doctorat était d'estimer les meilleurs temps d'échantillonnage sanguin dans une thérapie collective initiée chez les porcs. Pour ce faire, nous avons développé un modèle du comportement alimentaire collectif qui a été par la suite couplé à un modèle classique PK. À l'aide de ce modèle combiné, il a été possible de générer un profil PK typique à chaque stratégie alimentaire particulière. Les données ainsi générées, ont été utilisées pour estimer les temps d'échantillonnage appropriés afin de réduire les incertitudes dues à l'irrégularité de la prise médicamenteuse dans l'estimation des paramètres PK et PD . Parmi les algorithmes proposés à cet effet, la méthode des médianes semble donner des temps d'échantillonnage convenables à la fois pour l'employé et pour les animaux. Enfin, le dernier volet du projet de recherche a consisté à proposer une approche rationnelle de caractérisation et de classification des médicaments selon leur capacité à tolérer des oublis sporadiques. Méthodologiquement, nous avons, à travers une analyse globale de sensibilité, quantifié la corrélation entre les paramètres PK/PD d'un médicament et l'effet d'irrégularité de la prise médicamenteuse. Cette approche a consisté à évaluer de façon concomitante l'influence de tous les paramètres PK/PD et à prendre en compte, par la même occasion, les relations complexes pouvant exister entre ces différents paramètres. Cette étude a été réalisée pour les inhibiteurs calciques qui sont des antihypertenseurs agissant selon un modèle indirect d'effet. En prenant en compte les valeurs des corrélations ainsi calculées, nous avons estimé et proposé un indice comparatif propre à chaque médicament. Cet indice est apte à caractériser et à classer les médicaments agissant par un même mécanisme pharmacodynamique en terme d'indulgence à des oublis de prises médicamenteuses. Il a été appliqué à quatre inhibiteurs calciques. Les résultats obtenus étaient en accord avec les données expérimentales, traduisant ainsi la pertinence et la robustesse de cette nouvelle approche. Les stratégies développées dans ce projet de doctorat sont essentiellement fondées sur l'analyse des relations complexes entre l'histoire de la prise médicamenteuse, la pharmacocinétique et la pharmacodynamique. De cette analyse, elles sont capables d'évaluer et de contrôler l'impact de l'irrégularité de la prise médicamenteuse avec une précision acceptable. De façon générale, les algorithmes qui sous-tendent ces démarches constitueront sans aucun doute, des outils efficients dans le suivi et le traitement des patients. En outre, ils contribueront à contrôler les effets néfastes de la non-observance au traitement par la mise au point de médicaments indulgents aux oublis
Resumo:
Cette thèse porte sur une classe d'algorithmes d'apprentissage appelés architectures profondes. Il existe des résultats qui indiquent que les représentations peu profondes et locales ne sont pas suffisantes pour la modélisation des fonctions comportant plusieurs facteurs de variation. Nous sommes particulièrement intéressés par ce genre de données car nous espérons qu'un agent intelligent sera en mesure d'apprendre à les modéliser automatiquement; l'hypothèse est que les architectures profondes sont mieux adaptées pour les modéliser. Les travaux de Hinton (2006) furent une véritable percée, car l'idée d'utiliser un algorithme d'apprentissage non-supervisé, les machines de Boltzmann restreintes, pour l'initialisation des poids d'un réseau de neurones supervisé a été cruciale pour entraîner l'architecture profonde la plus populaire, soit les réseaux de neurones artificiels avec des poids totalement connectés. Cette idée a été reprise et reproduite avec succès dans plusieurs contextes et avec une variété de modèles. Dans le cadre de cette thèse, nous considérons les architectures profondes comme des biais inductifs. Ces biais sont représentés non seulement par les modèles eux-mêmes, mais aussi par les méthodes d'entraînement qui sont souvent utilisés en conjonction avec ceux-ci. Nous désirons définir les raisons pour lesquelles cette classe de fonctions généralise bien, les situations auxquelles ces fonctions pourront être appliquées, ainsi que les descriptions qualitatives de telles fonctions. L'objectif de cette thèse est d'obtenir une meilleure compréhension du succès des architectures profondes. Dans le premier article, nous testons la concordance entre nos intuitions---que les réseaux profonds sont nécessaires pour mieux apprendre avec des données comportant plusieurs facteurs de variation---et les résultats empiriques. Le second article est une étude approfondie de la question: pourquoi l'apprentissage non-supervisé aide à mieux généraliser dans un réseau profond? Nous explorons et évaluons plusieurs hypothèses tentant d'élucider le fonctionnement de ces modèles. Finalement, le troisième article cherche à définir de façon qualitative les fonctions modélisées par un réseau profond. Ces visualisations facilitent l'interprétation des représentations et invariances modélisées par une architecture profonde.
Resumo:
Au regard des restrictions à l’incarcération introduites par l’adoption de la Loi sur le système de justice pénale pour les adolescents (LSJPA), au Centre jeunesse de Montréal - Institut universitaire (CJM-IU), s’est amorcée en 2005 la mise sur pied du programme de suivis intensifs différenciés (SID) dans la communauté. Notre stage de maitrise en intervention clinique avait comme objectifs : de participer à la mise en œuvre transversale du programme SID, de contribuer à son intégrité, de supporter les intervenants y étant associés ainsi que de bonifier le processus de référence de ce programme en développant un outil d’évaluation. Suite à cette expérience, il nous semblait nécessaire d’entreprendre une réflexion sur la situation d’implantation du programme SID, plus précisément de faire une évaluation de type formatif et constructif du niveau de concordance entre son modèle théorique et son application au quotidien ainsi que des obstacles rencontrés. Une méthodologie qualitative est apparue appropriée pour produire le matériel. Deux techniques ont été utilisées, l’observation participante sur le terrain et l’analyse du contenu de documents écrits (procès-verbaux rédigés après certains comités). Pour structurer l’ensemble du présent rapport de stage, nous avons retenu le concept de plan d’action d’un programme proposé par Chen, dont les six composantes servent de grille à l’évaluation et aident à avoir une vue globale de son implantation, ainsi que le modèle de changement de programme de la TCU (pour Texas Christian University), qui inclut les principaux stades de changement et les facteurs, aux niveaux individuel, organisationnel et du programme en soi, favorisant ou entravant la mise en œuvre d’innovations avec succès. À la lumière de notre analyse, nous considérons qu’il serait possible de surmonter ce qui gêne l’application du programme SID et qu’il ne serait pas obligatoire de faire des changements majeurs à sa théorie. Nous nous sommes permis de suggérer des ajustements qui pourraient être apportés au processus d’implantation de ce programme. En conclusion, nous estimons que la mise en œuvre du programme SID pourrait être réussie seulement si les conditions propices étaient réunies. Toutefois, selon nous, il y aura toujours certaines contraintes avec lesquelles il faudra composer.
Resumo:
Pour Albert Camus, la littérature était à la fois une activité essentielle à son bonheur et un objet de réflexion. Afin de saisir quelle conception de la littérature et quelle vision du rôle de l’écrivain se dégagent de son oeuvre, ce mémoire aborde dans un même mouvement ses deux principaux essais, Le Mythe de Sisyphe et L’Homme révolté, et une pièce de théâtre, Caligula. Notre premier chapitre consiste dans la recherche de ce qui, pour Camus, fait de la création artistique une activité privilégiée dans l’horizon de la pensée de l’absurde et de la révolte. Dans le deuxième chapitre, les différents commentaires émis par la critique à propos de Caligula seront examinés. La pièce, malgré l’opinion dominante, ne raconte pas l’histoire d’un empereur absurde qui se révolte contre son destin. L’importance du thème de la création littéraire dans cette pièce a également été grandement sous-estimée. Enfin, le troisième chapitre de ce mémoire présente notre propre analyse de la pièce. La confrontation de la fiction avec la théorie révèle une grande concordance entre les deux aspects de l’oeuvre de Camus. L’accord n’est cependant pas parfait, et l’étude des points de friction découverts permet d’apporter des éclaircissements sur un des points les plus obscurs des essais de Camus : l’éthique du créateur placé dans une situation où il doit choisir entre tuer et mourir.
Resumo:
Le neuroblastome (NB) représente 8% de tous les cancers pédiatriques et est caractérisé par sa grande hétérogénéité clinique. Afin d’évaluer son pronostic, plusieurs facteurs génétiques sont utilisés : amplification de MYCN, délétion 1p, gain 11q et gain 17q. Les buts de notre travail étaient d’abord de vérifier si l’hybridation in situ en fluorescence (FISH) permet une analyse complète de ces anomalies et ensuite, en utilisant une analyse globale du génome telle le polymorphisme nucléotidique simple (SNP), de vérifier la concordance avec les résultats de la FISH et le pronostic potentiel des anomalies du 14q, en particulier du gène AKT. Nous avons donc établi un panel de sondes pour la FISH qui a été appliqué sur 16 tumeurs non-fixées. Après isolation de l’ADN de 36 tumeurs, nous avons effectué une analyse génotypique par SNP utilisant les puces « Affymetrix Genome-Wide Human SNP Array 6.0 » contenant 945,826 sondes non polymorphiques et 906,000 sondes polymorphiques. Nos résultats ont démontré que la FISH permet l’évaluation complète des anomalies génétiques importantes du NB et que les anomalies déséquilibrées sont détectées très précisément par SNP. Les anomalies du 14q tendent à être associées avec des facteurs cliniques comme le grade et l’évolution, contrairement aux anomalies d’AKT. L’analyse du 14q a révélé trois gènes d’intérêt, MAX, BCL11B et GPHN, qui devraient être analysés sur un plus grand échantillon. Ainsi, l’étude par FISH semble adaptée pour détecter les anomalies génétiques classiques du NB, alors que celles retrouvées en 14q représentent de potentielles cibles thérapeutiques pour cette tumeur.
Resumo:
Au cours des dernières années, il a été démontré que la façon dont la douleur est communiquée, par l’entremise de comportements de douleur, est associée à l’incapacité auto-rapportée et à la trajectoire de chronicité des individus souffrant de douleur persistante. Cependant, très peu de recherches ont investigué le lien entre la perception de la douleur dans le couple et la trajectoire de chronicité des individus souffrant de douleur persistante. Dans le cadre de cette thèse, trois études ont été réalisées afin de mieux comprendre les facteurs impliqués dans la communication de la douleur au sein de couples dont l’un des partenaires souffrait de douleur persistante. Une première étude a été réalisée afin de valider une version francophone du « Pain Disability Index (PDI) », un questionnaire développé pour évaluer l’incapacité reliée à la douleur persistante. Comme attendu, les résultats indiquent que cette version du PDI reproduit la structure factorielle de la version originale du PDI et présente une bonne fidélité et validité. Une autre étude a été réalisée auprès de couples dont l’un des partenaires souffre de douleur persistante afin d’évaluer les corrélats de la justesse empathique, d’explorer la relation entre la justesse empathique reliée à la douleur et différentes variables associées à l’adaptation du patient et du conjoint et enfin d’explorer la relation entre la justesse empathique reliée à la douleur et des variables relationnelles. Les résultats suggèrent que de façon générale, la justesse empathique est associée à des résultats négatifs chez les patients souffrant de douleur persistante et ne semble pas un corrélat important de la satisfaction conjugale. Enfin, une dernière étude a été réalisée afin de comprendre l’influence de la concordance des pensées catastrophiques dans le couple sur l’émission de comportements de douleur et sur la perception de la douleur et de l’incapacité lors d’une tâche physiquement exigeante. Il a été trouvé que les participants ayant un niveau élevé de pensées catastrophiques, qui étaient en relation avec un conjoint ayant un faible niveau de pensées catastrophiques, ont émis plus de comportements de douleur que tous les autres groupes. Ces résultats suggèrent que les personnes souffrant de douleur persistante ayant un niveau élevé de pensées catastrophiques peuvent avoir besoin d’augmenter le « volume » de la communication de la douleur afin de compenser pour la tendance des conjoints ayant un faible niveau de pensées catastrophiques à sous-estimer les signaux de douleur. En résumé, puisque l’émission de comportements de douleur est associée à l’incapacité auto-rapportée des individus souffrant de douleur persistante, il est possible que toute situation qui contribue à une augmentation des comportements de douleur, contribuera également à un niveau d’incapacité plus élevé. Ainsi, d’un point de vue clinique, les interventions qui amènent le conjoint à faire de l’écoute active et à valider la personne souffrante, pourraient réduire la présence des comportements de douleur et potentiellement avoir un impact sur le niveau d’incapacité des personnes souffrant de douleur persistante.
Resumo:
L’augmentation de la dépense énergétique (DE) par une augmentation de l'activité physique (AP) participe au maintien et à l’amélioration de la santé. La mesure à grande échelle de la DE totale (DET) en général et AP en particulier se heurte à des difficultés pratiques de recueil de données, de validité et aux coûts. Bien que dans la littérature de nombreux accéléromètres permettent d’estimer la DET, il y a encore des limites quant à la mesure de l’intensité de l’AP, élément qui influence l’état de la balance énergétique et le bénéfice pour la santé de l’AP. De plus, peu de comparaisons entre les différents accéléromètres sont disponibles. La présente étude avait pour but d’évaluer la capacité de deux accéléromètres (Actical et Sensewear Armband) pour estimer la DET en comparaison avec la technique de l’eau doublement marquée (EDM) ; d’évaluer la concordance entre les accéléromètres dans la mesure de la DE au repos (DER) en comparaison avec la technique de la calorimétrie indirecte (CI) et d’évaluer la DE liée à l’AP en comparaison avec la technique de la CI. Les résultats montrent qu’il y a une très bonne corrélation entre la CI et les accéléromètres dans la mesure de la DER(r > 0.80, p<0.001) et une bonne corrélation entre les accéléromètres et l’EDM dans la mesure de la DET(r>0.75, p<0.001). Pour la mesure de l’intensité de l’AP, l’ACT est plus précis (r=0.80, p<0.001)) que le SWA à la marche, le SWA est meilleur(r=0.80, p<0.001) au vélo. Cette étude permet d’affirmer que le SWA et l’ACT sont des alternatives valables pour mesurer la DE.
Resumo:
La divulgation dans les médias de masse des atrocités commises dans les camps de concentration nazis et soviétiques n’a pas ébranlé que les milieux politiques. Plusieurs chercheurs en sciences humaines (on pense immédiatement à l’expérience de Milgram) et en philosophie ont cherché à comprendre le fonctionnement des régimes totalitaires. Hannah Arendt, en plus d’avoir contribué à la popularisation du concept de totalitarisme, a été l’une des premières à en rechercher les origines. Bien qu’il n’ait jamais abordé de front la question du nazisme et du stalinisme, Michel Foucault a, lui aussi, ancré ses recherches sur le pouvoir dans une démarche généalogique. Plus précisément, c’est lors de ses travaux sur la gouvernementalité et la biopolitique qu’il a étudié les rationalités gouvernementales, leurs technologies et leur effet subjectivant. Les objectifs de cette recherche sont de présenter un exposé critique de ces deux approches des phénomènes de pouvoir en Occident et de produire une étude comparative du phénomène totalitaire.
Resumo:
Selon les lignes directrices de traitement de l'asthme pendant la grossesse, les beta2-agonistes inhalés à courte durée d’action (SABA) sont les médicaments de choix pour tous les types d’asthme [intermittent, persistant, léger, modéré et sévère] comme médicaments de secours rapide et dans la gestion des exacerbations aiguës. D’autre part, les beta2-agonistes inhalés à longue durée d’action (LABA) sont utilisés pour les patients atteints d'asthme persistant, modéré à sévère, qui ne sont pas entièrement contrôlés par des corticostéroïdes inhalés seuls. Malgré que plusieurs études aient examinées l’association entre les LABA, les SABA et les malformations congénitales chez les nouveau-nés, les risques réels restent controversés en raison de résultats contradictoires et des difficultés inhérentes à la réalisation d'études épidémiologiques chez les femmes enceintes. L'objectif de cette étude était d'évaluer l'association entre l'exposition maternelle aux SABA et LABA pendant le premier trimestre de grossesse et le risque de malformations congénitales chez les nouveau-nés de femmes asthmatiques. Une cohorte de grossesses de femmes asthmatiques ayant accouchées entre le 1er janvier 1990 et le 31 décembre 2002 a été formée en croisant trois banques de données administratives de la province de Québec (Canada). Les issues principales de cette étude étaient les malformations congénitales majeures de touts types. Comme issues secondaires, nous avons considéré des malformations congénitales spécifiques. L'exposition principale était la prise de SABA et/ou de LABA au cours du premier trimestre de grossesse. L'exposition secondaire étudiée était le nombre moyen de doses de SABA par semaine au cours du premier trimestre. L'association entre les malformations congénitales et la prise de SABA et de LABA a été évaluée en utilisant des modèles d’équations généralisées (GEE) en ajustant pour plusieurs variables confondantes reliées à la grossesse, l’asthme de la mère et la santé de la mère et du foetus. Dans la cohorte formée de 13 117 grossesses de femmes asthmatiques, nous avons identifié 1 242 enfants avec une malformation congénitale (9,5%), dont 762 avaient une malformation majeure (5,8%). Cinquante-cinq pour cent des femmes ont utilisé des SABA et 1,3% ont utilisé des LABA pendant le premier trimestre. Les rapports de cotes ajustées (IC à 95%) pour une malformation congénitale associée à l'utilisation des SABA et des LABA étaient de 1,0 (0,9-1,2) et 1,3 (0,9-2,1), respectivement. Les résultats correspondants étaient de 0,9 (0,8-1,1) et 1,3 (0,8-2,4) pour les malformations majeures. Concernant le nombre moyen de doses de SABA par semaine, les rapports de cotes ajustées (IC à 95%) pour une malformation congénitale était de 1.1 (1.0-1.3), 1.1 (0.9-1.3), et 0.9 (0.7-1.1) pour les doses >0-3, >3-10, and >10 respectivement. Les résultats correspondants étaient de 1.0 (0.8-1.2), 0.8 (0.7-1.1), et 0.7 (0.5-1.0) pour les malformations majeures. D'autre part, des rapports de cotes (IC à 95%) statistiquement significatifs ont été observés pour les malformations cardiaques (2.4 (1.1-5.1)), les malformations d'organes génitaux (6.8 (2.6-18.1)), et d'autres malformations congénitales (3.4 (1.4 à 8.5)), en association avec les LABA pris pendant le premier trimestre. Notre étude procure des données rassurantes pour l’utilisation des SABA pendant la grossesse, ce qui est en accord avec les lignes directrices de traitement de l’asthme. Toutefois, d'autres études sont nécessaires avant de pouvoir se prononcer sur l’innocuité des LABA pendant la grossesse.
Resumo:
L’accident thromboembolique veineux, tel que la thrombose veineuse profonde (TVP) ou thrombophlébite des membres inférieurs, est une pathologie vasculaire caractérisée par la formation d’un caillot sanguin causant une obstruction partielle ou totale de la lumière sanguine. Les embolies pulmonaires sont une complication mortelle des TVP qui surviennent lorsque le caillot se détache, circule dans le sang et produit une obstruction de la ramification artérielle irriguant les poumons. La combinaison d’outils et de techniques d’imagerie cliniques tels que les règles de prédiction cliniques (signes et symptômes) et les tests sanguins (D-dimères) complémentés par un examen ultrasonographique veineux (test de compression, écho-Doppler), permet de diagnostiquer les premiers épisodes de TVP. Cependant, la performance de ces outils diagnostiques reste très faible pour la détection de TVP récurrentes. Afin de diriger le patient vers une thérapie optimale, la problématique n’est plus basée sur la détection de la thrombose mais plutôt sur l’évaluation de la maturité et de l’âge du thrombus, paramètres qui sont directement corrélées à ses propriétés mécaniques (e.g. élasticité, viscosité). L’élastographie dynamique (ED) a récemment été proposée comme une nouvelle modalité d’imagerie non-invasive capable de caractériser quantitativement les propriétés mécaniques de tissus. L’ED est basée sur l’analyse des paramètres acoustiques (i.e. vitesse, atténuation, pattern de distribution) d’ondes de cisaillement basses fréquences (10-7000 Hz) se propageant dans le milieu sondé. Ces ondes de cisaillement générées par vibration externe, ou par source interne à l’aide de la focalisation de faisceaux ultrasonores (force de radiation), sont mesurées par imagerie ultrasonore ultra-rapide ou par résonance magnétique. Une méthode basée sur l’ED adaptée à la caractérisation mécanique de thromboses veineuses permettrait de quantifier la sévérité de cette pathologie à des fins d’amélioration diagnostique. Cette thèse présente un ensemble de travaux reliés au développement et à la validation complète et rigoureuse d’une nouvelle technique d’imagerie non-invasive élastographique pour la mesure quantitative des propriétés mécaniques de thromboses veineuses. L’atteinte de cet objectif principal nécessite une première étape visant à améliorer les connaissances sur le comportement mécanique du caillot sanguin (sang coagulé) soumis à une sollicitation dynamique telle qu’en ED. Les modules de conservation (comportement élastique, G’) et de perte (comportement visqueux, G’’) en cisaillement de caillots sanguins porcins sont mesurés par ED lors de la cascade de coagulation (à 70 Hz), et après coagulation complète (entre 50 Hz et 160 Hz). Ces résultats constituent les toutes premières mesures du comportement dynamique de caillots sanguins dans une gamme fréquentielle aussi étendue. L’étape subséquente consiste à mettre en place un instrument innovant de référence (« gold standard »), appelé RheoSpectris, dédié à la mesure de la viscoélasticité hyper-fréquence (entre 10 Hz et 1000 Hz) des matériaux et biomatériaux. Cet outil est indispensable pour valider et calibrer toute nouvelle technique d’élastographie dynamique. Une étude comparative entre RheoSpectris et la rhéométrie classique est réalisée afin de valider des mesures faites sur différents matériaux (silicone, thermoplastique, biomatériaux, gel). L’excellente concordance entre les deux technologies permet de conclure que RheoSpectris est un instrument fiable pour la mesure mécanique à des fréquences difficilement accessibles par les outils actuels. Les bases théoriques d’une nouvelle modalité d’imagerie élastographique, nommée SWIRE (« shear wave induced resonance dynamic elastography »), sont présentées et validées sur des fantômes vasculaires. Cette approche permet de caractériser les propriétés mécaniques d’une inclusion confinée (e.g. caillot sanguin) à partir de sa résonance (amplification du déplacement) produite par la propagation d’ondes de cisaillement judicieusement orientées. SWIRE a également l’avantage d’amplifier l’amplitude de vibration à l’intérieur de l’hétérogénéité afin de faciliter sa détection et sa segmentation. Finalement, la méthode DVT-SWIRE (« Deep venous thrombosis – SWIRE ») est adaptée à la caractérisation de l’élasticité quantitative de thromboses veineuses pour une utilisation en clinique. Cette méthode exploite la première fréquence de résonance mesurée dans la thrombose lors de la propagation d’ondes de cisaillement planes (vibration d’une plaque externe) ou cylindriques (simulation de la force de radiation par génération supersonique). DVT-SWIRE est appliquée sur des fantômes simulant une TVP et les résultats sont comparés à ceux donnés par l’instrument de référence RheoSpectris. Cette méthode est également utilisée avec succès dans une étude ex vivo pour l’évaluation de l’élasticité de thromboses porcines explantées après avoir été induites in vivo par chirurgie.
Resumo:
Le présent travail est encadré dans le domaine de la linguistique appliquée de l'espagnol comme langue étrangère (ELE), et plus spécifiquement dans l'enseignement du genre grammatical en ELE. Notre intérêt en tant que enseignants c’est de pouvoir établir une méthode fiable selon les critères du Plan curricular de l'Institut Cervantès et la technique du consciousness-raising, ainsi que élaborer des activités destinées à l'enseignement du genre grammatical dans la classe d’ELE. L'enseignement d'ELE au Québec suit les mêmes méthodes qu'en Europe. En ce qui concerne l'enseignement du genre grammatical, les études consultées ratifient le manque d'instruction pertinente à propos du genre grammatical, ainsi que la difficulté dans la concordance même dans des niveaux avancés. Cependant, l'analyse de manuels d'ELE utilisés dans les diverses institutions de Montréal permet de conclure que ceux-ci ne suivent pas les règles établies par le Plan curricular en ce qui concerne l'enseignement du genre. Pour vérifier ces faits un travail de champ a été mis en place avec 84 étudiants et étudiantes de six institutions de Montréal pendant deux mois et deux semaines. Les résultats de la recherche et l'analyse d'erreurs nous montrent qu’il y a des problèmes avec le genre grammatical chez les étudiants de niveau intermédiaire et que les erreurs ne disparaissent pas avec les activités de renfort créées. Il est donc nécessaire d’adopter une méthode plus appropriée à l'apprentissage du genre grammatical dans une classe d’ELE et la présence du professeur pour la présenter. En effet, l'exécution d'activités créées n'est pas suffisant, car bien que les résultats montrent un léger progrès dans le cas du groupe B, ou d’expérience, en comparaison au groupe A, ou de control, on a constaté qu’une instruction formelle aurait entrainé un meilleur et plus complet apprentissage du genre grammatical dans le cas de nos étudiants; de là la nécessité d'établir une méthode fiable pour son enseignement.
Resumo:
Les ataxies héréditaires sont des désordres neuro-dégénératifs qui causent une ataxie comme symptôme primaire; soit une perte de coordination des mouvements volontaires, un sens de l’équilibre déficient et un trouble à la motricité. Elles forment un groupe cliniquement et génétiquement hétérogène. De ce fait, de nombreuses classifications existent basées sur différents critères. Cependant, le consensus actuel veut que le mode de transmission soit le critère premier de classement. On estime la prévalence mondiale des ataxies héréditaires à 6/100 000 bien que ce nombre diffère entre régions. C’est le cas du Québec où la structuration historique du bassin génétique canadien-français a menée à des effets fondateurs régionaux, ce qui a eu comme conséquence de hausser la prévalence régionale de certaines maladies. L’Acadie est également une région canadienne-française avec des effets fondateurs où le taux de prévalence de certaines ataxies héréditaires est plus élevé. Nous avons recruté huit familles canadiennes-françaises provenant de diverses régions du Québec, ayant un lien génétique plus ou moins rapproché avec l’Acadie, dans lesquelles nous avons observé dix cas d’une forme d’ataxie spastique autosomique récessive relativement légère qui a résistée à l’analyse des gènes d’ataxies connues. Nous avons émis l’hypothèse d’être en présence d’une nouvelle forme d’ataxie à effet fondateur pour la population canadienne-française. Afin d’identifier le gène muté responsable de cette ataxie, un criblage génomique des marqueurs SNP pour les individus recrutés fut effectué. Puis, par cartographie de l’homozygotie, une région de 2,5 Mb fut identifiée sur le chromosome 17p13 dans une famille. Une revue de la littérature nous a permis de constater, qu’en 2007, quatre familles nord-africaines atteintes d’une ataxie dénommée SPAX2 qui présentaient des manifestations cliniques semblables avaient déjà été liées au même locus sur le chromosome 17. Afin de supporter notre hypothèse que les malades étaient porteurs de deux copies de la même mutation fondatrice et de cartographier plus finement notre région d’intérêt, les haplotypes de tous les atteints de nos huit familles furent étudiés. Nous avons établie qu’un intervalle de 200 kb (70 SNP), soit du marqueur rs9900036 à rs7222052, était partagé par tous nos participants. Les deux gènes les plus prometteurs des 18 se trouvant dans la région furent séquencés. Aucune mutation ne fut trouvée dans les gènes SLC25A11 et KIF1C. Par la suite, une analyse de liaison génétique stricte avec calcul de LOD score nous a permis d’exclure ce locus de 200 kb comme étant celui porteur du gène muté causant l’ataxie dans la majorité de nos familles. Nous avons donc conclus que malgré qu’une famille soit homozygote pour une grande région du chromosome 17, l’absence d’Informativité des marqueurs SNP dans la région de 200 kb fut responsable de l’apparent partage d’haplotype homozygote. Le travail reste donc entier afin d’identifier les mutations géniques responsables de la présentation ataxique chez nos participants de souche acadienne.
Resumo:
Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal