988 resultados para E(L) parameters
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
Cette thèse constitue à la fois un apport de nature clinique et technologique dans l’approche diagnostique du glaucome. Plus précisément, nous nous proposons d’étudier une nouvelle façon de détecter le glaucome par la mesure de l’asymétrie du rapport de la surface de l’anneau neurorétinien et de la surface de la papille ou du disque optique ou rim to disc area asymmetry ratio (RADAAR). Pour atteindre cet objectif, nous avons recours à une base de données composée d’une population subdivisée en 4 différents groupes de diagnostic (normal, glaucome possible, glaucome probable et glaucome définitif). Les mesures du RADAAR sont calculées de différentes façons à partir des paramètres stéréométriques de la tête du nerf optique des sujets, produits par la microscopie confocale à balayage laser (Heidelberg Retina Tomograph (HRT) (Heidelberg Engineering, Germany)). Nous procédons à une analyse de données grâce au logiciel SPSS où nous mettons en exergue la distribution du RADAAR dans les différentes populations, sa validité et son utilité dans le dépistage du glaucome. Nous enrôlons donc 523 sujets dans cette étude avec 82 sujets atteints de glaucome définitif. La moyenne d’âge est de 62 ans. Il y a plus de femmes que d’hommes et plus de Caucasiens que d’Africains Caribéens. Nous trouvons que la distribution de la mesure du RADAAR est différente des sujets d’un groupe de diagnostic à l’autre. En termes de performance, la sensibilité de la mesure du RADAAR est très basse c'est-à-dire que sa capacité de détecter la maladie est basse. En revanche la mesure du RADAAR est plus spécifique c'est-à-dire que sa capacité d’identifier les sujets exempts de la maladie est plus grande. Elle tendrait à être aussi plus performante chez les Africains Caribéens que chez les Caucasiens. De même, elle serait plus sensible chez les hommes que chez les femmes. La mesure du RADAAR est utile si on l’associe à une autre méthode de diagnostic comme l’analyse de Régression de Moorfields (MRA) incluse dans le logiciel du HRT3 spécialement lors de la détection du glaucome dans la population à haut risque. En définitive, nous déterminons que la mesure du RADAAR se veut un outil d’aide au diagnostic. Elle est particulièrement intéressante dans le contexte de dépistage de glaucome.
Resumo:
Cette thèse propose une analyse croisée du cinéma et du jeu vidéo sous un angle interdisciplinaire afin de montrer la réappropriation et le remédiatisation des structures narratives et formelles du jeu vidéo dans le cinéma d’effets visuels du tournant du XXIe siècle. Plus spécifiquement, la thèse porte sur l’analyse de trois figures majeures du jeu vidéo et de l’animation dans la trilogie Matrix (Larry et Andy Wachowski, 1999-2003), dans Avalon (Mamoru Oshii, 2001) et dans Kung-Fu Hustle (Stephen Chow, 2004). La première section de la thèse consiste en une mise en place théorique par la présentation de certains paramètres esthétiques du cinéma d’effets visuels et du jeu vidéo. Quelques réflexions préliminaires sur l’esthétique du cinéma d’effets visuels sont d’abord esquissées avant de présenter les principales relations transmédiales entre le cinéma et le jeu vidéo. Ensuite, c’est le cinéma transludique qui est défini alors que le terme découle de la synergie singulière entre le cinéma et le jeu vidéo. Puisque le cinéma transludique concerne spécifiquement la récupération de l’esthétique du jeu vidéo dans le cinéma contemporain, les prémisses d’une esthétique du jeu vidéo sont alors établies. Dans la deuxième section, ce sont les figures et sous-figures au cœur de cette réflexion qui sont développées, pour ensuite les appliquer aux films du corpus. La première figure à l’étude est celle de l’exploration, alors que l’analyse de la signification de cette figure dans la conception de jeu vidéo et dans les récits cinématographiques de science-fiction montre l’importance de la navigation comme expérience spatio-temporelle dans les univers virtuels. Ensuite, c’est l’utilisation récurrente de la figure vidéoludique du niveau (level) dans le cinéma hybride contemporain qui est soulignée, figure qui structure autant le récit que la forme représentationnelle des films transludiques. Enfin, la figure de la métamorphose, indissociable du cinéma d’animation, est étudiée afin de souligner l’importance de cette figure dans la création numérique et d’expliquer la transformation de l’image qui affecte le cinéma transludique, image qualifiée d’image-frontière.
Resumo:
Cette thèse de doctorat porte sur l’évolution de la qualité de l’emploi des travailleuses et des travailleurs québécois entre 1997 et 2007. À partir d’une nouvelle typologie, nous analysons les changements dans la qualité de l’emploi des femmes et des hommes et l’impact sur l’écart entre les genres. L’originalité de cette thèse est qu’elle permet de jeter un regard multidimensionnel sur la qualité de l’emploi en considérant quatre dimensions à la fois : la rémunération, la stabilité de l’emploi, la qualification et les heures de travail. Après avoir présenté notre problématique de recherche relative aux inégalités professionnelles entre les genres, l’étude fait une revue des écrits portant sur les principales théories en jeu et sur le concept de la qualité de l’emploi. Ensuite, le cadre conceptuel est présenté afin de situer notre contexte de recherche, les questions générales considérées, la pertinence d’une typologie et les principaux déterminants de la qualité de l’emploi. Le chapitre suivant est consacré à la démarche visant la création d’une nouvelle typologie de la qualité de l’emploi et celle relative au cadre d’analyse. Enfin, nous présentons une analyse des changements de la situation des hommes et des femmes dans les divers types d’emploi en tenant compte de la situation familiale, du niveau de scolarité des personnes et de certaines caractéristiques du marché du travail. Le constat global qui ressort de notre étude est qu’il y a eu une réduction appréciable de l’écart entre les genres au chapitre de la qualité de l’emploi (baisse générale de plus de 30 %). Notre recherche révèle que ce changement s’est surtout produit chez les personnes ayant une scolarité élevée, vivant en couple mais engagées dans des responsabilités familiales limitées. Une bonne partie des changements notés s’expliquent par l’amélioration notable de la qualité de l’emploi des femmes, plutôt que par une baisse de la qualité de l’emploi des hommes. Ces résultats montrent que la situation conjugale et la charge familiale de même que le niveau de scolarité sont des paramètres déterminants des changements observés.
Resumo:
Le cancer épithélial de l’ovaire est le cancer gynécologique le plus létal. La survie à 5 ans est de 30-40% chez les patientes atteintes d’une tumeur invasive(TOV), comparativement à 95% chez les patientes diagnostiquées pour une tumeur à faible potentiel de malignité (LMP). Au laboratoire, l’analyse de l’expression des gènes de la micropuce à ADN HuFL d’Affymetrix a révélé que Cks1 est un gène dont l’expression varie entre les tumeurs LMP et TOV. En effet, ce régulateur du cycle cellulaire est surexprimé dans les tumeurs TOV par rapport aux tumeurs LMP. Nous avons donc déplété Cks1 dans des lignées cellulaires tumorales invasives du cancer de l’ovaire dérivées au laboratoire, soit la TOV112D et la TOV1946, en utilisant des shRNAs sous le contrôle d’un répresseur inductible à la tétracycline. Puis, nous avons dérivé des clones stables inductibles à la tétracycline. Les résultats obtenus nous indiquent que la déplétion de Cks1 n’a pas d’effet sur la prolifération et la migration cellulaires, ni sur la formation de structures tridimensionnelles in vitro. Ainsi, nous pouvons conclure que Cks1 ne joue pas un rôle clé dans la progression tumorale par rapport aux paramètres testés. Or, des études supplémentaires seraient nécessaires pour expliquer les différences biologiques observées entre les deux types de tumeurs étudiées, et justifier cette variation observée de l’expression de Cks1.
Resumo:
L’hypertension artérielle et l’obésité sont deux composantes conjointement reliées du syndrome métabolique. Les récepteurs de l’ANP (GCA) et de l’oxyde nitrique (GCs) ont des propriétés diurétiques, natriurétiques, vasodilatatrices et sont liés au contrôle de la pression. Des études récentes ont démontré leur implication dans l’obésité. Hypothèse : Une différence génétique au niveau du gène GCA pourrait contribuer à des différences physiologiques. La composante lipidique et/ou sodique de la diète pourrait influencer la fonction rénale, cardiaque et les valeurs anthropométriques différemment chez les souches congéniques. Objectifs : (1) Déterminer l’effet de la composante lipidique et sodique des diètes; (2) Évaluer l’influence de GCA sur la réponse physiologique des souches congéniques; (3) Expliquer les mécanismes physiologiques procurant une réduction de la pression artérielle chez la souche SM9. Méthodologie : Des modèles congéniques du rat Dahl (DSS) hypertendu, nourri avec une diète riche en gras (HF) ou normale (NF), ont été utilisés pour démontrer l’impact d’un segment chromosomique d’origine normotendue. Résultats : La souche SM9 a une prise de poids plus importante que SM12 et DSS sur diète HF malgré un apport alimentaire équivalent. La souche SM9 présente également un ratio masse adipeuse/masse maigre plus élevé que SM12 et DSS. Nous n’avons observé aucune augmentation de la pression artérielle en réponse à la diète HF pour les 3 souches malgré une augmentation du dommage rénal pour les 3 souches. Le dommage rénal est plus important chez DSS que pour les 2 congéniques. La réponse diurétique à l’ANP est plus élevée chez SM9 et est influencée par le contenu en sel dand la diète. La perte glomérulaire plus importante chez le rat DSS semble compensée par une augmentation de la réponse à l’ANP par les glomérules résiduels. Il y a une corrélation entre l’activité de GCA en réponse à l’ANP, les niveaux d’ARNm et le nombre de répétition du dinucléotide TA dans son promoteur. Le rat DSS présente une hypertrophie cardiaque plus importante que les deux souches congénique et ceci n’est pas modifié par la diète HF. Conclusion : Nos études ont permis de mettre en évidence un effet génétique impliquant le segment chromosomique normotendu contenant GCA dans la réponse à une diète HF chez le rat DSS.
Resumo:
L'hétérogénéité de réponses dans un groupe de patients soumis à un même régime thérapeutique doit être réduite au cours d'un traitement ou d'un essai clinique. Deux approches sont habituellement utilisées pour atteindre cet objectif. L'une vise essentiellement à construire une observance active. Cette approche se veut interactive et fondée sur l'échange ``médecin-patient '', ``pharmacien-patient'' ou ``vétérinaire-éleveurs''. L'autre plutôt passive et basée sur les caractéristiques du médicament, vise à contrôler en amont cette irrégularité. L'objectif principal de cette thèse était de développer de nouvelles stratégies d'évaluation et de contrôle de l'impact de l'irrégularité de la prise du médicament sur l'issue thérapeutique. Plus spécifiquement, le premier volet de cette recherche consistait à proposer des algorithmes mathématiques permettant d'estimer efficacement l'effet des médicaments dans un contexte de variabilité interindividuelle de profils pharmacocinétiques (PK). Cette nouvelle méthode est fondée sur l'utilisation concommitante de données \textit{in vitro} et \textit{in vivo}. Il s'agit de quantifier l'efficience ( c-à-dire efficacité plus fluctuation de concentrations \textit{in vivo}) de chaque profil PK en incorporant dans les modèles actuels d'estimation de l'efficacité \textit{in vivo}, la fonction qui relie la concentration du médicament de façon \textit{in vitro} à l'effet pharmacodynamique. Comparativement aux approches traditionnelles, cette combinaison de fonction capte de manière explicite la fluctuation des concentrations plasmatiques \textit{in vivo} due à la fonction dynamique de prise médicamenteuse. De plus, elle soulève, à travers quelques exemples, des questions sur la pertinence de l'utilisation des indices statiques traditionnels ($C_{max}$, $AUC$, etc.) d'efficacité comme outil de contrôle de l'antibiorésistance. Le deuxième volet de ce travail de doctorat était d'estimer les meilleurs temps d'échantillonnage sanguin dans une thérapie collective initiée chez les porcs. Pour ce faire, nous avons développé un modèle du comportement alimentaire collectif qui a été par la suite couplé à un modèle classique PK. À l'aide de ce modèle combiné, il a été possible de générer un profil PK typique à chaque stratégie alimentaire particulière. Les données ainsi générées, ont été utilisées pour estimer les temps d'échantillonnage appropriés afin de réduire les incertitudes dues à l'irrégularité de la prise médicamenteuse dans l'estimation des paramètres PK et PD . Parmi les algorithmes proposés à cet effet, la méthode des médianes semble donner des temps d'échantillonnage convenables à la fois pour l'employé et pour les animaux. Enfin, le dernier volet du projet de recherche a consisté à proposer une approche rationnelle de caractérisation et de classification des médicaments selon leur capacité à tolérer des oublis sporadiques. Méthodologiquement, nous avons, à travers une analyse globale de sensibilité, quantifié la corrélation entre les paramètres PK/PD d'un médicament et l'effet d'irrégularité de la prise médicamenteuse. Cette approche a consisté à évaluer de façon concomitante l'influence de tous les paramètres PK/PD et à prendre en compte, par la même occasion, les relations complexes pouvant exister entre ces différents paramètres. Cette étude a été réalisée pour les inhibiteurs calciques qui sont des antihypertenseurs agissant selon un modèle indirect d'effet. En prenant en compte les valeurs des corrélations ainsi calculées, nous avons estimé et proposé un indice comparatif propre à chaque médicament. Cet indice est apte à caractériser et à classer les médicaments agissant par un même mécanisme pharmacodynamique en terme d'indulgence à des oublis de prises médicamenteuses. Il a été appliqué à quatre inhibiteurs calciques. Les résultats obtenus étaient en accord avec les données expérimentales, traduisant ainsi la pertinence et la robustesse de cette nouvelle approche. Les stratégies développées dans ce projet de doctorat sont essentiellement fondées sur l'analyse des relations complexes entre l'histoire de la prise médicamenteuse, la pharmacocinétique et la pharmacodynamique. De cette analyse, elles sont capables d'évaluer et de contrôler l'impact de l'irrégularité de la prise médicamenteuse avec une précision acceptable. De façon générale, les algorithmes qui sous-tendent ces démarches constitueront sans aucun doute, des outils efficients dans le suivi et le traitement des patients. En outre, ils contribueront à contrôler les effets néfastes de la non-observance au traitement par la mise au point de médicaments indulgents aux oublis
Resumo:
Placer une charge au niveau du membre inférieur est une approche sans fondement scientifique, utilisée par les cliniciens, pour renforcer certains muscles clés de la marche. Cette étude a déterminé les modifications du patron de marche lors de l’ajout d’une charge à la cheville parétique ou non parétique chez des personnes ayant une hémiparésie suite à un accident vasculaire cérébral et a comparé les résultats à ceux d’un groupe témoin. Il est supposé qu’une charge placée à la jambe parétique/non dominante (charge ipsilatérale) augmenterait les efforts (moments et puissance) à la hanche parétique/non dominante lors de l’oscillation et qu’une charge placée controlatéralement augmenterait les efforts lors de la phase d’appui principalement pour les abducteurs de hanche stabilisant le bassin dans le plan frontal. La marche avec et sans charge de cinq individus hémiparétiques chroniques et 5 personnes en santé a été analysée en laboratoire par l’enregistrement des forces de réaction du sol et des mouvements des membres inférieurs. Ces informations ont permis de calculer les paramètres temps-distance, les angles à la hanche parétique/non dominante et au tronc, les moments nets, les puissances et le travail mécanique à la hanche parétique/non dominante. Des tests statistiques non-paramétriques ont servi à déterminer l’effet de la condition, avec charge (ipsi- et controlatérale) ou sans charge et à comparer les résultats entre les deux groupes. L’ajout d’une charge n’a pas modifié la vitesse de marche des sujets. Les phases d’appui et d’oscillation étaient rendus plus symétriques par la charge, même si peu de différences apparaissaient dans le plan sagittal avec ou sans la charge. Dans le plan frontal, le moment abducteur de hanche des sujets hémiparétiques a diminué avec la charge controlatérale, tandis qu'il a augmenté chez les sujets en santé. L’utilisation d’une stratégie posturale ou dynamique au tronc pourrait expliquer la différence de l’effet de la charge sur le moment abducteur à la hanche. Au vu de ces résultats, il est nécessaire de poursuivre l’évaluation de cette approche de renforcement musculaire spécifique à la tâche avant d’en recommander son utilisation.
Resumo:
Réalisé en cotutellle avec Gaétan Bourgeois et avec la participation de Guy Boivin, d'Agriculture et Agroalimentaire Canada, du Centre de Recherche et Développement en Horticulture à Saint-Jean-sur-Richelieu, QC J3B 3E6, Canada
Resumo:
La spondylolyse et le spondylolisthésis sont une déformité bien connue dans le domaine de l’orthopédie. Par contre, il persiste des confusions et des débats sur différents aspects de cette pathologie incluant l’étiologie, l’histoire naturelle et le traitement. Récemment, deux études ont démontré l’influence significative de la morphologie du sacrum dans le spondylolisthésis par Inoue et al. et Whitesides et al.4,5 Ces trouvailles ont renouvelé l’intérêt dans l’évaluation radiologique de la balance sagittale de cette condition. L’objectif principal de ce travail est d’évaluer l’influence de la forme et l’orientation du sacrum chez les patients atteints de spondylolisthésis. Pour ce faire, nous avons construit une base de données de patients présentant un spondylolisthésis et d’un groupe contrôle. Par la suite les radiographies de ces sujets ont été analysées par un programme d’ordinateur afin de calculer tous les paramètres pertinents. Ce travail nous a tout d’abord permis de déterminer à partir des radiographies de 120 volontaires pédiatriques et plus de 130 patients pédiatriques atteints de la spondylolisthésis, les valeurs moyennes et la variation des paramètres angulaires qui influencent l’équilibre sagittal du rachis. Cette base de données est la première existante dans la population pédiatrique. Ces données seront d’une grande utilité pour le futur lors d’études concernant diverses conditions spinales. Nous avons remarqué une différence significative de la morphologie sacrée chez les sujets présentant le spondylolisthésis. Par ailleurs, l’étude de corrélation nous a également permis d’établir une forte relation entre le sacrum, le bassin et la colonne dans le profil sagittal. Finalement, ce travail a permis une meilleure compréhension globale de la posture sagittale chez les sujets normaux et chez les sujets atteints du spondylolisthésis qui pourra servir pour mieux analyser cette condition et pour ajuster les traitements selon l’analyse.
Resumo:
Ce mémoire est consacré à la production culturelle en contexte de convergence au Québec. Dans le premier chapitre, je démontre comment différents éléments en sont venus à façonner la production culturelle contemporaine québécoise et comment la convergence médiatique est susceptible d’orienter la production et la parution de textes culturels. J'y expose aussi les bases d'une approche de la circulation par le biais de laquelle je propose de construire théoriquement mon objet d'étude. Le deuxième chapitre est consacré à la démarche méthodologique qui a présidé ma recherche. J'y présente d'abord le terrain de l'analyse, soit la téléréalité Occupation Double, en tant que phénomène intertextuel dont j'étudie les diverses configurations sur et à travers les principales plates-formes de Quebecor. Je poursuis en décrivant la constitution du corpus de textes à l'étude ainsi que les principaux paramètres d'analyse inspirés de la théorie de la circulation et de la méthode intertextuelle privilégiée. Le troisième chapitre rend compte des résultats d’analyse, présentant deux circuits médiatiques m’ayant permis d’observer les possibilités d’émergence de personnages construits autour des concurrents de la téléréalité Occupation Double. J’initie par la suite une piste de réflexion sur la création de zones d’intimité performées par ces mêmes personnages. En conclusion, je fais un retour sur l’évolution de mes recherches et constats et propose une réflexion sur l’intimité performée et les genres possiblement pressentis pour l’endosser.
Resumo:
Thèse réalisée dans le cadre d'une cotutelle entre l'Université de Montréal et l'Université d'Auvergne en France
Resumo:
Cette étude cherche à clarifier les trajectoires de l’intégration des immigrants iraniens travaillant comme chauffeurs de taxi à Montréal. En effet, les conclusions de certaines études portant sur l’amélioration de l’insertion professionnelle des immigrants à moyen et à long terme étaient en opposition avec l’état actuel d’immigrants qualifiés travaillant toujours dans l’industrie du taxi après cinq, dix, quinze ans ou même plus après leur arrivée, bien que plusieurs avaient déjà une formation universitaire avant leur arrivé au Canada. Effectuée dans le cadre des études sur l’intégration des immigrants en général et en particulier au Canada et au Québec, cette recherche fait ressortir des résultats plus larges que les expériences de ce groupe après son arrivée dans le pays d’accueil en incluant les attentes et les motifs avant le départ. L’utilisation d’une démarche plutôt qualitative à partir des expériences et des trajectoires d’environ une quarantaine de chauffeurs de taxi travaillant dans une société de taxi montréalaise dont la majorité des travailleurs sont iraniens a permis de dépasser les difficultés liées à l’étude de ce groupe ainsi que d’en approfondir la connaissance. Cette étude se divise en deux parties. La première familiarise le lecteur avec l’histoire de l’immigration et celle des Iraniens au Canada ainsi qu’avec le cadre conceptuel et l’approche méthodologique de cette recherche. La deuxième partie, présentant les résultats, révèle le fait que plusieurs dans ce groupe d’immigrants n’ont pas eu accès aux droits de scolarité réduits offerts aux résidents québécois avant la régularisation de leur demande d’asile, ce qui a eu pour résultat de freiner leur grand désir de poursuivre des études au Canada. Ce blocage les a confinés dans des emplois de bas niveaux. Les cours peu avancés de français offerts aux immigrants n’ont pas pu les préparer à accéder aux bons emplois. Également, ce groupe a rejeté l’aide des agents d’emploi à cause des bas niveaux d’emplois que ceux-ci offraient. Alors que les périodes de chômage ont pu encourager certains à poursuivre leurs études, la discrimination après le 11 septembre 2001 a barré leur accès aux emplois qualifiés. La communauté iranienne n’a pas contribué à l’accès de ses membres aux emplois qualifiés à cause de son émergence récente au Canada. Ainsi, pour certains, le partenariat avec des compatriotes qu’ils connaissaient à peine et non experts dans la création d’entreprises, qui de plus ne se préoccupaient pas des exigences du métier, a abouti à leur fermeture. La comparaison entre les emplois déjà occupés et les avantages matériels et non matériels du taxi a mené ce groupe à recourir à ce métier. Pourtant, ses désavantages ont causé le départ non réfléchi de certains du Québec, mais ils sont revenus par la suite. Les traits culturels de ce groupe dans une société ethnique de taxi bien réglementée ont permis d’améliorer le fonctionnement de cette société. Enfin, malgré le désir de bon nombre de ces immigrants de changer d’emploi, l’analyse suggère que la probabilité reste, pour la majorité, peu élevée.
Resumo:
Nous présentons un modèle pour l’irradiance solaire spectrale entre 200 et 400 nm. Celui-ci est une extension d’un modèle d’irradiance solaire totale basé sur la simulation de la fragmentation et l’érosion des taches qui utilise, en entrée, les positions et aires des taches observées pour chaque pas de temps d’une journée. L’émergence des taches sur la face du Soleil opposée à la Terre est simulée par une injection stochastique. Le modèle simule ensuite leur désintégration, qui produit des taches plus petites et des facules. Par la suite, l’irradiance est calculée en sommant la contribution des taches, des facules et du Soleil inactif. Les paramètres libres du modèle sont ajustés en comparant les séquences temporelles produites avec les données provenant de divers satellites s’étalant sur trois cycles d’activité. Le modèle d’irradiance spectrale, quant à lui, a été obtenu en modifiant le calcul de la contribution des taches et des facules, ainsi que celle du Soleil inactif, afin de tenir compte de leur dépendance spectrale. Le flux de la photosphère inactive est interpolé sur un spectre synthétique non magnétisé, alors que le contraste des taches est obtenu en calculant le rapport du flux provenant d’un spectre synthétique représentatif des taches et de celui provenant du spectre représentatif du Soleil inactif. Le contraste des facules est quand à lui calculé avec une procédure simple d’inversion de corps noir. Cette dernière nécessite l’utilisation d’un profil de température des facules obtenu à l’aide de modèles d’atmosphère. Les données produites avec le modèle d’irradiance spectrale sont comparées aux observations de SOLSTICE sur UARS. L’accord étant peu satisfaisant, particulièrement concernant le niveau d’irradiance minimal ainsi que l’amplitude des variations, des corrections sont appliquées sur le flux du Soleil inactif, sur le profil de température des facules, ainsi qu’à la dépendance centre-bord du contraste des facules. Enfin, un profil de température des facules est reconstruit empiriquement en maximisant l’accord avec les observations grâce à un algorithme génétique. Il est utilisé afin de reconstruire les séquences temporelles d’irradiance jusqu’en 1874 à des longueurs d’ondes d’intérêt pour la chimie et la dynamique stratosphérique.
Resumo:
L’accident thromboembolique veineux, tel que la thrombose veineuse profonde (TVP) ou thrombophlébite des membres inférieurs, est une pathologie vasculaire caractérisée par la formation d’un caillot sanguin causant une obstruction partielle ou totale de la lumière sanguine. Les embolies pulmonaires sont une complication mortelle des TVP qui surviennent lorsque le caillot se détache, circule dans le sang et produit une obstruction de la ramification artérielle irriguant les poumons. La combinaison d’outils et de techniques d’imagerie cliniques tels que les règles de prédiction cliniques (signes et symptômes) et les tests sanguins (D-dimères) complémentés par un examen ultrasonographique veineux (test de compression, écho-Doppler), permet de diagnostiquer les premiers épisodes de TVP. Cependant, la performance de ces outils diagnostiques reste très faible pour la détection de TVP récurrentes. Afin de diriger le patient vers une thérapie optimale, la problématique n’est plus basée sur la détection de la thrombose mais plutôt sur l’évaluation de la maturité et de l’âge du thrombus, paramètres qui sont directement corrélées à ses propriétés mécaniques (e.g. élasticité, viscosité). L’élastographie dynamique (ED) a récemment été proposée comme une nouvelle modalité d’imagerie non-invasive capable de caractériser quantitativement les propriétés mécaniques de tissus. L’ED est basée sur l’analyse des paramètres acoustiques (i.e. vitesse, atténuation, pattern de distribution) d’ondes de cisaillement basses fréquences (10-7000 Hz) se propageant dans le milieu sondé. Ces ondes de cisaillement générées par vibration externe, ou par source interne à l’aide de la focalisation de faisceaux ultrasonores (force de radiation), sont mesurées par imagerie ultrasonore ultra-rapide ou par résonance magnétique. Une méthode basée sur l’ED adaptée à la caractérisation mécanique de thromboses veineuses permettrait de quantifier la sévérité de cette pathologie à des fins d’amélioration diagnostique. Cette thèse présente un ensemble de travaux reliés au développement et à la validation complète et rigoureuse d’une nouvelle technique d’imagerie non-invasive élastographique pour la mesure quantitative des propriétés mécaniques de thromboses veineuses. L’atteinte de cet objectif principal nécessite une première étape visant à améliorer les connaissances sur le comportement mécanique du caillot sanguin (sang coagulé) soumis à une sollicitation dynamique telle qu’en ED. Les modules de conservation (comportement élastique, G’) et de perte (comportement visqueux, G’’) en cisaillement de caillots sanguins porcins sont mesurés par ED lors de la cascade de coagulation (à 70 Hz), et après coagulation complète (entre 50 Hz et 160 Hz). Ces résultats constituent les toutes premières mesures du comportement dynamique de caillots sanguins dans une gamme fréquentielle aussi étendue. L’étape subséquente consiste à mettre en place un instrument innovant de référence (« gold standard »), appelé RheoSpectris, dédié à la mesure de la viscoélasticité hyper-fréquence (entre 10 Hz et 1000 Hz) des matériaux et biomatériaux. Cet outil est indispensable pour valider et calibrer toute nouvelle technique d’élastographie dynamique. Une étude comparative entre RheoSpectris et la rhéométrie classique est réalisée afin de valider des mesures faites sur différents matériaux (silicone, thermoplastique, biomatériaux, gel). L’excellente concordance entre les deux technologies permet de conclure que RheoSpectris est un instrument fiable pour la mesure mécanique à des fréquences difficilement accessibles par les outils actuels. Les bases théoriques d’une nouvelle modalité d’imagerie élastographique, nommée SWIRE (« shear wave induced resonance dynamic elastography »), sont présentées et validées sur des fantômes vasculaires. Cette approche permet de caractériser les propriétés mécaniques d’une inclusion confinée (e.g. caillot sanguin) à partir de sa résonance (amplification du déplacement) produite par la propagation d’ondes de cisaillement judicieusement orientées. SWIRE a également l’avantage d’amplifier l’amplitude de vibration à l’intérieur de l’hétérogénéité afin de faciliter sa détection et sa segmentation. Finalement, la méthode DVT-SWIRE (« Deep venous thrombosis – SWIRE ») est adaptée à la caractérisation de l’élasticité quantitative de thromboses veineuses pour une utilisation en clinique. Cette méthode exploite la première fréquence de résonance mesurée dans la thrombose lors de la propagation d’ondes de cisaillement planes (vibration d’une plaque externe) ou cylindriques (simulation de la force de radiation par génération supersonique). DVT-SWIRE est appliquée sur des fantômes simulant une TVP et les résultats sont comparés à ceux donnés par l’instrument de référence RheoSpectris. Cette méthode est également utilisée avec succès dans une étude ex vivo pour l’évaluation de l’élasticité de thromboses porcines explantées après avoir été induites in vivo par chirurgie.