988 resultados para E(L) parameters
Resumo:
Malgré l’abondance d’information concernant la dentisterie esthétique, les évidences scientifiques à son sujet sont rarissimes. Ainsi, cette recherche a pour premier but d’accroître ces évidences en faisant la lumière sur les paramètres esthétiques et leur influence auprès de l’appréciation générale du sourire, tel que perçu par des sujets non-experts. Une invitation à répondre à un questionnaire autoadministré anonyme a été envoyée à la communauté de l’Université de Montréal par courrier électronique. 467 personnes ont accepté de répondre au questionnaire, toutefois seulement 263 ont terminé l'opération. L’analyse des données démontre que le seul critère esthétique objectif ayant une influence statistiquement significative sur l’appréciation générale est « l’arrangement des dents » (p = .028). Les dents versées diminuent significativement l’attrait général par rapport à des dents droites (p = .012) ou chevauchées (p = .009). Par contre, en corrélant ces données avec les convictions des sujets, « l’angulation de la médiane dentaire supérieure » ainsi que « l’inclinaison du plan incisif » présentent aussi des différences statistiquement significatives. « L’état d’usure des dents » et leur « position » sont les éléments, parmi le vocabulaire suggéré, les plus importants pour l’attrait du sourire aux yeux des patients. Avec les limitations de cette étude, on peut conclure que (1) « l’arrangement des dents », « l’angulation de la médiane dentaire supérieure » et « l’inclinaison du plan incisif » influencent de manière statistiquement significative l’appréciation générale du sourire. (2) Parmi les critères objectifs étudiés, « l'arrangement des dents » a la plus forte influence sur l’appréciation générale d’un sourire. (3) Une corrélation statistiquement significative entre les deux séquences d’évaluation et la faible variance intrasujet indiquent que l’appréciation générale d’un sourire est une action réflexe basée, entre autres, sur des paramètres morphologiques. Application pratique : Les résultats de cette étude insinuent que les traitements visant à corriger l’alignement, l’usure des dents et ceux visant à blanchir les dents d’un individu sont susceptibles d’augmenter l’attrait de son sourire tel que perçu par des sujets non-experts.
Resumo:
L’accessibilité aux soins de santé est une priorité de nombreux gouvernements à travers le monde. En Haïti, les gouvernements se sont succédés et ont tenté à travers les années des interventions dont les résultats ne sont souvent pas satisfaisants. Le programme d’assistance médicale cubain, actuellement appliqué dans le pays, est en œuvre dans plus d’une vingtaine de pays en développement, mais il existe très peu d’évaluations indépendantes qui permettent de l’appréhender. Cet ouvrage se donne pour objectif de vérifier le bien fondé de cette intervention en tenant compte du contexte, d’établir la plausibilité en fonction des moyens du pays et finalement, de proposer des solutions qui améliorent la situation. Pour répondre à ces objectifs, l’étude de cas a été adoptée comme stratégie de recherche. Cette technique permet de mieux analyser le contexte, et de comprendre ses effets sur le programme. Des entrevues semi-structurées ont été réalisées pour permettre de faire les analyses stratégique et logique nécessaires pour atteindre les objectifs sus-cités. Les entrevues ont visé successivement la compréhension du modèle théorique, la détermination des problèmes pertinents auxquels fait le système de santé, les causes de la difficulté de rétention des professionnels et finale l’analyse du modèle. L’évaluation a révélé que l’accessibilité aux soins de santé est complexe et qu’un grand nombre de facteurs l’influencent. En Haïti, ces facteurs ne sont pas différents de ceux recensés dans la littérature. Mais la composante géographique associée à l’aspect administratif du système de santé en général constituent les éléments qui auraient l’impact le plus important sur l’accessibilité du système de santé. Vu les conditions actuelles, la modernisation de la gestion représente l’avenue à privilégier en attendant que les moyens permettent d’agir sur les autres facteurs. La rétention des professionnels de santé est un facteur essentiel de l’accessibilité aux soins de santé. Pour être efficace, les mécanismes de rétention utilisés doivent s’accompagner de mesures comme l’amélioration des conditions de travail, ainsi qu’un salaire compétitif. Les conditions de vie dans le milieu rural haïtien ne peuvent en rien être comparées à celles des pays développés. On ne peut espérer les mêmes résultats avec les programmes de rétention utilisés par cette intervention. Tenant compte du contexte socioéconomique et du tableau épidémiologique haïtien, il serait peut-être plus efficient de créer de nouveaux corps de métier. Ces derniers devraient être en mesure de régler les problèmes de santé simples, et occasionneraient des coûts moins importants. Ce serait à court terme et même à moyen terme une solution viable dans le contexte actuel. Le programme actuel s’il semble respecter les données probantes en matière d’accessibilité aux soins, néglige d’incorporer les paramètres spécifiques au milieu haïtien, nécessaires à l’atteinte de ses objectifs. La politisation excessive est aussi un facteur qui à terme pourrait conduire à l’échec de ce programme. Si à court terme le programme parvient à augmenter le nombre de professionnels de santé dans le pays, il est peu probable que cela dure. Les moyens précaires du pays ne lui permettent pas de se payer des professionnels hautement qualifiés dans les milieux sous desservis. L’intervention pour réussir doit intégrer les caractéristiques particulières du milieu et mettre plus d’accent sur la gestion du système.
Resumo:
Les nanoparticules polymériques biodégradable (NPs) sont apparues ces dernières années comme des systèmes prometteurs pour le ciblage et la libération contrôlée de médicaments. La première partie de cette étude visait à développer des NPs biodégradables préparées à partir de copolymères fonctionnalisés de l’acide lactique (poly (D,L)lactide ou PLA). Les polymères ont été étudiés comme systèmes de libération de médicaments dans le but d'améliorer les performances des NPs de PLA conventionnelles. L'effet de la fonctionnalisation du PLA par insertion de groupements chimiques dans la chaîne du polymère sur les propriétés physico-chimiques des NPs a été étudié. En outre, l'effet de l'architecture du polymère (mode d'organisation des chaînes de polymère dans le copolymère obtenu) sur divers aspects de l’administration de médicament a également été étudié. Pour atteindre ces objectifs, divers copolymères à base de PLA ont été synthétisés. Plus précisément il s’agit de 1) copolymères du poly (éthylène glycol) (PEG) greffées sur la chaîne de PLA à 2.5% et 7% mol. / mol. de monomères d'acide lactique (PEG2.5%-g-PLA et PEG7%-g-PLA, respectivement), 2) des groupements d’acide palmitique greffés sur le squelette de PLA à une densité de greffage de 2,5% (palmitique acid2.5%-g-PLA), 3) de copolymère « multibloc » de PLA et de PEG, (PLA-PEG-PLA)n. Dans la deuxième partie, l'effet des différentes densités de greffage sur les propriétés des NPs de PEG-g-PLA (propriétés physico-chimiques et biologiques) a été étudié pour déterminer la densité optimale de greffage PEG nécessaire pour développer la furtivité (« long circulating NPs »). Enfin, les copolymères de PLA fonctionnalisé avec du PEG ayant montré les résultats les plus satisfaisants en regard des divers aspects d’administration de médicaments, (tels que taille et de distribution de taille, charge de surface, chargement de drogue, libération contrôlée de médicaments) ont été sélectionnés pour l'encapsulation de l'itraconazole (ITZ). Le but est dans ce cas d’améliorer sa solubilité dans l'eau, sa biodisponibilité et donc son activité antifongique. Les NPs ont d'abord été préparées à partir de copolymères fonctionnalisés de PLA, puis ensuite analysés pour leurs paramètres physico-chimiques majeurs tels que l'efficacité d'encapsulation, la taille et distribution de taille, la charge de surface, les propriétés thermiques, la chimie de surface, le pourcentage de poly (alcool vinylique) (PVA) adsorbé à la surface, et le profil de libération de médicament. L'analyse de la chimie de surface par la spectroscopie de photoélectrons rayon X (XPS) et la microscopie à force atomique (AFM) ont été utilisés pour étudier l'organisation des chaînes de copolymère dans la formulation des NPs. De manière générale, les copolymères de PLA fonctionnalisés avec le PEG ont montré une amélioration du comportement de libération de médicaments en termes de taille et distribution de taille étroite, d’amélioration de l'efficacité de chargement, de diminution de l'adsorption des protéines plasmatiques sur leurs surfaces, de diminution de l’internalisation par les cellules de type macrophages, et enfin une meilleure activité antifongique des NPs chargées avec ITZ. En ce qui concerne l'analyse de la chimie de surface, l'imagerie de phase en AFM et les résultats de l’XPS ont montré la possibilité de la présence de davantage de chaînes de PEG à la surface des NPs faites de PEG-g-PLA que de NPS faites à partie de (PLA-PEG-PLA)n. Nos résultats démontrent que les propriétés des NPs peuvent être modifiées à la fois par le choix approprié de la composition en polymère mais aussi par l'architecture de ceux-ci. Les résultats suggèrent également que les copolymères de PEG-g-PLA pourraient être utilisés efficacement pour préparer des transporteurs nanométriques améliorant les propriétés de certains médicaments,notamment la solubilité, la stabilité et la biodisponibilité.
Resumo:
Cette étude aborde le thème de l’utilisation des modèles de mélange de lois pour analyser des données de comportements et d’habiletés cognitives mesurées à plusieurs moments au cours du développement des enfants. L’estimation des mélanges de lois multinormales en utilisant l’algorithme EM est expliquée en détail. Cet algorithme simplifie beaucoup les calculs, car il permet d’estimer les paramètres de chaque groupe séparément, permettant ainsi de modéliser plus facilement la covariance des observations à travers le temps. Ce dernier point est souvent mis de côté dans les analyses de mélanges. Cette étude porte sur les conséquences d’une mauvaise spécification de la covariance sur l’estimation du nombre de groupes formant un mélange. La conséquence principale est la surestimation du nombre de groupes, c’est-à-dire qu’on estime des groupes qui n’existent pas. En particulier, l’hypothèse d’indépendance des observations à travers le temps lorsque ces dernières étaient corrélées résultait en l’estimation de plusieurs groupes qui n’existaient pas. Cette surestimation du nombre de groupes entraîne aussi une surparamétrisation, c’est-à-dire qu’on utilise plus de paramètres qu’il n’est nécessaire pour modéliser les données. Finalement, des modèles de mélanges ont été estimés sur des données de comportements et d’habiletés cognitives. Nous avons estimé les mélanges en supposant d’abord une structure de covariance puis l’indépendance. On se rend compte que dans la plupart des cas l’ajout d’une structure de covariance a pour conséquence d’estimer moins de groupes et les résultats sont plus simples et plus clairs à interpréter.
Resumo:
Les médecins et autres écrivains de l’Ancien Régime qui ont décrié les effets néfastes de la mise en nourrice l’ont tenue en partie responsable de la forte mortalité infantile. L’habitude de confier l’allaitement et les soins de l’enfant à une femme autre que sa mère est présente dès le XIIIe siècle dans les milieux aristocratiques français. Bourgeois et autres citadins feront de même dès le XVIIe siècle. Transportée outre-Atlantique par les colons du Canada, la mise en nourrice a laissé de nombreuses traces dans les sources paroissiales, notariales et judiciaires de la colonie. Les démographes et historiens se sont penchés sur le phénomène dans le cadre d’études portant sur différents groupes sociaux (noblesse, « bourgeoisie ») ou populations (ville de Québec et l’ensemble du Canada sous le Régime français). Ils ont privilégié l’étude des nourrissons et de leurs familles. Ce mémoire s’intéresse à la mise en nourrice à Montréal et aux alentours des années 1680 aux années 1760. Il s’emploie d’abord à suivre le parcours de 436 nourrissons, décédés pour la plupart en bas âge : milieu socio-professionnel des parents connus, profil démographique, lieu d’accueil par une nourrice. Il étudie ensuite 245 femmes qui ont pris soin de ces enfants : leur parcours migratoire, les différents paramètres socio-démographiques de leur existence. Plusieurs de nos observations correspondent à celles d’autres chercheurs ou, du moins, ne les contredisent pas, tout en offrant une perspective montréalaise sur le phénomène. Au chapitre de l’inédit, citons l’élargissement, au XVIIIe siècle, de la gamme des professions exercées par les pères de nourrissons, ainsi que l’existence de plus d’un profil de nourrice, du point de vue de l’âge (et de la capacité à allaiter), de l’état matrimonial et du degré de vulnérabilité.
Resumo:
Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.
Resumo:
Il est généralement accepté que les lits vasculaires oculaires auraient la faculté d’autoréguler leur apport sanguin afin de contrebalancer les variations de pression de perfusion oculaire (PPO). Plusieurs études ont tenté d’évaluer ce mécanisme en mesurant les effets d’une variation de la PPO - induite par un exercice ou par une augmentation de la pression intra-oculaire (PIO) à l’aide d’une suction sclérale - sur le débit sanguin oculaire (DSO). Or, les méthodes de mesure du DSO utilisées jusqu'à maintenant présentent de nombreux désavantages et limites, ce qui rend difficile leur usage clinique. De récents développements dans le domaine des investigations non-invasives des paramètres sanguins oculaires proposent un modèle capable de mesurer en temps réel la concentration en oxygène, un autre paramètre important du métabolisme rétinien. Dans le cadre de la présente étude, ce nouveau modèle est utilisé afin de mesurer les effets d’un effort physique dynamique sur la concentration d’oxygène dans les capillaires de la tête du nerf optique (COTNO) de sujets jeunes et en santé. Six jeunes hommes non fumeurs ont participé à l’étude. L’effort physique dynamique consistait en une séance de bicyclette stationnaire de 15 minutes menant à une augmentation du pouls à 160 battements par minute. La COTNO était mesurée avant et immédiatement après la séance d’exercice. La pression artérielle (PA) et la PIO étaient mesurées ponctuellement alors que le pouls et la saturation sanguine en oxygène (SpO2) au niveau digital étaient mesurés tout au long de l’expérience. L’effort physique a entrainé une réduction de la PIO chez tous les sujets, une réduction de la COTNO chez tous les sujets sauf un tandis que la SpO2 demeura constante chez tous les sujets. Une corrélation quadratique entre les variations de la PIO et de la COTNO a pu être notée. Ces résultats suggèrent une corrélation directe entre les variations de la COTNO et celles de la PPO et de la PA. Les résultats de la présente étude suggèrent que les variations de la COTNO chez un sujet en santé suite à un effort physique dynamique pourraient représenter sa capacité à compenser un tel effort. De plus, les changements métaboliques sanguins induits par l’effort physique dynamique pourraient représenter une cause commune aux variations de la PIO et de la COTNO.
Resumo:
Le facteur le plus important de pronostic de l'asthme professionnel (AP) est la durée des symptômes avant le retrait de lʼexposition à lʼagent causant lʼAP. La qualité de vie réduite, la détresse psychologique et les maladies psychiatriques sont des conditions souvent associées à l'AP. Notre objectif était d'identifier les facteurs, incluant le statut socioéconomique, qui ont une influence sur lʼintervalle de temps nécessaire pour présenter une requête à une agence médicolégale à la suite de lʼapparition de symptômes dʼasthme et de confirmer qu'un tel délai est associé à un moins bon pronostic respiratoire et à des coûts directs plus élevés. En outre, nous avons examiné la relation entre les variables cliniques et socio-économiques dʼune part et leur influence sur les facteurs psychologiques et économiques dʼautre part chez des travailleurs atteints d'AP. Ensuite, nous avons voulu évaluer si les individus souffrant de détresse psychologique (DP) et de morbidité psychiatrique pourraient être identifiés en utilisant un instrument mesurant la qualité de vie (QV). Lʼétude a été effectuée auprès dʼindividus ayant déposé des demandes d'indemnisation pourʼAP auprès du Commission de la sécurité et de la santé du travail du Québec (CSST). Les données ont été recueillies au moment de la réévaluation, soit environ deux ans et demi après le diagnostic. Outre la collecte des marqueurs cliniques de l'asthme, les individus ont été soumis à une évaluation générale de leur histoire sociodémographique et médicale, à une brève entrevue psychiatrique (évaluation des soins primaires des troubles mentaux, PRIME-MD) et à un ensemble de questionnaires, incluant le Questionnaire sur la qualité de vie - AQLQ(S), le Questionnaire respiratoire de St. George (SGRQ) et le Psychiatric Symptom Index (PSI).Soixante personnes ont été incluses dans l'étude. Etre plus âgé, avoir un revenu supérieur à 30 000$ CA etêtre atteint dʼAP dû à un allergène de haut poids moléculaire ont une association positive avec le nombre dʼannées dʼexposition avec symptômes avant le retrait. Au cours de la période de suivi, le nombre dʼannées dʼexposition avec symptômes était plus grand chez les individus ayant une hyperréactivité bronchique persistante. Par ailleurs, la présence de symptômes au poste de travail pendant moins d'un an est associée à une réduction des coûts directs. Les paramètres de QV et de DP avaient des corrélations modérées avec les marqueurs cliniques de lʼAP. Les plus fortes associations avec ces variables ont pu être observées dans les cas de la sévérité de l'asthme, des statuts dʼemploi et matrimonial, du revenu et de la durée de la période de travail avec l'employeur. Un seuil de 5,1 au niveau de la sous-échelle de la fonction émotionnelle de lʼAQLQ(S) sʼest avéré avoir la meilleure valeur discriminante pour distinguer les individus avec ou sans détresse psychiatrique cliniquement significative selon le PSI. Nous avons été en mesure d'identifier les variables socio-économiques associées à un intervalle plus long dʼexposition professionnelle en présence de symptômes dʼasthme. De même, une plus longue période d'exposition a été associée à un moins bon pronostic de la maladie et à des coûts de compensation plus élevés. Ces résultats s'avèrent utiles pour la surveillance de lʼAP qui pourrait cibler ces sous-groupes d'individus. La QV et la PS sont fréquemment réduites chez les individus atteints d'AP qui perçoivent une compensation. Elles sont associées à des marqueurs cliniques de lʼasthme et à des facteurs socio-économiques. En outre, nos résultats suggèrent que le questionnaire de lʼAQLQ(S) peut être utilisé pour identifier les individus avec un niveau de détresse psychologique potentiellement significatif.
Resumo:
L’érosion éolienne est un problème environnemental parmi les plus sévères dans les régions arides, semi-arides et les régions sèches sub-humides de la planète. L’érosion des sols accélérée par le vent provoque des dommages à la fois localement et régionalement. Sur le plan local, elle cause la baisse des nutriments par la mobilisation des particules les plus fines et de la matière organique. Cette mobilisation est une des causes de perte de fertilité des sols avec comme conséquence, une chute de la productivité agricole et une réduction de la profondeur de la partie arable. Sur le plan régional, les tempêtes de poussières soulevées par le vent ont un impact non négligeable sur la santé des populations, et la déposition des particules affecte les équipements hydrauliques tels que les canaux à ciel ouvert ainsi que les infrastructures notamment de transport. Dans les régions où les sols sont fréquemment soumis à l’érosion éolienne, les besoins pour des études qui visent à caractériser spatialement les sols selon leur degré de vulnérabilité sont grands. On n’a qu’à penser aux autorités administratives qui doivent décider des mesures à prendre pour préserver et conserver les potentialités agropédologiques des sols, souvent avec des ressources financières modestes mises à leur disposition. Or, dans certaines de ces régions, comme notre territoire d’étude, la région de Thiès au Sénégal, ces études font défaut. En effet, les quelques études effectuées dans cette région ou dans des contextes géographiques similaires ont un caractère plutôt local et les approches suivies (modèles de pertes des sols) nécessitent un nombre substantiel de données pour saisir la variabilité spatiale de la dynamique des facteurs qui interviennent dans le processus de l’érosion éolienne. La disponibilité de ces données est particulièrement problématique dans les pays en voie de développement, à cause de la pauvreté en infrastructures et des problèmes de ressources pour le monitoring continu des variables environnementales. L’approche mise de l’avant dans cette recherche vise à combler cette lacune en recourant principalement à l’imagerie satellitale, et plus particulièrement celle provenant des satellites Landsat-5 et Landsat-7. Les images Landsat couvrent la presque totalité de la zone optique du spectre exploitable par télédétection (visible, proche infrarouge, infrarouge moyen et thermique) à des résolutions relativement fines (quelques dizaines de mètres). Elles permettant ainsi d’étudier la distribution spatiale des niveaux de vulnérabilité des sols avec un niveau de détails beaucoup plus fin que celui obtenu avec des images souvent utilisées dans des études environnementales telles que AVHRR de la série de satellites NOAA (résolution kilométrique). De plus, l’archive complet des images Landsat-5 et Landsat-7 couvrant une période de plus de 20 ans est aujourd’hui facilement accessible. Parmi les paramètres utilisés dans les modèles d’érosion éolienne, nous avons identifiés ceux qui sont estimables par l’imagerie satellitale soit directement (exemple, fraction du couvert végétal) soit indirectement (exemple, caractérisation des sols par leur niveau d’érodabilité). En exploitant aussi le peu de données disponibles dans la région (données climatiques, carte morphopédologique) nous avons élaboré une base de données décrivant l’état des lieux dans la période de 1988 à 2002 et ce, selon les deux saisons caractéristiques de la région : la saison des pluies et la saison sèche. Ces données par date d’acquisition des images Landsat utilisées ont été considérées comme des intrants (critères) dans un modèle empirique que nous avons élaboré en modulant l’impact de chacun des critères (poids et scores). À l’aide de ce modèle, nous avons créé des cartes montrant les degrés de vulnérabilité dans la région à l’étude, et ce par date d’acquisition des images Landsat. Suite à une série de tests pour valider la cohérence interne du modèle, nous avons analysé nos cartes afin de conclure sur la dynamique du processus pendant la période d’étude. Nos principales conclusions sont les suivantes : 1) le modèle élaboré montre une bonne cohérence interne et est sensible aux variations spatiotemporelles des facteurs pris en considération 2); tel qu’attendu, parmi les facteurs utilisés pour expliquer la vulnérabilité des sols, la végétation vivante et l’érodabilité sont les plus importants ; 3) ces deux facteurs présentent une variation importante intra et inter-saisonnière de sorte qu’il est difficile de dégager des tendances à long terme bien que certaines parties du territoire (Nord et Est) aient des indices de vulnérabilité forts, peu importe la saison ; 4) l’analyse diachronique des cartes des indices de vulnérabilité confirme le caractère saisonnier des niveaux de vulnérabilité dans la mesure où les superficies occupées par les faibles niveaux de vulnérabilité augmentent en saison des pluies, donc lorsque l’humidité surfacique et la végétation active notamment sont importantes, et décroissent en saison sèche ; 5) la susceptibilité, c’est-à-dire l’impact du vent sur la vulnérabilité est d’autant plus forte que la vitesse du vent est élevée et que la vulnérabilité est forte. Sur les zones où la vulnérabilité est faible, les vitesses de vent élevées ont moins d’impact. Dans notre étude, nous avons aussi inclus une analyse comparative entre les facteurs extraits des images Landsat et celles des images hyperspectrales du satellite expérimental HYPERION. Bien que la résolution spatiale de ces images soit similaire à celle de Landsat, les résultats obtenus à partir des images HYPERION révèlent un niveau de détail supérieur grâce à la résolution spectrale de ce capteur permettant de mieux choisir les bandes spectrales qui réagissent le plus avec le facteur étudié. Cette étude comparative démontre que dans un futur rapproché, l’amélioration de l’accessibilité à ce type d’images permettra de raffiner davantage le calcul de l’indice de vulnérabilité par notre modèle. En attendant cette possibilité, on peut de contenter de l’imagerie Landsat qui offre un support d’informations permettant tout de même d’évaluer le niveau de fragilisation des sols par l’action du vent et par la dynamique des caractéristiques des facteurs telles que la couverture végétale aussi bien vivante que sénescente.
Resumo:
Cette étude porte sur l’écologie saisonnière des parasitoïdes des œufs de l’arpenteuse de la pruche (Lepidoptera : Geometridae), un important défoliateur du Québec (Canada). Premièrement, nous décrivons les patrons saisonniers de parasitisme d’hôtes sentinelles par Telenomus coloradensis, T. droozi, T. flavotibiae (Hymenoptera : Scelionidae), et Trichogramma spp., dans la région du Bas-Saint-Laurent. Telenomus flavotibiae et Trichogramma spp. parasitent rarement les œufs de l’arpenteuse de la pruche alors que T. coloradensis et T. droozi sont très abondants au printemps. En laboratoire, la convenance des hôtes pour T. coloradensis diminue rapidement avec leur développement embryonnaire au printemps, affectant négativement les niveaux de parasitisme, ainsi que la survie, la taille, le temps de développement et la longévité de la progéniture. Telenomus coloradensis et T. droozi sont actifs très tôt en saison, alors que les températures sont froides (4°C) pour profiter du développement embryonnaire peu avancé de l’hôte. À partir de paramètres empiriques, nous estimons que la progéniture de T. coloradensis issue du parasitisme printanier émerge au milieu de l’été, alors que l’hôte est totalement absent de l’environnement forestier. La nouvelle génération de femelles serait donc susceptible d’entrer précocement en diapause reproductive. D’ailleurs, nos résultats de laboratoire démontrent qu’une période de privation d’hôtes affecte négativement l’activité parasitaire de T. coloradensis. Ce phénomène pourrait expliquer les niveaux très faibles de parasitisme des œufs de l’arpenteuse de la pruche à l’automne. Étonnamment toutefois, les hôtes en début de diapause (à l’automne) sont de meilleure qualité énergétique que les hôtes en post-diapause (au printemps). Alors que des études précédentes ont démontré que T. coloradensis peut survivre à l’hiver en tant qu’immature à l’intérieur des hôtes, nos résultats indiquent que ce sont principalement les femelles fertilisés qui passent l’hiver en diapause reproductive, avec un point de surfusion automnal moyen de -30,6°C.
Resumo:
Ce mémoire consiste en une reproduction et une extension du Modèle Confluent de l’Agression Sexuelle (MCAS) de Neil Malamuth. Le MCAS est un des seuls modèles développementaux de l’agression sexuelle d’hommes sur des femmes adultes à avoir été validé empiriquement. Dans ce modèle, deux trajectoires (la promiscuité sexuelle et la masculinité hostile) convergent et mènent à l’agression sexuelle. Pour la première fois, ce modèle est appliqué séparément à quatre paramètres de la carrière criminelle sexuelle (gravité, fréquence, précocité, spécialisation) au sein d’un échantillon d’agresseurs sexuels de femmes adultes judiciarisés (n=180). Les quatre modèles qui en résultent s’ajustent bien aux données. Tous les liens postulés dans le MCAS sont validés dans ce mémoire, à une exception. En effet, contrairement aux résultats obtenus par Malamuth, une seule des deux trajectoires du modèle présente un lien significatif avec chacun des paramètres de la carrière criminelle sexuelle à l’étude. La trajectoire de la promiscuité sexuelle est liée à la précocité et à la non-spécialisation (lien négatif avec la spécialisation) alors que la trajectoire de la masculinité hostile est associée à la gravité et à la fréquence. Ces résultats sont congruents avec une approche typologique des agresseurs sexuels de femmes adultes. Chacune des deux trajectoires du MCAS englobe des caractéristiques spécifiques à certains types de violeurs (opportunistes, colériques, sadiques) qui, pour leur part, se distinguent quant aux paramètres de leur carrière criminelle sexuelle.
Resumo:
Ce mémoire étudie l'algorithme d'amplification de l'amplitude et ses applications dans le domaine de test de propriété. On utilise l'amplification de l'amplitude pour proposer le plus efficace algorithme quantique à ce jour qui teste la linéarité de fonctions booléennes et on généralise notre nouvel algorithme pour tester si une fonction entre deux groupes abéliens finis est un homomorphisme. Le meilleur algorithme quantique connu qui teste la symétrie de fonctions booléennes est aussi amélioré et l'on utilise ce nouvel algorithme pour tester la quasi-symétrie de fonctions booléennes. Par la suite, on approfondit l'étude du nombre de requêtes à la boîte noire que fait l'algorithme d'amplification de l'amplitude pour amplitude initiale inconnue. Une description rigoureuse de la variable aléatoire représentant ce nombre est présentée, suivie du résultat précédemment connue de la borne supérieure sur l'espérance. Suivent de nouveaux résultats sur la variance de cette variable. Il est notamment montré que, dans le cas général, la variance est infinie, mais nous montrons aussi que, pour un choix approprié de paramètres, elle devient bornée supérieurement.
Resumo:
Le travail a été réalisé en collaboration avec le laboratoire de mécanique acoustique de Marseille, France. Les simulations ont été menées avec les langages Matlab et C. Ce projet s'inscrit dans le champ de recherche dénommé caractérisation tissulaire par ultrasons.
Resumo:
L'un des principaux défis de l'interprétation radiographique réside dans la compréhension de l’anatomie radiographique, laquelle est intrinsèquement liée à la disposition tridimensionnelle des structures anatomiques et à l’impact du positionnement du tube radiogène vis-à-vis de ces structures lors de l'acquisition de l'image. Traditionnellement, des radiographies obtenues selon des projections standard sont employées pour enseigner l'anatomie radiographique en médecine vétérinaire. La tomodensitométrie − ou communément appelée CT (Computed Tomography) − partage plusieurs des caractéristiques de la radiographie en ce qui a trait à la génération des images. À l’aide d'un plug-in spécialement développé (ORS Visual ©), la matrice contenant les images CT est déformée pour reproduire les effets géométriques propres au positionnement du tube et du détecteur vis-à-vis du patient radiographié, tout particulièrement les effets de magnification et de distorsion. Afin d'évaluer le rendu des images simulées, différentes régions corporelles ont été imagées au CT chez deux chiens, un chat et un cheval, avant d'être radiographiées suivant des protocoles d'examens standards. Pour valider le potentiel éducatif des simulations, dix radiologistes certifiés ont comparé à l'aveugle neuf séries d'images radiographiques simulées aux séries radiographiques standard. Plusieurs critères ont été évalués, soient le grade de visualisation des marqueurs anatomiques, le réalisme et la qualité radiographique des images, le positionnement du patient et le potentiel éducatif de celles-ci pour différents niveaux de formation vétérinaire. Les résultats généraux indiquent que les images radiographiques simulées à partir de ce modèle sont suffisamment représentatives de la réalité pour être employées dans l’enseignement de l’anatomie radiographique en médecine vétérinaire.
Resumo:
L’expérience subjective accompagnant un mouvement se construit a posteriori en intégrant différentes sources d’informations qui s’inter-influencent à différents moments tant avant qu’après le mouvement. Cette expérience subjective est interprétée par un modèle d’attribution bayésien afin de créer une expérience d’agentivité et de contrôle sur les mouvements de son propre corps. Afin de déterminer l’apport de l’interaction entre les paramètres considérés par le modèle d’attribution et d’investiguer la présence de disparités inter-individuelles dans la formation de l’expérience subjective du mouvement, une série de 90 pulsations simples de stimulation magnétique transcrânienne (SMT) sur le cortex moteur primaire (M1) suivi de multiples questions sur l’expérience subjective reliée au mouvement provoqué a été effectuée chez 20 participants normaux. Les données objectives du mouvement ont été recueillies par électromyographie (EMG) et capture du mouvement. Un modèle de régression a entre autres été effectué pour chaque participant afin de voir quelle proportion du jugement subjectif pouvait être expliqué par des indices objectifs et cette proportion variait grandement entre les participants. Les résultats de la présente étude indiquent la présence d’une capacité individuelle à se former des jugements subjectifs reflétant adéquatement la réalité comme en témoigne la cohérence entre les différentes mesures d’acuité et plusieurs variables mesurant l’expérience subjective.