971 resultados para Probabilité de fixation
Resumo:
"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de Maître en droit (LL.M.)"
Resumo:
Le virus de l’hépatite murine de type 3 (MHV3) est un excellent modèle animal pour l’étude des différents désordres immunologiques lors d’infections virales. L’hépatite aiguë fulminante induite par ce virus chez la souris susceptible C57BL/6 se caractérise par la présence de plusieurs foyers nécrotiques et inflammatoires dans le foie associée à une immunodéficience en lymphocytes B et T, tuant les souris entre 3 et 5 jours post-infection. L’évolution rapide de cette maladie virale suggère un débalancement dans les mécanismes de l’immunité naturelle sous le contrôle des cellules NK et NK-T et un bris de l’équilibre entre la tolérance hépatique et la réponse inflammatoire. Afin d’élucider les rôles respectifs des différents mécanismes de la défense innée impliqués dans le développement de l’hépatite aiguë, des infections in vivo ont été réalisées chez des souris C57BL/6 avec la souche pathogène L2-MHV3 ou avec des variants du virus MHV3. Ces derniers possèdent des tropismes différents pour les cellules endothéliales sinusoïdales hépatiques et les cellules de Kupffer, tels que les virus faiblement atténué 51.6-MHV3, fortement atténué CL12-MHV3 et non pathogène YAC-MHV3. Ces études in vivo ont montré une diminution des cellules NK spléniques et myéloïdes suite à une infection avec le virus MHV3. Cette chute en cellules NK spléniques reflète un recrutement de ces cellules au niveau du foie. Par contre, les cellules NK se sont avérées permissives à la réplication virale entraînant un processus d’apoptose suite à la formation de syncétia induits par le virus. Les niveaux de recrutement et d’apoptose des cellules NK et NK-T dans le foie reflètent la pathogénicité des variants MHV3 durant les trois premiers jours de l’infection virale bien que les cellules NK recrutées au niveau du foie maintiennent leur activité cytotoxique. L’ajout des IL-12 et IL-18, qui sont normalement diminués lors de l’hépatite aiguë, provoque une production synergique d’IFN-g par les cellules NK, résultant d’une interaction entre l’activation de la voie p38 MAPK et la réplication virale. Par ailleurs, le récepteur viral CEACAM1a (carcinoembryonic antigen cell adhesion molecule 1a) serait essentiel à cette synergie, mais exercerait aussi une action inhibitrice dans la production de l’IFN-g. D’autre part, les niveaux de production des cytokines immunosuppressives IL-10, TGF-b et PGE2, impliquées dans la tolérance hépatique et particulièrement produites par les cellules de Kupffer et les cellules endothéliales sinusoïdales, sont en relation inverse avec le degré de pathogénicité des variants du virus MHV3. Finalement, le virus pathogène L2-MHV3 déclenche la production de cytokines inflammatoires par les macrophages, tels que l’IL-6 et le TNF-a. L’induction de ces cytokines par les macrophages serait indépendante de la présence de la molécule CEACAM1a. Cette stimulation est plutôt reliée à la fixation des particules virales sur des récepteurs TLR2, en association avec les régions riches en héparanes sulfates. Tous ces résultats mettent en évidence de nouveaux mécanismes par lesquels le virus MHV3 peut diminuer l’efficacité des mécanismes de l’immunité naturelle sous le contrôle des cellules NK et NK-T intrahépatiques, suite à une stimulation de l’inflammation résultant du bris de la tolérance hépatique.
Resumo:
Chez les personnes âgées, la dépression est un problème important en santé publique, à cause de sa prévalence élevée et de son association avec les incapacités fonctionnelles, la mortalité et l’utilisation des services. La plupart des études ont montré que le manque de relations sociales était associé à la dépression, mais les résultats ne sont pas clairs. Au Québec et au Canada, on possède peu de données sur la prévalence de la dépression chez les personnes âgées et de son association avec les relations sociales. Peu d’études ont examiné le rôle des relations sociales sur l’utilisation des services de santé par les personnes âgées déprimées. Le but de cette recherche était d’examiner le rôle des relations sociales dans la présence de la dépression et dans la consultation chez un professionnel de la santé des personnes âgées déprimées, au Québec. Plus spécifiquement, ce travail visait à : 1) examiner les associations entre les relations sociales et les troubles dépressifs selon la région de résidence; 2) examiner les associations différentielles des relations sociales sur la dépression des femmes et des hommes âgés; 3) examiner le rôle des relations sociales dans la consultation auprès d’un professionnel de la santé des personnes âgées déprimées. Pour répondre à ces objectifs, nous avons utilisé les données de l’enquête ESA (Enquête sur la Santé des Aînés), réalisée en 2005 -2006 auprès d’un échantillon de 2670 personnes âgées résidant à domicile au Québec, qui nous ont permis de rédiger trois articles. Les troubles dépressifs (incluant la dépression majeure et mineure) ont été mesurés, selon les critères du DSM-IV, en excluant le critère de l’altération du fonctionnement social, professionnel ou dans d’autres domaines importants, à l’aide du questionnaire ESA développé par l’équipe de recherche. Les relations sociales ont été mesurées à l’aide de cinq variables : (1) le réseau social; (2) l’intégration sociale; (3) le soutien social, (4) la perception d’utilité auprès des proches et (5) la présence de relations conflictuelles avec le conjoint, les enfants, les frères et sœurs et les amis. Des modèles de régression logistique multiple ont été ajustés aux données pour estimer les rapports de cote et leur intervalle de confiance à 95 %. Nos résultats ont montré des prévalences de dépression plus élevées chez les personnes qui résident dans les régions rurales et urbaines, comparées à celles qui résident dans la région métropolitaine de Montréal. La pratique du bénévolat, le soutien social et les relations non conflictuelles avec le conjoint sont associés à une faible prévalence de dépression, indépendamment du type de résidence. Comparés aux hommes, les femmes ont une prévalence de dépression plus élevée. L’absence de confident est associée à une prévalence de dépression élevée, tant chez les hommes que chez les femmes. La probabilité de dépression est plus élevée chez les hommes veufs et chez ceux qui ne pratiquent pas d’activités de bénévolat, comparativement à ceux qui sont mariés et font du bénévolat. Chez les femmes, aucune association significative n’a été observée entre le statut marital, le bénévolat et la dépression. Cependant, la présence de relations conflictuelles avec le conjoint est associée avec la dépression, seulement chez les femmes. Les relations avec les enfants, les frères et sœurs et les amis ne sont pas associées avec la dépression dans cette population de personnes âgées du Quebec. En ce qui concerne la consultation chez un professionnel de la santé, nos résultats ont révélé que presque la moitié des personnes âgées dépressives n’ont pas consulté un professionnel de la santé, pour leurs symptômes de dépression, au cours des 12 derniers mois. Par ailleurs, notre étude a montré que les personnes âgées qui disposent de tous les types de soutien (confident, émotionnel et instrumental) consultent plus pour leurs symptômes de dépression que ceux qui ont moins de soutien. Comparativement aux hommes mariés, les femmes mariées consultent plus les professionnels de la santé, ce qui laisse supposer que le réseau de proches (épouse et enfants) semble agir comme un substitut en réduisant la fréquence de consultation chez les hommes. Vu la rareté des études canadiennes sur la prévalence de la dépression chez les personnes âgées et les facteurs psychosociaux qui y sont associés, les résultats de ce travail seront utiles pour les cliniciens et pour les responsables des politiques à l’échelle nationale, provinciale et locale. Ils pourront guider des interventions spécifiques, selon la région de résidence et pour les hommes et les femmes âgées, dans le domaine de la santé mentale.
Resumo:
L'imagerie intravasculaire ultrasonore (IVUS) est une technologie médicale par cathéter qui produit des images de coupe des vaisseaux sanguins. Elle permet de quantifier et d'étudier la morphologie de plaques d'athérosclérose en plus de visualiser la structure des vaisseaux sanguins (lumière, intima, plaque, média et adventice) en trois dimensions. Depuis quelques années, cette méthode d'imagerie est devenue un outil de choix en recherche aussi bien qu'en clinique pour l'étude de la maladie athérosclérotique. L'imagerie IVUS est par contre affectée par des artéfacts associés aux caractéristiques des capteurs ultrasonores, par la présence de cônes d'ombre causés par les calcifications ou des artères collatérales, par des plaques dont le rendu est hétérogène ou par le chatoiement ultrasonore (speckle) sanguin. L'analyse automatisée de séquences IVUS de grande taille représente donc un défi important. Une méthode de segmentation en trois dimensions (3D) basée sur l'algorithme du fast-marching à interfaces multiples est présentée. La segmentation utilise des attributs des régions et contours des images IVUS. En effet, une nouvelle fonction de vitesse de propagation des interfaces combinant les fonctions de densité de probabilité des tons de gris des composants de la paroi vasculaire et le gradient des intensités est proposée. La segmentation est grandement automatisée puisque la lumière du vaisseau est détectée de façon entièrement automatique. Dans une procédure d'initialisation originale, un minimum d'interactions est nécessaire lorsque les contours initiaux de la paroi externe du vaisseau calculés automatiquement sont proposés à l'utilisateur pour acceptation ou correction sur un nombre limité d'images de coupe longitudinale. La segmentation a été validée à l'aide de séquences IVUS in vivo provenant d'artères fémorales provenant de différents sous-groupes d'acquisitions, c'est-à-dire pré-angioplastie par ballon, post-intervention et à un examen de contrôle 1 an suivant l'intervention. Les résultats ont été comparés avec des contours étalons tracés manuellement par différents experts en analyse d'images IVUS. Les contours de la lumière et de la paroi externe du vaisseau détectés selon la méthode du fast-marching sont en accord avec les tracés manuels des experts puisque les mesures d'aire sont similaires et les différences point-à-point entre les contours sont faibles. De plus, la segmentation par fast-marching 3D s'est effectuée en un temps grandement réduit comparativement à l'analyse manuelle. Il s'agit de la première étude rapportée dans la littérature qui évalue la performance de la segmentation sur différents types d'acquisition IVUS. En conclusion, la segmentation par fast-marching combinant les informations des distributions de tons de gris et du gradient des intensités des images est précise et efficace pour l'analyse de séquences IVUS de grandes tailles. Un outil de segmentation robuste pourrait devenir largement répandu pour la tâche ardue et fastidieuse qu'est l'analyse de ce type d'images.
Resumo:
La plasticité synaptique est une importante propriété du système nerveux, impliquée dans l’intégration de l’information. Cette plasticité a généralement été décrite par des changements aux niveaux pré et postsynaptiques. Notamment, l’efficacité présynaptique, soit la probabilité de libération de neurotransmetteurs associée au contenu quantique d’une synapse, peut être augmentée ou diminuée selon l’activité antérieure de la synapse. Malgré cette caractérisation, les mécanismes à l’origine de la détermination de l’efficacité présynaptique demeurent obscurs. Également, la plasticité synaptique reste encore mal définie au niveau glial, limitant, de ce fait, notre compréhension de l’intégration de l’information. Pourtant, la dernière décennie a mené à une redéfinition du rôle des cellules gliales. Autrefois reléguées à un rôle de support passif aux neurones, elles sont désormais reconnues comme étant impliquées dans la régulation de la neurotransmission. Notamment, à la jonction neuromusculaire (JNM), les cellules de Schwann périsynaptiques (CSPs) sont reconnues pour moduler l’efficacité présynaptique et les phénomènes de plasticité. Un tel rôle actif dans la modulation de la neurotransmission implique cependant que les CSPs soient en mesure de s’adapter aux besoins changeants des JNMs auxquelles elles sont associées. La plasticité synaptique devrait donc sous-tendre une forme de plasticité gliale. Nous savons, en effet, que la JNM est capable de modifications tant morphologiques que physiologiques en réponse à des altérations de l'activité synaptique. Par exemple, la stimulation chronique des terminaisons nerveuses entraîne une diminution persistante de l’efficacité présynaptique et une augmentation de la résistance à la dépression. À l’opposé, le blocage chronique des récepteurs nicotiniques entraîne une augmentation prolongée de l’efficacité présynaptique. Aussi, compte tenu que les CSPs détectent et répondent à la neurotransmission et qu’elles réagissent à certains stimuli environnementaux par des changements morphologiques, physiologiques et d’expression génique, nous proposons que le changement d'efficacité présynaptique imposé à la synapse, soit par une stimulation nerveuse chronique ou par blocage chronique des récepteurs nicotiniques, résulte en une adaptation des propriétés des CSPs. Cette thèse propose donc d’étudier, en parallèle, la plasticité présynaptique et gliale à long-terme, en réponse à un changement chronique de l’activité synaptique, à la JNM d’amphibien. Nos résultats démontrent les adaptations présynaptiques de l’efficacité présynaptique, des phénomènes de plasticité à court-terme, du contenu mitochondrial et de la signalisation calcique. De même, ils révèlent différentes adaptations gliales, notamment au niveau de la sensibilité des CSPs aux neurotransmetteurs et des propriétés de leur réponse calcique. Les adaptations présynaptiques et gliales sont discutées, en parallèle, en termes de mécanismes et de fonctions possibles dans la régulation de la neurotransmission. Nos travaux confirment donc la coïncidence de la plasticité présynaptique et gliale et, en ce sens, soulèvent l’importance des adaptations gliales pour le maintien de la fonction synaptique.
Resumo:
Notre patrimoine génétique dévoile, de plus en plus, les passerelles démogénétiques d’une susceptibilité plus accrue de certains individus à des maladies infectieuses complexes. En vue d’une caractérisation de la variabilité génétique des populations ouest-africaines, nous avons analysé 659 chromosomes X au locus dys44 qui comprend, 35 SNPs et un microsatellite distribués sur 2853 pb en amont et 5034 pb en aval de l’exon 44 du gène de la dystrophine en Xp21.3. Les génotypes obtenus, par ASO dynamique et électrophorèse sur gel d’acrylamide, ont servi à la détermination des haplotypes. Des paramètres comme la diversité haplotypique (G) et l'indice de fixation (Fst) ont été calculés. Des analyses en composantes principales ainsi que multidimensionnelles ont été réalisées. Sur 68 haplotypes détectés, 26 sont nouveaux, et cette région, avec une diversité haplotypique moyenne (Gmoy) de 0,91 ± 0,03, se révèle beaucoup plus hétérogène que le reste du continent (Gmoy = 0,85 ± 0,04). Toutefois, malgré l’existence de disparités sous régionales dans la distribution des variants du marqueur dys44, l’AMOVA montre d’une manière générale, une faible érosion de l’éloignement génétique entre les populations subsahariennes (Fst = 1,5% ; p<10-5). Certains variants tel que l’haplotype eurasien B006 paraissent indiquer des flux transsahariens de gènes entre les populations nord-africaines et celles subsahariennes, comme l’exemplifie le pool génétique de l’une des populations ubiquitaires de la famille linguistique Nigéro-congolaise : Les Fulani. Nos résultats vont aussi dans le sens d’un héritage phylétique commun entre les Biaka, les Afro-américains et les populations de la sous-famille de langues Volta-Congo.
Resumo:
Contexte: Les centres de jour offrent des interventions de groupe à des personnes âgées qui présentent des incapacités, dans le but de favoriser leur maintien à domicile. Des études récentes tendent à démontrer qu’une utilisation régulière du service serait nécessaire pour induire des effets bénéfiques. Objectifs: Cette recherche visait à documenter l’utilisation des centres de jour par des personnes âgées qui présentent des incapacités. Elle comportait trois principaux objectifs: 1) Caractériser les utilisateurs de centre de jour et ce qui les distingue des non-utilisateurs et analyser les déterminants de l’utilisation du centre de jour. 2) Explorer l’adéquation entre les activités offertes par les centres de jour et les caractéristiques d’autonomie et de santé des utilisateurs. 3) Définir les facteurs associés à la régularité de la participation. Méthodes: Cette recherche s’appuie sur une analyse secondaire de données recueillies auprès de 723 personnes âgées qui ont participé au projet de démonstration SIPA (Services intégrés pour personnes âgées) implanté dans deux CLSC de la région de Montréal. L’utilisation du centre de jour a été documentée pendant une période de six mois, auprès des cinq centres de jour existant sur ce même territoire. Des informations sur le fonctionnement des centres de jour ont été obtenues par des entrevues et des rencontres de groupe auprès de coordonnateurs de ces centres. Les données ont été analysées à l’aide de statistiques descriptives, d’analyses en regroupement et d’analyses de régression logistique et multiple. Résultats: Les résultats sont présentés dans trois articles, soit un pour chacun des objectifs. Article 1: La proportion d’utilisateurs de centre de jour est de 18,8% (IC-0,95: 16,0 à 21,7%). Les facteurs suivants augmentent la probabilité d’utiliser le centre de jour: être plus jeune (RC: 1,12; IC-0,95: 1,06 à 1,19); ne pas avoir une éducation universitaire (RC: 1,92; IC-0,95: 1,04 à 3,57); recevoir l’aide du CLSC pour les activités de vie quotidienne plus d’une fois par semaine (RC: 1,73 et 2,48 pour aide de deux à cinq fois par semaine et aide de six à sept fois par semaine respectivement; IC-0,95: 1,06 à 2,80 et 1,22 à 5,06); faire partie du bassin de desserte d’un centre de jour dont les coûts sont moins élevés (RC: 1,054 ; IC-0,95: 1,001 à 1,108 pour chaque augmentation de 1$); et pour les hommes seulement, avoir déjà subi un accident vasculaire cérébral et présenter davantage d’incapacités fonctionnelles (interaction entre le sexe et la présence d’un AVC: RC: 0,298; IC-0,95: 0,108 à 0,825; interaction entre le sexe et les capacités fonctionnelles mesurées à l’OARS: RC: 1,096; IC-0,95: 1,019 à 1,178). De plus, on observe une plus grande probabilité d’utiliser le centre de jour chez les personnes qui cohabitent avec une personne de soutien. Toutefois, cette relation ne s’observe que chez les personnes nées au Canada (interaction entre la cohabitation avec la personne de soutien et le pays de naissance: RC: 0,417; IC-0,95: 0,185 à 0,938). Article 2: Des analyses en regroupement ont permis de distinguer quatre profils de participants ayant des caractéristiques similaires: 1) les personnes fragilisées par un âge avancé et un grand nombre de problèmes de santé; 2) les participants plus jeunes et plus autonomes que la moyenne, qui semblent des utilisateurs précoces; 3) les personnes qui présentent des incapacités d’origine cognitive; et 4) celles qui présentent des incapacités d’origine motrice. Les activités de groupe des centres de jour ont été regroupées en huit catégories: exercices physiques; groupe spécifique pour un diagnostic ou un problème fonctionnel commun; activités fonctionnelles; stimulation cognitive; activités musicales ou de réminiscence; sports et jeux physiques; intégration sociale; prévention et promotion de la santé. Les activités les plus fréquentes sont les exercices physiques et les activités d’intégration sociale auxquelles ont participé plus de 90% des utilisateurs de centre de jour, et ce en moyenne à respectivement 78% (±23%) et 72% (±24%) de leurs présences au centre de jour. Les autres catégories d’activités rejoignent de 45% à 77% des participants, et ce en moyenne à 35% (±15%) à 46% (±33%) de leurs présences. La participation aux diverses catégories d’activités a été étudiée pour chaque profil d’utilisateurs et comparée aux activités recommandées pour divers types de clientèle. On observe une concordance partielle entre les activités offertes et les besoins des utilisateurs. Cette concordance apparaît plus grande pour les participants qui présentent des problèmes de santé physique ou des incapacités d’origine motrice et plus faible pour ceux qui présentent des symptômes dépressifs ou des atteintes cognitives. Article 3: Les participants au centre de jour y sont inscrits en moyenne à raison de 1,56 (±0,74) jours par semaine mais sont réellement présents à 68,1% des jours attendus. Les facteurs suivants sont associés à une participation plus régulière au centre de jour en termes de taux de présences réelles / présences attendues: ne pas avoir travaillé dans le domaine de la santé (b: ,209; IC-0,95: ,037 à ,382); recevoir de l’aide du CLSC les jours de fréquentation du centre de jour (b: ,124; IC-0,95: ,019 à ,230); être inscrit pour la journée plutôt que la demi-journée (b: ,209: IC-0,95: ,018 à ,399); lors de ses présences au centre de jour, avoir une moins grande proportion d’activités de prévention et promotion de la santé (b: ,223; IC-0,95: ,044 à ,402); et enfin, avoir un aidant qui présente un fardeau moins élevé pour les personnes avec une atteinte cognitive et un fardeau plus élevé pour les personnes sans atteinte cognitive (interaction entre la présence d’atteinte cognitive et le fardeau de l’aidant: b: -,008; IC-0,95: -,014 à -,044). Conclusion: Conformément à leur mission, les centres de jour rejoignent une bonne proportion des personnes âgées qui présentent des incapacités. Cette étude fait ressortir les caractéristiques des personnes les plus susceptibles d’y participer. Elle suggère la nécessité de revoir la planification des activités pour assurer une offre de services qui tienne davantage compte des besoins des participants, en particulier de ceux qui présentent des atteintes cognitives et des symptômes de dépression. Elle démontre aussi que l’intensité d’exposition au service semble faible, ce qui soulève la question des seuils d’exposition nécessaires pour induire des effets favorables sur le maintien à domicile et sur la qualité de vie de la clientèle cible.
Resumo:
Cette étude vise à estimer l’apport en glutamine (Gln) alimentaire chez des athlètes soumis à un protocole de supplémentation en glutamine ainsi qu’à clarifier les informations diffusées au grand public en ce qui concerne les sources alimentaires de glutamine. Des études cliniques ont démontré que la supplémentation en glutamine pouvait réduire la morbidité et la mortalité chez des sujets en phase critique (grands brulés, chirurgie…). Le mécanisme en cause semble impliquer le système immunitaire. Cependant, les études chez les sportifs, dont le système immunitaire a de fortes chances d’être affaibli lors de périodes d’entraînement prolongées impliquant des efforts longs et intenses, n’ont pas été concluantes. Or, ces études négligent systématiquement l’apport alimentaire en glutamine, si bien qu’il est probable que les résultats contradictoires observés puissent en partie être expliqués par les choix alimentaires des sujets. Puisque la méthode conventionnelle de dosage des acides aminés dans les protéines alimentaires transforme la glutamine en glutamate, les tables de composition des aliments présentent la glutamine et le glutamate ensemble sous la dénomination « glutamate » ou « Glu », ce qui a comme conséquence de créer de l’ambiguïté. La dénomination « Glx » devrait être utilisée. Partant de la probabilité qu’un apport en Glx élevé soit un bon indicateur de l’apport en glutamine, nous avons créé un calculateur de Glx et avons évalué l’alimentation de 12 athlètes faisant partie d’une étude de supplémentation en glutamine. Nous avons alors constaté que l’apport en Glx était directement proportionnel à l’apport en protéines, avec 20,64 % ± 1,13 % de l’apport protéique sous forme de Glx. Grâce à quelques données sur la séquence primaire des acides aminés, nous avons pu constater que le rapport Gln/Glx pouvait être très variable d’un type de protéine à l’autre. Alors que le ratio molaire Gln/Glx est de ~95 % pour les α et β-gliadines, il n’est que de ~43 % pour la caséine, de ~36 % pour la β-lactoglobuline, de ~31 % pour l’ovalbumine et de ~28 % pour l’actine. Il est donc possible que certaines protéines puissent présenter des avantages par rapport à d’autres, à quantité égale de Glx.
Resumo:
Les agences de notation de crédit ont permis la banalisation des véhicules de titrisation. Elles ont sous-estimé la probabilité que les émetteurs de certains instruments financiers complexes ne puissent pas honorer leurs dettes. Elles ont tardé à refléter la détérioration du marché de leurs notes. Les agences de notation ont donc été en partie responsables de la tempête que traversent les places financières mondiales et ont exposé les entreprises à un risque sérieux de défiance. Alors que les entreprises doivent à l’heure actuelle maîtriser de multiples risques, celles-ci ont été les premières victimes des professionnels de la notation. Pour apporter une réponse au risque de la notation, les régulateurs tentent de réagir. Par l’intermédiaire de leur autorité boursière, les Etats-Unis ont été les premiers à modifier le cadre règlementaire de l’activité de la notation. C’est ce cadre règlementaire, adopté au premier trimestre 2009, qui fait l’objet du présent papier.
Resumo:
My aim in the present paper is to develop a new kind of argument in support of the ideal of liberal neutrality. This argument combines some basic moral principles with a thesis about the relationship between the correct standards of justification for a belief/action and certain contextual factors. The idea is that the level of importance of what is at stake in a specific context of action determines how demanding the correct standards to justify an action based on a specific set of beliefs ought to be. In certain exceptional contexts –where the seriousness of harm in case of mistake and the level of an agent’s responsibility for the outcome of his action are specially high– a very small probability of making a mistake should be recognized as a good reason to avoid to act based on beliefs that we nonetheless affirm with a high degree of confidence and that actually justify our action in other contexts. The further steps of the argument consist in probing 1) that the fundamental state’s policies are such a case of exceptional context, 2) that perfectionist policies are the type of actions we should avoid, and 3) that policies that satisfy neutral standards of justification are not affected by the reasons which lead to reject perfectionist policies.
Resumo:
De nouveaux modèles d'atmosphère sont présentés, incluant les profils de raie d'hélium neutre améliorés de Beauchamp (1995) et le formalisme de probabilité d'occupation pour ce même atome. Ces modèles sont utilisés pour calculer une grille de spectres synthétiques correspondant à des atmosphères riches en hélium et contenant des traces d'hydrogène. Cette grille est utilisée pour déterminer les paramètres atmosphériques principaux des étoiles de notre échantillon, soient la température effective, la gravité de surface et l'abondance d'hydrogène. Notre échantillon contient des spectres visibles de haut rapport signal-sur-bruit pour 102 naines blanches riches en hélium, dont 29 ont été observés au cours de ce projet, ce qui en fait le plus grand échantillon de spectres de qualité de naines blanches riches en hélium. Des spectres synthétiques ont été calculés en utilisant différentes valeurs du paramètre α de la théorie de la longueur de mélange dans le but de calibrer empiriquement la valeur de ce paramètre pour les DB. Afin d'améliorer la précision sur les paramètres atmosphériques de quelques étoiles, nous avons utilisé des spectres couvrant la raie Hα pour mieux déterminer l'abondance d'hydrogène. Finalement, nous avons calculé la distribution de masse de notre échantillon et la fonction de luminosité des DB. La distribution de masse montre une coupure à 0.5 fois la masse solaire qui est prédite par les modèles d'évolution stellaire et dévoile une masse moyenne significativement plus élevée pour les étoiles de type DBA. La masse moyenne de l'ensemble des DB et DBA est très proche de celle des DA. La fonction de luminosité nous permet de calculer que le rapport du nombre de DB sur le nombre de DA vaut environ 25%.
Resumo:
À la lecture de la Loi sur le droit d'auteur, il n'est pas clair que la mise en scène y soit protégée. C'est pourquoi nous nous questionnons sur la qualification juridique la plus adéquate pour la mise en scène. Le metteur en scène est-il un artiste-interprète ou un auteur? Après avoir étudié les caractéristiques artistiques des mises en scène, par types de productions et à la lumière de facteurs faisant varier la latitude du metteur en scène, nous étudions les différentes possibilités de qualification juridique de la mise en scène. Les possibilités sont vastes, car le metteur en scène évolue dans un cadre comprenant plusieurs intervenants. De plus, la mise en scène rencontre deux obstacles caractéristiques à sa qualification juridique en droit d'auteur: la fixation et l'originalité. Nous en venons à la conclusion que le metteur en scène est un auteur, car chacun des aspects de la mise en scène serait protégeable sous différentes qualifications juridiques.
Resumo:
Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée.
Resumo:
Objectif: Nous avons effectué une étude chez 135 patients ayant subis une chirurgie lombo-sacrée avec vissage pédiculaire sous navigation par tomographie axiale. Nous avons évalué la précision des vis pédiculaires et les résultats cliniques. Méthodes: Cette étude comporte 44 hommes et 91 femmes (âge moyen=61, intervalle 24-90 ans). Les diamètres, longueurs et trajectoires des 836 vis ont été planifiés en préopératoire avec un système de navigation (SNN, Surgical Navigation Network, Mississauga). Les patients ont subi une fusion lombaire (55), lombo-sacrée (73) et thoraco-lombo-sacrée (7). La perforation pédiculaire, la longueur des vis et les spondylolisthesis sont évalués par tomographies axiales postopératoires. Le niveau de douleur est mesuré par autoévaluations, échelles visuelles analogues et questionnaires (Oswestry et SF-36). La fusion osseuse a été évaluée par l’examen des radiographies postopératoires. Résultats: Une perforation des pédicules est présente pour 49/836 (5.9%) des vis (2.4% latéral, 1.7% inférieur, 1.1% supérieur, 0.7% médial). Les erreurs ont été mineures (0.1-2mm, 46/49) ou intermédiaires (2.1 - 4mm, 3/49 en latéral). Il y a aucune erreur majeure (≥ 4.1mm). Certaines vis ont été jugées trop longues (66/836, 8%). Le temps moyen pour insérer une vis en navigation a été de 19.1 minutes de l΄application au retrait du cadre de référence. Un an postopératoire on note une amélioration de la douleur des jambes et lombaire de 72% et 48% en moyenne respectivement. L’amélioration reste stable après 2 ans. La dégénérescence radiologique au dessus et sous la fusion a été retrouvée chez 44 patients (33%) and 3 patients respectivement (2%). Elle est survenue en moyenne 22.2 ± 2.6 mois après la chirurgie. Les fusions se terminant à L2 ont été associées à plus de dégénération (14/25, 56%). Conclusion: La navigation spinale basée sur des images tomographiques préopératoires est une technique sécuritaire et précise. Elle donne de bons résultats à court terme justifiant l’investissement de temps chirurgical. La dégénérescence segmentaire peut avoir un impact négatif sur les résultats radiologique et cliniques.
Resumo:
La présente recherche a pour but de faire le point sur l'état du droit canadien et sur ses perspectives futures en relation avec les œuvres créées par ordinateurs. L'outil terminologique choisi pour notre objectif est le logiciel de traduction automatique multilingue qui, à cause de sa complexité, s'éloigne le plus du programmeur « créateur» et se rapproche le plus d'œuvres qui ne peuvent être directement attribuées aux linguistes et programmeurs. Ces outils et leurs créations seront d'après nous les prochains outils technologiques à confronter le droit. En effet, dans un avenir prévisible, considérant l'évolution technologique, ces logiciels produiront des textes qui bénéficieront d'une valeur commerciale ajoutée et c'est alors que certains feront valoir leurs « droits », non seulement sur les textes mais aussi sur la technologie. Pour atteindre cet objectif, nous débuterons par un retour historique sur la technologie et ses origines. Par la suite, nous ferons une analyse de la protection actuelle accordée aux logiciels, aux banques de données et aux traductions qu'ils produisent. Nous déterminerons ensuite qui sera responsable des textes produits en relation avec le texte d'origine et avec sa résultante au niveau du droit d'auteur et de celui de la responsabilité civile. Cette recherche nous amènera à conclure que le droit actuel est « mésadapté » tant à l'égard de la protection qu'au niveau de la responsabilité. Ces conclusions devront d'après nous imposer un retour aux principes fondamentaux du droit. Ce fondamentalisme légal sera pour nous le prix à payer pour la légitimité. En effet, plus particulièrement concernant le droit d'auteur, nous conclurons qu'il devra cesser d'être le « fourre-tout» du droit de la propriété intellectuelle et redevenir ce qu'il doit être: un droit qui protège la créativité. Cette démarche prospective tirera ses racines du fait que nous serons obligés de conclure que les juristes canadiens ont refusé, à tort à notre point de vue, de renvoyer au monde des brevets les méthodes et procédés nouveaux et inventifs, ce qui donc a introduit des problématiques inutiles qui exacerbent l'incertitude. Finalement, notre cheminement nous dirigera vers le droit de la responsabilité où nous soutiendrons que le fournisseur ne peut actuellement être responsable du texte produit puisqu'il ne participe pas directement aux choix et ne porte pas atteinte au contenu. Voici donc en quelques mots le cœur de notre recherche qui entrouvre une boîte de Pandore.