959 resultados para Teleparallel gravity
Resumo:
La mesure traditionnelle de la criminalité (taux pour 100 000 habitants) pose problème dans l'analyse des variations de la criminalité dans le temps ou l'espace. Le problème est dû au fait que le taux de criminalité est essentiellement déterminé par des infractions moins graves et très fréquentes. La présente étude a permis de tester l’utilité du nouvel outil développé par Statistique Canada qui procure un index de « gravité de la criminalité » dans lequel chaque crime est pondéré par son score de gravité (basé sur les décisions sentencielles moyennes au Canada de 2002 à 2007 pour chaque forme de crime). Appliquées aux statistiques officielles du Québec de 1977 à 2008, nos analyses montrent que l’indice de gravité s’avère une mesure utile pour dresser un portrait plus juste des tendances des crimes violents d’une année à l’autre. Plus exactement, l’indice de gravité montre que le taux de crimes violents est demeuré stable de 1977 à 1992 contrairement à l'image fournie par le taux traditionnel qui montre plutôt une montée fulgurante durant cette période. L’indice de gravité peut également être utile à l’égard des crimes violents pour comparer plus adéquatement les territoires entre eux afin d’établir ceux qui présentent une criminalité plus grave. Cependant, à l’égard de la criminalité globale et des crimes sans violence, l’indice de gravité n’est d’aucune utilité et présente la même lecture de la criminalité que la mesure traditionnelle. Cela s’explique par le fait que ce sont toujours les mêmes infractions (les vols, les méfaits et les introductions par effraction) qui contribuent majoritairement à chacune des deux mesures de la criminalité.
Resumo:
Cette recherche vise à décrire 1) les erreurs lexicales commises en production écrite par des élèves francophones de 3e secondaire et 2) le rapport à l’erreur lexicale d’enseignants de français (conception de l’erreur lexicale, pratiques d’évaluation du vocabulaire en production écrite, modes de rétroaction aux erreurs lexicales). Le premier volet de la recherche consiste en une analyse d’erreurs à trois niveaux : 1) une description linguistique des erreurs à l’aide d’une typologie, 2) une évaluation de la gravité des erreurs et 3) une explication de leurs sources possibles. Le corpus analysé est constitué de 300 textes rédigés en classe de français par des élèves de 3e secondaire. L’analyse a révélé 1144 erreurs lexicales. Les plus fréquentes sont les problèmes sémantiques (30%), les erreurs liées aux propriétés morphosyntaxiques des unités lexicales (21%) et l’utilisation de termes familiers (17%). Cette répartition démontre que la moitié des erreurs lexicales sont attribuables à une méconnaissance de propriétés des mots autres que le sens et la forme. L’évaluation de la gravité des erreurs repose sur trois critères : leur acceptation linguistique selon les dictionnaires, leur impact sur la compréhension et leur degré d’intégration à l’usage. Les problèmes liés aux registres de langue sont généralement ceux qui sont considérés comme les moins graves et les erreurs sémantiques représentent la quasi-totalité des erreurs graves. Le troisième axe d’analyse concerne la source des erreurs et fait ressortir trois sources principales : l’influence de la langue orale, la proximité sémantique et la parenté formelle entre le mot utilisé et celui visé. Le second volet de la thèse concerne le rapport des enseignants de français à l’erreur lexicale et repose sur l’analyse de 224 rédactions corrigées ainsi que sur une série de huit entrevues menées avec des enseignants de 3e secondaire. Lors de la correction, les enseignants relèvent surtout les erreurs orthographiques ainsi que celles relevant des propriétés morphosyntaxiques des mots (genre, invariabilité, régime), qu’ils classent parmi les erreurs de grammaire. Les erreurs plus purement lexicales, c’est-à-dire les erreurs sémantiques, l’emploi de termes familiers et les erreurs de collocation, demeurent peu relevées, et les annotations des enseignants concernant ces types d’erreurs sont vagues et peu systématiques, donnant peu de pistes aux élèves pour la correction. L’évaluation du vocabulaire en production écrite est toujours soumise à une appréciation qualitative, qui repose sur l’impression générale des enseignants plutôt que sur des critères précis, le seul indicateur clair étant la répétition. Les explications des enseignants concernant les erreurs lexicales reposent beaucoup sur l’intuition, ce qui témoigne de certaines lacunes dans leur formation en lien avec le vocabulaire. Les enseignants admettent enseigner très peu le vocabulaire en classe au secondaire et expliquent ce choix par le manque de temps et d’outils adéquats. L’enseignement du vocabulaire est toujours subordonné à des tâches d’écriture ou de lecture et vise davantage l’acquisition de mots précis que le développement d’une réelle compétence lexicale.
Resumo:
Le but de cette thèse est de raffiner et de mieux comprendre l'utilisation de la méthode spectroscopique, qui compare des spectres visibles de naines blanches à atmosphère riche en hydrogène (DA) à des spectres synthétiques pour en déterminer les paramètres atmosphériques (température effective et gravité de surface). Notre approche repose principalement sur le développement de modèles de spectres améliorés, qui proviennent eux-mêmes de modèles d'atmosphère de naines blanches de type DA. Nous présentons une nouvelle grille de spectres synthétiques de DA avec la première implémentation cohérente de la théorie du gaz non-idéal de Hummer & Mihalas et de la théorie unifiée de l'élargissement Stark de Vidal, Cooper & Smith. Cela permet un traitement adéquat du chevauchement des raies de la série de Balmer, sans la nécessité d'un paramètre libre. Nous montrons que ces spectres améliorés prédisent des gravités de surface qui sont plus stables en fonction de la température effective. Nous étudions ensuite le problème de longue date des gravités élevées pour les DA froides. L'hypothèse de Bergeron et al., selon laquelle les atmosphères sont contaminées par de l'hélium, est confrontée aux observations. À l'aide de spectres haute résolution récoltés au télescope Keck à Hawaii, nous trouvons des limites supérieures sur la quantité d'hélium dans les atmosphères de près de 10 fois moindres que celles requises par le scénario de Bergeron et al. La grille de spectres conçue dans ces travaux est ensuite appliquée à une nouvelle analyse spectroscopique de l'échantillon de DA du SDSS. Notre approche minutieuse permet de définir un échantillon plus propre et d'identifier un nombre important de naines blanches binaires. Nous déterminons qu'une coupure à un rapport signal-sur-bruit S/N > 15 optimise la grandeur et la qualité de l'échantillon pour calculer la masse moyenne, pour laquelle nous trouvons une valeur de 0.613 masse solaire. Finalement, huit nouveaux modèles 3D de naines blanches utilisant un traitement d'hydrodynamique radiative de la convection sont présentés. Nous avons également calculé des modèles avec la même physique, mais avec une traitement standard 1D de la convection avec la théorie de la longueur de mélange. Un analyse différentielle entre ces deux séries de modèles montre que les modèles 3D prédisent des gravités considérablement plus basses. Nous concluons que le problème des gravités élevées dans les naines blanches DA froides est fort probablement causé par une faiblesse dans la théorie de la longueur de mélange.
Resumo:
Nous avons déjà démontré que les probiotiques réduisaient l'apoptose observée dans le système limbique après un infarctus du myocarde (IM), suggérant un rôle anti-dépresseur potentiel des probiotiques. Cette étude a été conçue pour déterminer si les probiotiques pouvaient atténuer le comportement dépressif observé après un infarctus du myocarde. Un autre objectif visait à démontrer qu’une altération de la barrière intestinale pourrait avoir lieu lors d’un IM et que les probiotiques pourraient empêcher cette altération de la perméabilité intestinale. Méthodes: Des rats mâles Sprague-Dawley ont reçu des probiotiques (1 milliard de cellules bactériennes vivantes de Lactobacillus helveticus R0052 et Bifidobacterium longum R0175) ou le véhicule tous les jours en dilution dans leur eau, débutant 1 semaine avant l'induction d'une ischémie myocardique. Un infarctus a ensuite été induit chez la moitié des rats, par l'occlusion de l'artère coronaire antérieure gauche (40 minutes) suivie d'une reperfusion. Les rats témoins, l'autre moitié de la cohorte, ont été soumis à la même procédure sans occlusion coronarienne. Une semaine après l'infarctus, les animaux ont été resoumis au traitement préalable jusqu'au moment du sacrifice. Le comportement dépressif a été évalué par trois tests soit: l'interaction sociale, le test de nage forcée et le test d'évitement passif. Résultats: Les résultats obtenus indiquent qu'en absence d'infarctus, les probiotiques n'ont pas d'effet significatif. Toutefois, en dépit de taille similaire IM, des rats traités avec des probiotiques, ont démontré davantage d'interactions sociales et une meilleure performance dans le test de nage forcée et d'évitement passif, comparativement à des rats du groupe IM sans probiotique (p<0,05). Conclusion: Les probiotiques atténuent le comportement dépressif observé après infarctus du myocarde par un mécanisme qui pourrait impliquer l'intégrité des intestins.
Resumo:
Cette étude est consacrée à l’université publique marocaine. Elle se situe dans le champ de l’enseignement supérieur public. Les chercheurs du secteur universitaire au Maroc qualifient la gestion de l’enseignement supérieur de centralisée, bureaucratisée, rigide et incapable de trouver des réponses efficaces à la société. L’université publique marocaine vit une crise : elle a fait l’objet de nombreux critiques sur la nature des services universitaires. Sur le plan académique, elle est inappropriée pour faire face à la demande sociale en matière de l’enseignement universitaire. Sur le plan interne, elle est inadaptée à cause de dysfonctionnement pédagogie, organisationnel et administratif. L’université publique n’a pas été apte à s’adapter au secteur privé en créant des débouchés viables pour ses diplômés. Devant la gravité de la situation de l’enseignement supérieur public marocain, une Commission Royale Spéciale a été créée, dont le mandat était de trouver une meilleure façon de rationaliser le système universitaire. C’est ainsi qu’en 1999, la Commission a établi une Charte nationale de l’éducation et de la formation. Les premiers éléments de la nouvelle réforme ont été mis en application dès la rentrée universitaire 2003-2004. Cette nouvelle réforme est perçue comme un moyen d’améliorer le fonctionnement des établissements universitaires publics. Son objectif principal est de réformer d’une manière globale le système universitaire public. Dans les recherches qui se sont intéressées à la réforme de l’université publique marocaine, nous avons constaté qu’il y a une absence de documentation en ce qui trait aux réactions des acteurs universitaires et professionnels face aux orientations de cette réforme. Dans le but d’apporter des éclaircissements, nous nous sommes fixé un double objectif : déterminer, à partir de la perception d’acteurs universitaires, les effets des orientations de la nouvelle réforme et de ses modalités; connaître les changements organisationnels et leurs exigences. La stratégie de recherche répondant le mieux à notre double objectif était la recherche exploratoire. La démarche que nous avons privilégiée fut celle d’une première étude avant l’implantation de la nouvelle réforme et d’une autre après trois semestres de son implantation. Les questions qui ont soutenu notre recherche sont les suivantes : les attitudes des acteurs universitaires ont-elles été modifiées par l’introduction de la nouvelle réforme? Si oui, dans quel sens ont-elles été modifiées? Est-ce que la nouvelle réforme a modifié les pratiques pédagogiques et financières dans le sens indiqué par la charte? Quelles formes de contribution des acteurs universitaires peuvent-ils apporter à une implantation efficace de la nouvelle réforme? Parmi les quatorze universités publiques que compte le Maroc, nous avons choisi l’Université Mohammed V de Rabat-Salé. Cet établissement est l'une des universités les plus anciennes au Maroc. Elle est caractérisée par un nombre significatif de départements qui ont un potentiel de recherche et une réputation nationale. Aucune université ne dispose d’autant de facultés et de différentes disciplines : lettres, sciences, économie, droit, médecine et pharmacie, médecine dentaire, ingénierie, technologie et autres. La démarche méthodologique retenue est axée sur des entrevues auprès des acteurs universitaires et professionnels de trois facultés : 1) faculté des Lettres et Sciences humaines, 2) faculté des Sciences juridiques, économiques et sociales, 3) faculté des Sciences. Celles-ci sont considérées comme des facultés pilotes par rapport à la nouvelle réforme. Nous avons entrepris deux séries d’entrevues : la première en 2001 avant l’implantation de la nouvelle réforme de l’université et la deuxième en 2005 après son implantation. Nous avons mené au total quarante-cinq (45) entrevues qui se sont déroulées en deux périodes : la première a eu lieu entre décembre 2000 et janvier 2001 et la deuxième entre décembre 2004 et janvier 2005. Lors de la première série d’entrevues, notre protocole était composé de questions spécifiques portant sur les initiatives inhérentes à la mise en application d’un système modulaire, sur les procédures pour restructurer la formation universitaire publique, sur le développement de projets spéciaux et de matériel didactique en rapport avec le nouveau système pédagogique et sur les propositions et les procédures pour la participation de l’université au marché du travail. Nous avons aussi posé des questions concernant les aspects financiers. Enfin, pour mieux comprendre le contexte, des questions portaient sur les évaluations et les recommandations de la nouvelle réforme de l’université publique. Au cours de la deuxième période d’entrevues, nous avons recueilli des données sur le soutien du département au pilotage des objectifs de la nouvelle réforme universitaire, le soutien des instances professionnelles à l’avancement de la réforme, la coopération des enseignants au plan de l’avancement des pratiques pédagogiques et les conditions nécessaires à une implantation efficace. Les réponses obtenues auprès des acteurs universitaires et professionnels ont été soumises à une analyse de contenu. Nous avons opté pour le modèle politique comme cadre conceptuel de notre recherche. Ce modèle nous a aidés à montrer l’importance des acteurs universitaires et professionnels dans les démarches pour l’application de la nouvelle réforme. Il nous a aidés également à comprendre comment les caractéristiques de la communauté universitaire peuvent faciliter ou bloquer la réussite de la réforme en cours. Cette recherche montre dans quelle mesure les objectifs de la nouvelle réforme fixés par la Commission Royale Spéciale sont en voie de réalisation. En ce sens, notre recherche pourrait être utile au plan national marocain : elle pourrait aider les responsables politiques et les administrateurs universitaires à prendre des décisions appropriées au processus d’implantation de la nouvelle réforme universitaire.
Resumo:
L’une des particularités fondamentales caractérisant les cellules végétales des cellules animales est la présence de la paroi cellulaire entourant le protoplaste. La paroi cellulaire joue un rôle primordial dans (1) la protection du protoplaste, (2) est impliquée dans les mécanismes de filtration et (3) est le lieu de maintes réactions biochimiques nécessaires à la régulation du métabolisme et des propriétés mécaniques de la cellule. Les propriétés locales d’élasticité, d’extensibilité, de plasticité et de dureté des composants pariétaux déterminent la géométrie et la forme des cellules lors des processus de différentiation et de morphogenèse. Le but de ma thèse est de comprendre les rôles que jouent les différents composants pariétaux dans le modelage de la géométrie et le contrôle de la croissance des cellules végétales. Pour atteindre cet objectif, le modèle cellulaire sur lequel je me suis basé est le tube pollinique ou gamétophyte mâle. Le tube pollinique est une protubérance cellulaire qui se forme à partir du grain de pollen à la suite de son contact avec le stigmate. Sa fonction est la livraison des cellules spermatiques à l’ovaire pour effectuer la double fécondation. Le tube pollinique est une cellule à croissance apicale, caractérisée par la simple composition de sa paroi et par sa vitesse de croissance qui est la plus rapide du règne végétal. Ces propriétés uniques font du tube pollinique le modèle idéal pour l’étude des effets à courts termes du stress sur la croissance et le métabolisme cellulaire ainsi que sur les propriétés mécaniques de la paroi. La paroi du tube pollinique est composée de trois composantes polysaccharidiques : pectines, cellulose et callose et d’une multitude de protéines. Pour comprendre les effets que jouent ces différents composants dans la régulation de la croissance du tube pollinique, j’ai étudié les effets de mutations, de traitements enzymatiques, de l’hyper-gravité et de la gravité omni-directionnelle sur la paroi du tube pollinique. En utilisant des méthodes de modélisation mathématiques combinées à de la biologie moléculaire et de la microscopie à fluorescence et électronique à haute résolution, j’ai montré que (1) la régulation de la chimie des pectines est primordiale pour le contrôle du taux de croissance et de la forme du tube et que (2) la cellulose détermine le diamètre du tube pollinique en partie sub-apicale. De plus, j’ai examiné le rôle d’un groupe d’enzymes digestives de pectines exprimées durant le développement du tube pollinique : les pectate lyases. J’ai montré que ces enzymes sont requises lors de l’initiation de la germination du pollen. J’ai notamment directement prouvé que les pectate lyases sont sécrétées par le tube pollinique dans le but de faciliter sa pénétration au travers du style.
Resumo:
Les chutes chez les personnes âgées représentent un problème important de santé publique. Des études montrent qu’environ 30 % des personnes âgées de 65 ans et plus chutent chaque année au Canada, entraînant des conséquences néfastes sur les plans individuel, familiale et sociale. Face à une telle situation la vidéosurveillance est une solution efficace assurant la sécurité de ces personnes. À ce jour de nombreux systèmes d’assistance de services à la personne existent. Ces dispositifs permettent à la personne âgée de vivre chez elle tout en assurant sa sécurité par le port d'un capteur. Cependant le port du capteur en permanence par le sujet est peu confortable et contraignant. C'est pourquoi la recherche s’est récemment intéressée à l’utilisation de caméras au lieu de capteurs portables. Le but de ce projet est de démontrer que l'utilisation d'un dispositif de vidéosurveillance peut contribuer à la réduction de ce fléau. Dans ce document nous présentons une approche de détection automatique de chute, basée sur une méthode de suivi 3D du sujet en utilisant une caméra de profondeur (Kinect de Microsoft) positionnée à la verticale du sol. Ce suivi est réalisé en utilisant la silhouette extraite en temps réel avec une approche robuste d’extraction de fond 3D basée sur la variation de profondeur des pixels dans la scène. Cette méthode se fondera sur une initialisation par une capture de la scène sans aucun sujet. Une fois la silhouette extraite, les 10% de la silhouette correspondant à la zone la plus haute de la silhouette (la plus proche de l'objectif de la Kinect) sera analysée en temps réel selon la vitesse et la position de son centre de gravité. Ces critères permettront donc après analyse de détecter la chute, puis d'émettre un signal (courrier ou texto) vers l'individu ou à l’autorité en charge de la personne âgée. Cette méthode a été validée à l’aide de plusieurs vidéos de chutes simulées par un cascadeur. La position de la caméra et son information de profondeur réduisent de façon considérable les risques de fausses alarmes de chute. Positionnée verticalement au sol, la caméra permet donc d'analyser la scène et surtout de procéder au suivi de la silhouette sans occultation majeure, qui conduisent dans certains cas à des fausses alertes. En outre les différents critères de détection de chute, sont des caractéristiques fiables pour différencier la chute d'une personne, d'un accroupissement ou d'une position assise. Néanmoins l'angle de vue de la caméra demeure un problème car il n'est pas assez grand pour couvrir une surface conséquente. Une solution à ce dilemme serait de fixer une lentille sur l'objectif de la Kinect permettant l’élargissement de la zone surveillée.
Resumo:
La présente étude examine une des difficultés que soulève la résolution du contrat de vente en droit africain des affaires. L'Organisation pour l'Harmonisation en Afrique du Droit des Affaires (OHADA) créée par le Traité du 17 octobre 1993 organise les règles communautaires relatives à la résolution du contrat de vente. Le Livre VIII de l’Acte uniforme OHADA portant sur le Droit commercial Général a été adopté le 15 décembre 2010 et a abrogé l’Acte du 17 avril 1997. Selon l’article 281 de l’Acte uniforme, la résolution du contrat de vente ne survient que lors de l’inexécution totale ou partielle de l’obligation du cocontractant. Notre étude visera à évaluer les conséquences dans le droit de la vente OHADA de la substitution du critère de privation substantielle par celui de la gravité du comportement du débiteur justifiant une résolution unilatérale du contrat. Cette nouvelle position du droit de la vente OHADA se démarque dans une certaine mesure du droit matériel uniforme et rejoint un courant adapté aux impératifs socioéconomiques du commerce tant régional qu’international. En outre la partie lésée devra déterminer la gravité du comportement du débiteur au risque de voir sa demande sanctionnée pour défaut de droit et donner lieu à des dommages intérêts à l’autre partie. En effet, avec pour optique la nécessité de sauvegarder le contrat au nom du principe favor contractus, comment le juge détermine a posteriori si la gravité du comportement du cocontractant est suffisante pour anéantir le contrat? Ce nouveau critère de la gravité du comportement du cocontractant en droit de la vente OHADA vient supplanter le critère de la privation substantielle et fait cohabiter la traditionnelle résolution judiciaire avec celle de la résolution unilatérale dont les contours demeurent incertains. Les cas d’ouvertures liés à la résolution du contrat de vente OHADA pour inexécution des obligations fondamentales ou accessoires seront passés au crible de même que leurs effets sur les parties. Dans une approche comparatiste avec la Convention de Vienne et les règles de codifications privés telles que les Principes UNIDROIT ou du Droit Européen des Contrats il y a lieu de s’interroger sur la mise en œuvre et les conséquences de la résolution du contrat de vente OHADA par l’inexécution de l’obligation d’une des parties due à un manquement essentiel d’une part et à la gravité du comportement du débiteur d’autre part.
Resumo:
Cette recherche porte sur les conséquences sociales, au Québec, de la maladie cœliaque et des allergies alimentaires. Elle vise à expliquer et comprendre comment la maladie cœliaque et les allergies alimentaires influencent les relations sociales, les activités sociales et les perceptions des personnes qui vivent avec ces conditions, ainsi que celles de leurs proches. Pour ce faire, des entrevues semi-dirigées ont été effectuées auprès de 11 participants qui étaient soit cœliaque, allergique ou membre de l’entourage. Durant ces entrevues, il a été question de diagnostic, d’accidents alimentaires, d’accessibilité, d’activités amicales, de la réaction et de l’adaptation de la famille, de perceptions et de relations amoureuses. Une comparaison, entre les expériences des cœliaques et des allergiques, est réalisée suite à la description celles-ci. Les données d’entrevues ont été analysées avec le concept d’habitus de Bourdieu (1980), les concepts d’agency et de règles de Giddens (1979), les concepts d’exclusion et d’identité ainsi qu’avec les différentes définitions de la maladie et une échelle de gravité des perceptions. De cette recherche, on notera que les perceptions de la maladie sont différentes chez les cœliaques et les allergiques. La maladie cœliaque tend à être moins prise en charge par les professionnels de la santé et être considérée avec moins de sérieux, par les cœliaques et la population générale, que les allergies alimentaires. Les deux conditions amènent une modification de l’habitus et une période d’adaptation. Par contre, cet exercice semble être plus difficile et complexe pour les cœliaques que les allergiques, dû à l’âge où la condition est découverte. Dépendant de la souplesse de l’habitus individuel et de groupe, la confrontation à cette reformulation de l’habitus se produira plus ou moins bien. Dans le cas où la confrontation prend une tangente négative, il en découlera une désapprobation sociale ou un déni personnel qui mènera à l’exclusion. La littérature indique généralement que la qualité de vie des cœliaques et des allergiques diminue progressivement avec le temps, entraînant des conséquences négatives au niveau social, émotif et physique. Mes participants semblent, toutefois, bien vivre avec leur condition respective puisqu’ils profitent d’un bon support de la part de leur entourage.
Resumo:
Suite à la découverte d’environ 2000 naines brunes au cours des deux dernières décennies, on commence à bien comprendre la physique de ces objets de masse intermédiaire entre les étoiles et les planètes. Malgré tout, les modèles d’atmosphère et d’évolution de ces objets peu massifs peinent toujours à reproduire fidèlement leurs caractéristiques pour les âges les plus jeunes. Ce travail propose la caractérisation de quatre compagnons de masse sous-stellaire (8-30 MJup) en orbite à grande séparation (300-900 UA) autour d'étoiles jeunes (5 Ma) de la région de formation Upper Scorpius. De nouveaux spectres (0,9-2,5 um) et de nouvelles mesures photométriques (YJHKsL') sont présentés et analysés, dans le but de déterminer la masse, température effective, luminosité et gravité de surface de ces compagnons, tout en évaluant la fidélité avec laquelle les spectres synthétiques tirés de deux modèles d’atmosphère récents reproduisent les spectres observés.
Resumo:
Les naines brunes sont des objets de masse intermédiaire entre celle nécessaire pour former une étoile et celle d'une planète. Les naines brunes sont classées, des plus chaudes aux plus froides, en types spectraux L, T et Y, caractérisés par une couleur J-K moyenne qui varie de 1.2 à 1.8 pour les étoiles de type L0 à L8, et de 1.8 à -0.5 pour les étoiles de type L8 à T8. Par ailleurs, la couleur J-K de certains types spectraux présente une dispersion de l'ordre d'une magnitude. Ce travail tente de faire la lumière sur la nature de cette grande dispersion, présente dans la couleur J-K des naines brunes de type L2. Les observations ont été réalisées avec la caméra infrarouge CPAPIR à l'Observatoire du Mont Mégantic. Nous avons ciblé un total de 22 naines brunes qui ont été observées en K, et 12 parmi celles-ci ont aussi été observées en J. Chacune des naines brunes a été calibrée à l'aide d'une étoile standard, ce qui rend nos résultats indépendants des données 2MASS. Nous observons une corrélation entre les couleurs J-K de nos données et de celles de 2MASS. Cela montre que la grande dispersion en J-K de nos données et des données 2MASS est due aux propriétés physiques des naines brunes et non à des erreurs observationnelles. L'examen des facteurs qui pourraient être responsables de cette grande dispersion, soit la classification spectrale, la métallicité, la gravité de surface, une binarité non résolue, la présence de nuages de condensats et la rotation, montre que la gravité de surface serait le facteur le plus susceptible d'être responsable de la grande dispersion des valeurs de J-K.
Resumo:
Le but de cette thèse est d’expliquer la délinquance prolifique de certains délinquants. Nous avançons la thèse que la délinquance prolifique s’explique par la formation plus fréquente de situations criminogènes. Ces situations réfèrent au moment où un délinquant entre en interaction avec une opportunité criminelle dans un contexte favorable au crime. Plus exactement, il s’agit du moment où le délinquant fait face à cette opportunité, mais où le crime n’a pas encore été commis. La formation de situations criminogènes est facilitée par l’interaction et l’interdépendance de trois éléments : la propension à la délinquance de la personne, son entourage criminalisé et son style de vie. Ainsi, la délinquance prolifique ne pourrait être expliquée adéquatement sans tenir compte de l’interaction entre le risque individuel et le risque contextuel. L’objectif général de la présente thèse est de faire la démonstration de l’importance d’une modélisation interactionnelle entre le risque individuel et le risque contextuel afin d’expliquer la délinquance plus prolifique de certains contrevenants. Pour ce faire, 155 contrevenants placés sous la responsabilité de deux établissements des Services correctionnels du Québec et de quatre centres jeunesse du Québec ont complété un protocole d’évaluation par questionnaires auto-administrés. Dans un premier temps (chapitre trois), nous avons décrit et comparé la nature de la délinquance autorévélée des contrevenants de notre échantillon. Ce premier chapitre de résultats a permis de mettre en valeur le fait que ce bassin de contrevenants est similaire à d’autres échantillons de délinquants en ce qui a trait à la nature de leur délinquance, plus particulièrement, au volume, à la variété et à la gravité de leurs crimes. En effet, la majorité des participants rapportent un volume faible de crimes contre la personne et contre les biens alors qu’un petit groupe se démarque par un lambda très élevé (13,1 % des délinquants de l’échantillon sont responsables de 60,3% de tous les crimes rapportés). Environ quatre délinquants sur cinq rapportent avoir commis au moins un crime contre la personne et un crime contre les biens. De plus, plus de 50% de ces derniers rapportent dans au moins quatre sous-catégories. Finalement, bien que les délinquants de notre échantillon aient un IGC (indice de gravité de la criminalité) moyen relativement faible (médiane = 77), près de 40% des contrevenants rapportent avoir commis au moins un des deux crimes les plus graves recensés dans cette étude (décharger une arme et vol qualifié). Le second objectif spécifique était d’explorer, au chapitre quatre, l’interaction entre les caractéristiques personnelles, l’entourage et le style de vie des délinquants dans la formation de situations criminogènes. Les personnes ayant une propension à la délinquance plus élevée semblent avoir tendance à être davantage entourées de personnes criminalisées et à avoir un style de vie plus oisif. L’entourage criminalisé semble également influencer le style de vie de ces délinquants. Ainsi, l’interdépendance entre ces trois éléments facilite la formation plus fréquente de situations criminogènes et crée une conjoncture propice à l’émergence de la délinquance prolifique. Le dernier objectif spécifique de la thèse, qui a été couvert dans le chapitre cinq, était d’analyser l’impact de la formation de situations criminogènes sur la nature de la délinquance. Les analyses de régression linéaires multiples et les arbres de régression ont permis de souligner la contribution des caractéristiques personnelles, de l’entourage et du style de vie dans l’explication de la nature de la délinquance. D’un côté, les analyses de régression (modèles additifs) suggèrent que l’ensemble des éléments favorisant la formation de situations criminogènes apporte une contribution unique à l’explication de la délinquance. D’un autre côté, les arbres de régression nous ont permis de mieux comprendre l’interaction entre les éléments dans l’explication de la délinquance prolifique. En effet, un positionnement plus faible sur certains éléments peut être compensé par un positionnement plus élevé sur d’autres. De plus, l’accumulation d’éléments favorisant la formation de situations criminogènes ne se fait pas de façon linéaire. Ces conclusions sont appuyées sur des proportions de variance expliquée plus élevées que celles des régressions linéaires multiples. En conclusion, mettre l’accent que sur un seul élément (la personne et sa propension à la délinquance ou le contexte et ses opportunités) ou leur combinaison de façon simplement additive ne permet pas de rendre justice à la complexité de l’émergence de la délinquance prolifique. En mettant à l’épreuve empiriquement cette idée généralement admise, cette thèse permet donc de souligner l’importance de considérer l’interaction entre le risque individuel et le risque contextuel dans l’explication de la délinquance prolifique.
Resumo:
Avec la mise en place dans les dernières années d'une grappe d'ordinateurs (CALYS) dédiés aux calculs de modèles stellaires pour notre groupe de recherche, il nous est désormais possible d'exploiter à leur plein potentiel les modèles d'atmosphères hors équilibre thermodynamique local (HETL) en y incluant des éléments métalliques. Ce type de modèles, plutôt exigeant en temps de calcul, est toutefois essentiel pour analyser correctement les spectres d'étoiles chaudes comme les sous-naines de type O (sdO). Les travaux effectués dans le cadre de cette thèse ont comme point commun l'utilisation de tels modèles d'atmosphères pour faire l'analyse spectroscopique d'étoiles sous-naines chaudes dans des contextes variés. Le coeur de cette thèse porte sur Bd+28 4211, une étoile standard de type sdO très chaude, dans laquelle le problème des raies de Balmer, qui empêche de reproduire ces dernières avec une unique, et réaliste, combinaison de paramètres atmosphériques, est bien présent. Dans un premier temps nous présentons une analyse approfondie de son spectre ultraviolet (UV). Cela nous permet de déterminer les abondances de métaux dans l'atmosphère de l'étoile et de contraindre sa température effective et sa gravité de surface. Par la suite, ces résultats servent de point de départ à l'analyse du spectre optique de l'étoile, dans lequel le problème des raies de Balmer se fait sentir. Cette analyse nous permet de conclure que l'inclusion des abondances métalliques propres à l'étoile dans les modèles d'atmosphères HETL n'est pas suffisant pour surmonter le problème des raies de Balmer. Toutefois, en y incluant des abondances dix fois solaires, nous arrivons à reproduire correctement les raies de Balmer et d'hélium présentes dans les spectres visibles lors d'un ajustement de paramètres. De plus, les paramètres résultants concordent avec ceux indiqués par le spectre UV. Nous concluons que des sources d'opacité encore inconnues ou mal modélisées sont à la source de ce problème endémique aux étoiles chaudes. Par la suite nous faisons une étude spectroscopique de Feige 48, une étoile de type sdB pulsante particulièrement importante. Nous arrivons à reproduire très bien le spectre visible de cette étoile, incluant les nombreuses raies métalliques qui s'y trouvent. Les paramètres fondamentaux obtenus pour Feige 48 corroborent ceux déjà présents dans la littérature, qui ont été obtenus avec des types de modèles d'atmosphères moins sophistiqués, ce qui implique que les effets HETL couplés à la présence de métaux ne sont pas importants dans l'atmosphère de cette étoile particulière. Nous pouvons donc affirmer que les paramètres de cette étoile sont fiables et peuvent servir de base à une future étude astérosismologique quantitative. Finalement, 38 étoiles sous-naines chaudes appartenant à l'amas globulaire omega Centauri ont été analysées afin de déterminer, outre leur température et gravité de surface, leurs abondances d'hélium et de carbone. Nous montrons qu'il existe une corrélation entre les abondances photosphériques de ces deux éléments. Nous trouvons aussi des différences entre les étoiles riches en hélium de l'amas du celles du champ. Dans leur ensemble, nos résultats remettent en question notre compréhension du mécanisme de formation des sous-naines riches en hélium.
Resumo:
Les étoiles naines blanches représentent la fin de l’évolution de 97% des étoiles de notre galaxie, dont notre Soleil. L’étude des propriétés globales de ces étoiles (distribution en température, distribution de masse, fonction de luminosité, etc.) requiert l’élaboration d’ensembles statistiquement complets et bien définis. Bien que plusieurs relevés d’étoiles naines blanches existent dans la littérature, la plupart de ceux-ci souffrent de biais statistiques importants pour ce genre d’analyse. L’échantillon le plus représentatif de la population d’étoiles naines blanches demeure à ce jour celui défini dans un volume complet, restreint à l’environnement immédiat du Soleil, soit à une distance de 20 pc (∼ 65 années-lumière) de celui-ci. Malheureusement, comme les naines blanches sont des étoiles intrinsèquement peu lumineuses, cet échantillon ne contient que ∼ 130 objets, compromettant ainsi toute étude statistique significative. Le but de notre étude est de recenser la population d’étoiles naines blanches dans le voisinage solaire a une distance de 40 pc, soit un volume huit fois plus grand. Nous avons ainsi entrepris de répertorier toutes les étoiles naines blanches à moins de 40 pc du Soleil à partir de SUPERBLINK, un vaste catalogue contenant le mouvement propre et les données photométriques de plus de 2 millions d’étoiles. Notre approche est basée sur la méthode des mouvements propres réduits qui permet d’isoler les étoiles naines blanches des autres populations stellaires. Les distances de toutes les candidates naines blanches sont estimées à l’aide de relations couleur-magnitude théoriques afin d’identifier les objets se situant à moins de 40 pc du Soleil, dans l’hémisphère nord. La confirmation spectroscopique du statut de naine blanche de nos ∼ 1100 candidates a ensuite requis 15 missions d’observations astronomiques sur trois grands télescopes à Kitt Peak en Arizona, ainsi qu’une soixantaine d’heures allouées sur les télescopes de 8 m des observatoires Gemini Nord et Sud. Nous avons ainsi découvert 322 nouvelles étoiles naines blanches de plusieurs types spectraux différents, dont 173 sont à moins de 40 pc, soit une augmentation de 40% du nombre de naines blanches connues à l’intérieur de ce volume. Parmi ces nouvelles naines blanches, 4 se trouvent probablement à moins de 20 pc du Soleil. De plus, nous démontrons que notre technique est très efficace pour identifier les étoiles naines blanches dans la région peuplée du plan de la Galaxie. Nous présentons ensuite une analyse spectroscopique et photométrique détaillée de notre échantillon à l’aide de modèles d’atmosphère afin de déterminer les propriétés physiques de ces étoiles, notamment la température, la gravité de surface et la composition chimique. Notre analyse statistique de ces propriétés, basée sur un échantillon presque trois fois plus grand que celui à 20 pc, révèle que nous avons identifié avec succès les étoiles les plus massives, et donc les moins lumineuses, de cette population qui sont souvent absentes de la plupart des relevés publiés. Nous avons également identifié plusieurs naines blanches très froides, et donc potentiellement très vieilles, qui nous permettent de mieux définir le côté froid de la fonction de luminosité, et éventuellement l’âge du disque de la Galaxie. Finalement, nous avons aussi découvert plusieurs objets d’intérêt astrophysique, dont deux nouvelles étoiles naines blanches variables de type ZZ Ceti, plusieurs naines blanches magnétiques, ainsi que de nombreux systèmes binaires non résolus.
Resumo:
Une des caractéristiques fondamentales des policiers et des agents correctionnels est le recours légitime à la coercition pour imposer leur autorité. Cette force publique doit donc, en théorie, avoir le dessus sur toute forme de force privée. Dans l’étude des phénomènes de violence, cette caractéristique rend leur victimisation singulière. À ce jour, les formes d’influence, de pressions indues et d’intimidation vécus par les agents de la force publique demeurent relativement peu étudiées. Les objectifs de cette thèse sont d’améliorer notre compréhension des dynamiques d’intimidation, de soulever les différents enjeux pour la force publique et de proposer une théorie de l’intimidation criminelle. La force publique étant, avant toute chose, une émanation de l’État, nous avons commencé par analyser la problématique de l’intimidation criminelle de manière plus globale. En testant la théorie de l’action de sécurité (Cusson, 2010), nous avons constaté qu’une force publique intimidée et corrompue entraîne une perte de légitimité et une inefficacité du système judiciaire dans sa lutte contre la criminalité. Nous avons ensuite adopté une perspective interactionniste pour comprendre les dynamiques d’intimidation au quotidien. Nous nous sommes demandés quels étaient les éléments qui rendaient une intimidation crédible et grave pour les policiers. En identifiant leur monde d’objets (Blumer, 1986), nous avons constaté que les actes d’intimidation qui survenaient en dehors du cadre professionnel étaient jugés plus graves par les policiers et que l’appartenance de l’intimidateur à une organisation criminelle entraînait une augmentation de la gravité de la menace. Ensuite, nous nous sommes interrogés sur la notion d’identité sociale des agents correctionnels victimes d’intimidation (Tedeschi et Felson, 1994). Nous avons constaté que les intimidations mineures mais répétées avaient tendance à modifier les pratiques professionnelles des surveillants. Une analyse intégrée de ces perspectives met en lumière l’existence de deux formes d’intimidation : une intimidation réactive et peu sévère en nature et une intimidation planifiée et grave. Elle soulève également trois enjeux pour la force publique : son aspect symbolique, la transformation de son action et sa légitimité. En intégrant ces enjeux, une théorie de l’intimidation criminelle est proposée. En dernier lieu, des solutions préventives et répressives sont avancées pour lutter contre ce phénomène.