219 resultados para Modèle de Poisson avec chocs communs
Resumo:
La recherche sur l’utilisation des connaissances issues de la recherche (CIR) est en pleine expansion. Plusieurs études ont montré que l’utilisation des CIR contribue à améliorer la réussite scolaire des élèves. Toutefois, il semble que les enseignants les utilisent très peu. Pour améliorer cette utilisation, il est nécessaire de développer un modèle explicatif de l’utilisation des connaissances issues de la recherche. Ce modèle permet de rendre compte des mécanismes menant à l’utilisation des connaissances issues de la recherche en milieu de pratique. Il permet également de mettre en évidence les facteurs les plus influents et l’agencement de ces différents facteurs dans le but de favoriser une meilleure utilisation des connaissances issues de la recherche. Ce dernier aspect constitue l’objectif principal de cette thèse pour le domaine spécifique de l’éducation. Pour ce faire, un questionnaire sur l’utilisation des connaissances issues de la recherche (QUC) est validé et un modèle est proposé. Le premier article de la thèse examine la fiabilité, la validité et la structure factorielle du QUC avec un échantillon francophone et anglophone d’un milieu défavorisé. Le QUC, composé de 43 items, mesure six dimensions, soit : l’utilisation des connaissances issues de la recherche, le contexte organisationnel, la stratégie de soutien, l’opinion des utilisateurs et leur expertise ainsi que la fréquence d’accès aux sources des connaissances issues de la recherche. Au total, 2270 enseignants ont complété le questionnaire. Les résultats des différentes analyses montrent que le QUC doit être réduit à 20 items regroupés en cinq facteurs : l’utilisation des connaissances issues de la recherche, l’opinion des utilisateurs, la stratégie de soutien, l’expertise des utilisateurs et les facteurs organisationnels. Le second article de cette thèse examine quel modèle permet de mieux expliquer l’utilisation des CIR. Pour ce faire, deux modèles sont testés avec le même échantillon que dans le premier article, soit un modèle de liens directs et un modèle avec médiation. Pour le premier modèle, un lien direct entre l’utilisation des connaissances issues de la recherche et les facteurs qui favorisent cette utilisation est postulé : l’expertise, l’opinion, la stratégie de soutien et le facteur organisationnel auront des liens directs avec l’utilisation des connaissances issues de la recherche. Le second modèle (modèle avec médiation) se base quant à lui sur les théories de l’action raisonnée et du comportement planifié et postule que le lien entre les facteurs et l’utilisation n’est pas direct; certains facteurs ont des effets directs et d’autres des effets indirects. Concrètement, ce second modèle postule que l’expertise et l’opinion agissent comme médiateurs entre, d’une part, les deux variables indépendantes (le facteur organisationnel et la stratégie de soutien), et, d’autre part, la variable dépendante (l’utilisation des connaissances issues de la recherche). Les résultats des analyses montrent que le modèle avec médiation permet de mieux comprendre l’utilisation des connaissances issues de la recherche. Cette étude a permis de valider un questionnaire sur l’utilisation des connaissances issues de la recherche et aboutit à la proposition d’un modèle qui permet d’expliquer l’utilisation des connaissances issues de la recherche spécialement conçu pour le domaine de l’éducation. Elle fournit des outils (un questionnaire validé et un modèle) qui permettent de mieux cerner le paradigme de l’utilisation des connaissances issues de la recherche, ce qui pourrait favoriser une plus grande utilisation des CIR par les intervenants scolaires. En effet, les résultats de cette recherche peuvent guider les décideurs dans l’implantation des programmes menant à l’utilisation des connaissances issues de la recherche qui s’adressent aux enseignants. Ces résultats indiquent sur quels facteurs agir en premier lieu afin d’améliorer l’utilisation des CIR chez les enseignants du secondaire dans les milieux défavorisés. Le présent modèle pourrait être utilisé dans d’autres milieux scolaires (par exemple les milieux non défavorisés ou les milieux scolaires primaires) après validation.
Resumo:
Ce mémoire consiste en une reproduction et une extension du Modèle Confluent de l’Agression Sexuelle (MCAS) de Neil Malamuth. Le MCAS est un des seuls modèles développementaux de l’agression sexuelle d’hommes sur des femmes adultes à avoir été validé empiriquement. Dans ce modèle, deux trajectoires (la promiscuité sexuelle et la masculinité hostile) convergent et mènent à l’agression sexuelle. Pour la première fois, ce modèle est appliqué séparément à quatre paramètres de la carrière criminelle sexuelle (gravité, fréquence, précocité, spécialisation) au sein d’un échantillon d’agresseurs sexuels de femmes adultes judiciarisés (n=180). Les quatre modèles qui en résultent s’ajustent bien aux données. Tous les liens postulés dans le MCAS sont validés dans ce mémoire, à une exception. En effet, contrairement aux résultats obtenus par Malamuth, une seule des deux trajectoires du modèle présente un lien significatif avec chacun des paramètres de la carrière criminelle sexuelle à l’étude. La trajectoire de la promiscuité sexuelle est liée à la précocité et à la non-spécialisation (lien négatif avec la spécialisation) alors que la trajectoire de la masculinité hostile est associée à la gravité et à la fréquence. Ces résultats sont congruents avec une approche typologique des agresseurs sexuels de femmes adultes. Chacune des deux trajectoires du MCAS englobe des caractéristiques spécifiques à certains types de violeurs (opportunistes, colériques, sadiques) qui, pour leur part, se distinguent quant aux paramètres de leur carrière criminelle sexuelle.
Resumo:
Ce mémoire de maîtrise a pour objet une recherche de leptons lourds de quatrième génération avec les données prises par le détecteur ATLAS au LHC dans les collisions pp à $\sqrt{s}$ = 7 TeV et avec une luminosité intégrée de 1.02 fb$^{-1}$. Le processus étudié est la production au singulet de leptons lourds neutres de quatrième génération (N) par la voie du courant chargé suivi de la désintégration du celui-ci en un électron et un boson W : $ pp \to W \to N e \to e W e \to e e \nu_{\ell} \ell $ ($\ell$ = $e$ ou $\mu$), et dépend d'un paramètre de mélange $\xi^{2}$ avec un lepton léger. L'analyse passe par plusieurs étapes, soit l'utilisation de FeynRules pour construire le modèle pour ensuite générer des événements par MadGraph 5.1.2.4. Comme hypothèse de référence, on a choisi une masse de 100 GeV pour le lepton lourd neutre et $\xi_{Ne}^2$ = 0.19, donnant une section efficace de 0.312 pb pour une énergie au centre de masse de 7 TeV. Puisque la génération du signal s'est faite de manière privée à Montréal et non par la collaboration ATLAS, les résultats ne peuvent pas être reconnus officiellement. Sur la base de la simulation, avec des données correspondant à 1 fb$^{-1}$, la limite supérieure attendue à un niveau de confiance de $95\%$ sur la section efficace du signal est de 0.145 pb avec 0.294 pb pour un écart type($\sigma$) et 0.519 pb pour 2$\sigma$. La limite supérieure attendue à un niveau de confiance de $95\%$ sur $\xi_{Ne}^{2}$ de 0.09 pour une masse de 100 GeV.
Resumo:
Il est maintenant admis que la composition de la plaque athérosclérotique est un déterminant majeur de sa vulnérabilité à se rompre. Vu que la composition de la plaque affecte ses propriétés mécaniques, l'évaluation locale des propriétés mécaniques de la plaque d'athérome peut nous informer sur sa vulnérabilité. L'objectif est de comparer les techniques d’élastographie ultrasonores endovasculaire (EVE) et non-invasive (NIVE) en fonction de leur potentiel à identifier les composantes calcifiées et lipidiques de la plaque. Les acquisitions intravasculaire et extravasculaire ont été effectuées sur les artères carotidiennes de neuf porcs hypercholestérolémiques à l’aide d’un cathéter de 20 MHz et d'une sonde linéaire de 7.5 MHz, respectivement. Les valeurs de déformation radiale et axiale, rapportés par EVE et NIVE, ont été corrélées avec le pourcentage des zones histologiques calcifiées et lipidiques pour cinq plaques. Nos résultats démontrent une bonne corrélation positive entre les déformations et les composantes calcifiées (r2 = 0.82, P = 0.034 valeur par EVE et r2 = 0.80, P = 0.041 valeur par NIVE). Une forte corrélation entre les déformations axiales et les contenus lipidiques par NIVE (r2 = 0.92, P-value = 0.010) a été obtenue. En conclusion, NIVE et EVE sont des techniques potentielles pour identifier les composants de la plaque et aider les médecins à diagnostiquer précocement les plaques vulnérables.
Resumo:
Cette thèse doctorale poursuit l’objectif de mieux comprendre le rôle joué par la profession réglementée en tant que déterminant de la détresse psychologique de la population en emploi au Québec et au Canada. Ceci, dans un contexte où plusieurs ordres professionnels représentant des professions réglementées, s’inquiètent de la santé mentale de leurs membres et de la pression considérable exercée sur eux dans une économie caractérisée par des pénuries de main-d’oeuvre importantes. Cette thèse fut également inspirée par les nombreuses limites constatées à la suite d’une revue de la littérature sur la santé mentale au travail, alors que les risques différenciés auxquels seraient soumis ces professionnels, comparativement à l’ensemble de la population en emploi, demeurent largement à documenter. La profession réglementée s’associe-t-elle directement à l’expérience de détresse psychologique? Quelles sont les conditions de travail susceptibles de conduire au développement ou à l’aggravation de la détresse psychologique pour ces professions? Dans le but de mieux comprendre le rôle joué par la profession réglementée en matière de détresse psychologique, nous avons eu recours à un modèle théorique multidimensionnel qui postule que les contraintes et les ressources découlent d’un ensemble de structures sociales incluant la profession, le travail, la famille, le réseau social hors-travail et les caractéristiques personnelles. Ce modèle découle des théories micro et macro en sociologie (Alexander et al., 1987; Ritzer, 1996), de l’approche agent-structure(Archer, 1995; Giddens, 1987) ainsi que de la théorie du stress social (Pearlin,1999). Trois hypothèses sont soumises à l’étude à travers ce modèle. La première hypothèse, est à l’effet que la profession réglementée, les conditions de travail, la famille ainsi que le réseau social hors-travail et les caractéristiques individuelles, contribuent directement et conjointement à l’explication du niveau de détresse psychologique. La seconde hypothèse induite par le modèle proposé, pose que le milieu de travail médiatise la relation entre la profession réglementée et le niveau de détresse psychologique. La troisième et dernière hypothèse de recherche, postule enfin que la relation entre le milieu de travail et le niveau de détresse psychologique est modérée par les caractéristiques individuelles ainsi que par la famille et le réseau social hors-travail. Ces hypothèses de recherche furent testées à partir des données longitudinales de l’Enquête nationale sur la santé de la population (ENSP) (cycles 1 à 7). Les résultats obtenus sont présentés sous forme de 3 articles, soumis pour publication, lesquels constituent les chapitres 5 à 7 de cette thèse. Dans l’ensemble, le modèle théorique proposé obtient un soutien empirique important et tend à démontrer que la profession réglementée influence directement les chances de vivre de la détresse psychologique au fil du temps, ainsi que le niveau de détresse psychologique lui-même. Les résultats indiquent que les professions réglementées sont soumises à des risques différenciés en termes de conditions de travail susceptibles de susciter de la détresse psychologique. Notons également que la contribution du milieu de travail et de la profession réglementée s’exerce indépendamment des autres dimensions du modèle (famille, réseau social hors-travail, caractéristiques personnelles). Les résultats corroborent l’importance de considérer plusieurs dimensions de la vie d’un individu dans l’étude de la détresse psychologique et mettent à l’ordre du jour l’importance de développer de nouveaux modèles théoriques, mieux adaptés aux contextes de travail au sein desquels oeuvrent les travailleurs du savoir. Cette thèse conclue sur les implications de ces résultats pour la recherche, et sur les retombées qui en découlent pour le marché du travail ainsi que pour le développement futur du système professionnel québécois et canadien.
Resumo:
Cette thèse porte sur la capacité à détecter des compagnons de faible intensité en présence de bruit de tavelures dans le contexte de l’imagerie à haute gamme dynamique pour l’astronomie spatiale. On s’intéressera plus particulièrement à l’imagerie spectrale différentielle (ISD) obtenue en utilisant un étalon Fabry-Pérot comme filtre accordable. Les performances d’un tel filtre accordable sont présentées dans le cadre du Tunable Filter Imager (TFI), instrument conçu pour le télescope spatial James Webb (JWST). La capacité de l’étalon à supprimer les tavelures avec ISD est démontrée expérimentalement grâce à un prototype de l’étalon installé sur un banc de laboratoire. Les améliorations de contraste varient en fonction de la séparation, s’étendant d’un facteur 10 pour les séparations supérieures à 11 lambda/D jusqu’à un facteur 60 à 5 lambda/D. Ces résultats sont cohérents avec une étude théorique qui utilise un modèle basé sur la propagation de Fresnel pour montrer que les performances de suppression de tavelures sont limitées par le banc optique et non pas par l’étalon. De plus, il est démontré qu’un filtre accordable est une option séduisante pour l’imagerie à haute gamme dynamique combinée à la technique ISD. Une seconde étude basée sur la propagation de Fresnel de l’instrument TFI et du télescope, a permis de définir les performances de la technique ISD combinée avec un étalon pour l’astronomie spatiale. Les résultats prévoient une amélioration de contraste de l’ordre de 7 jusqu’à 100, selon la configuration de l’instrument. Une comparaison entre ISD et la soustraction par rotation a également été simulée. Enfin, la dernière partie de ce chapitre porte sur les performances de la technique ISD dans le cadre de l’instrument Near-Infrared Imager and Slitless Spectrograph (NIRISS), conçu pour remplacer TFI comme module scientifique à bord du Fine Guidance Sensor du JWST. Cent quatre objets localisés vers la région centrale de la nébuleuse d’Orion ont été caractérisés grâce à un spectrographe multi-objet, de basse résolution et multi-bande (0.85-2.4 um). Cette étude a relevé 7 nouvelles naines brunes et 4 nouveaux candidats de masse planétaire. Ces objets sont utiles pour déterminer la fonction de masse initiale sous-stellaire et pour évaluer les modèles atmosphériques et évolutifs futurs des jeunes objets stellaires et sous-stellaires. Combinant les magnitudes en bande H mesurées et les valeurs d’extinction, les objets classifiés sont utilisés pour créer un diagramme de Hertzsprung-Russell de cet amas stellaire. En accord avec des études antérieures, nos résultats montrent qu’il existe une seule époque de formation d’étoiles qui a débuté il y a environ 1 million d’années. La fonction de masse initiale qui en dérive est en accord avec des études antérieures portant sur d’autres amas jeunes et sur le disque galactique.
Resumo:
Cette thèse porte sur les phénomènes critiques survenant dans les modèles bidimensionnels sur réseau. Les résultats sont l'objet de deux articles : le premier porte sur la mesure d'exposants critiques décrivant des objets géométriques du réseau et, le second, sur la construction d'idempotents projetant sur des modules indécomposables de l'algèbre de Temperley-Lieb pour la chaîne de spins XXZ. Le premier article présente des expériences numériques Monte Carlo effectuées pour une famille de modèles de boucles en phase diluée. Baptisés "dilute loop models (DLM)", ceux-ci sont inspirés du modèle O(n) introduit par Nienhuis (1990). La famille est étiquetée par les entiers relativement premiers p et p' ainsi que par un paramètre d'anisotropie. Dans la limite thermodynamique, il est pressenti que le modèle DLM(p,p') soit décrit par une théorie logarithmique des champs conformes de charge centrale c(\kappa)=13-6(\kappa+1/\kappa), où \kappa=p/p' est lié à la fugacité du gaz de boucles \beta=-2\cos\pi/\kappa, pour toute valeur du paramètre d'anisotropie. Les mesures portent sur les exposants critiques représentant la loi d'échelle des objets géométriques suivants : l'interface, le périmètre externe et les liens rouges. L'algorithme Metropolis-Hastings employé, pour lequel nous avons introduit de nombreuses améliorations spécifiques aux modèles dilués, est détaillé. Un traitement statistique rigoureux des données permet des extrapolations coïncidant avec les prédictions théoriques à trois ou quatre chiffres significatifs, malgré des courbes d'extrapolation aux pentes abruptes. Le deuxième article porte sur la décomposition de l'espace de Hilbert \otimes^nC^2 sur lequel la chaîne XXZ de n spins 1/2 agit. La version étudiée ici (Pasquier et Saleur (1990)) est décrite par un hamiltonien H_{XXZ}(q) dépendant d'un paramètre q\in C^\times et s'exprimant comme une somme d'éléments de l'algèbre de Temperley-Lieb TL_n(q). Comme pour les modèles dilués, le spectre de la limite continue de H_{XXZ}(q) semble relié aux théories des champs conformes, le paramètre q déterminant la charge centrale. Les idempotents primitifs de End_{TL_n}\otimes^nC^2 sont obtenus, pour tout q, en termes d'éléments de l'algèbre quantique U_qsl_2 (ou d'une extension) par la dualité de Schur-Weyl quantique. Ces idempotents permettent de construire explicitement les TL_n-modules indécomposables de \otimes^nC^2. Ceux-ci sont tous irréductibles, sauf si q est une racine de l'unité. Cette exception est traitée séparément du cas où q est générique. Les problèmes résolus par ces articles nécessitent une grande variété de résultats et d'outils. Pour cette raison, la thèse comporte plusieurs chapitres préparatoires. Sa structure est la suivante. Le premier chapitre introduit certains concepts communs aux deux articles, notamment une description des phénomènes critiques et de la théorie des champs conformes. Le deuxième chapitre aborde brièvement la question des champs logarithmiques, l'évolution de Schramm-Loewner ainsi que l'algorithme de Metropolis-Hastings. Ces sujets sont nécessaires à la lecture de l'article "Geometric Exponents of Dilute Loop Models" au chapitre 3. Le quatrième chapitre présente les outils algébriques utilisés dans le deuxième article, "The idempotents of the TL_n-module \otimes^nC^2 in terms of elements of U_qsl_2", constituant le chapitre 5. La thèse conclut par un résumé des résultats importants et la proposition d'avenues de recherche qui en découlent.
Resumo:
Les collisions proton-proton produites par le LHC imposent un environnement radiatif hostile au détecteur ATLAS. Afin de quantifier les effets de cet environnement sur la performance du détecteur et la sécurité du personnel, plusieurs simulations Monte Carlo ont été réalisées. Toutefois, la mesure directe est indispensable pour suivre les taux de radiation dans ATLAS et aussi pour vérifier les prédictions des simulations. À cette fin, seize détecteurs ATLAS-MPX ont été installés à différents endroits dans les zones expérimentale et technique d'ATLAS. Ils sont composés d'un détecteur au silicium à pixels appelé MPX dont la surface active est partiellement recouverte de convertisseurs de neutrons thermiques, lents et rapides. Les détecteurs ATLAS-MPX mesurent en temps réel les champs de radiation en enregistrant les traces des particules détectées sous forme d'images matricielles. L'analyse des images acquises permet d'identifier les types des particules détectées à partir des formes de leurs traces. Dans ce but, un logiciel de reconnaissance de formes appelé MAFalda a été conçu. Étant donné que les traces des particules fortement ionisantes sont influencées par le partage de charge entre pixels adjacents, un modèle semi-empirique décrivant cet effet a été développé. Grâce à ce modèle, l'énergie des particules fortement ionisantes peut être estimée à partir de la taille de leurs traces. Les convertisseurs de neutrons qui couvrent chaque détecteur ATLAS-MPX forment six régions différentes. L'efficacité de chaque région à détecter les neutrons thermiques, lents et rapides a été déterminée par des mesures d'étalonnage avec des sources connues. L'étude de la réponse des détecteurs ATLAS-MPX à la radiation produite par les collisions frontales de protons à 7TeV dans le centre de masse a montré que le nombre de traces enregistrées est proportionnel à la luminosité du LHC. Ce résultat permet d'utiliser les détecteurs ATLAS-MPX comme moniteurs de luminosité. La méthode proposée pour mesurer et étalonner la luminosité absolue avec ces détecteurs est celle de van der Meer qui est basée sur les paramètres des faisceaux du LHC. Vu la corrélation entre la réponse des détecteurs ATLAS-MPX et la luminosité, les taux de radiation mesurés sont exprimés en termes de fluences de différents types de particules par unité de luminosité intégrée. Un écart significatif a été obtenu en comparant ces fluences avec celles prédites par GCALOR qui est l'une des simulations Monte Carlo du détecteur ATLAS. Par ailleurs, les mesures effectuées après l'arrêt des collisions proton-proton ont montré que les détecteurs ATLAS-MPX permettent d'observer la désintégration des isotopes radioactifs générés au cours des collisions. L'activation résiduelle des matériaux d'ATLAS peut être mesurée avec ces détecteurs grâce à un étalonnage en équivalent de dose ambiant.
Resumo:
Le mode vie autotrophique des plantes repose entièrement sur l’intégrité du chloroplaste et notamment l’étape de la biogénèse. La transcription des gènes chloroplastiques, assurée par une PEP (ARN polymérase encodée par le chloroplaste) et deux NEPs (ARN polymérase encodée par le noyau), est l’une des étapes primordiales dans le développement d’un chloroplaste photosynthétique. On distingue trois classes de gènes chloroplastiques : les gènes de classe I, transcrit par la PEP exclusivement; les gènes de classe II, transcrits par la PEP ou les NEPs; et les gènes de classe III, transcrits exclusivement par les NEPs. Pour assurer sa fonction, la PEP doit être associée à des facteurs sigmas. L’un de ceux-ci, la protéine SIG6, est un facteur sigma général et, associé à la PEP, assure la transcription de l’ensemble des gènes de classe I et II lors du développement du chloroplaste photosynthétique. Ainsi, le mutant sig6 présente un phénotype de cotylédons pâles, associé à un retard de biogénèse chloroplastique, ainsi qu’une diminution de la transcription des gènes de classe I, provoquant la diminution de la quantité de protéines de classe I. Dans le laboratoire, nous étudions les deux protéines WHIRLY chloroplastiques (WHY1 et WHY3) pour leur rôle dans le maintien de la stabilité génomique chloroplastique. Toutefois, peu de choses sont encore connues sur leur rôle potentiel dans la transcription ou la biogénèse chloroplastique. Par exemple, lorsque l’on tente de purifier la PEP, on obtient un gros complexe transcriptionnel nommé PTAC (Plastid Transcriptionally Active Chromosome) dans lequel sont retrouvées les deux protéines WHIRLY, suggérant qu’elles pourraient être impliquées dans la transcription chloroplastique. De plus, un possible rôle dans la biogénèse chloroplastique leur a été prêté, notamment chez le maïs. Dans cette étude, nous avons donc cherché à vérifier l’implication des protéines WHIRLY dans la biogénèse chloroplastique par une approche génétique de croisements entre les mutants sig6 et why1why3. Pour cela, nous avons isolé des doubles mutants sig6why1 et sig6why3, ainsi qu’un triple mutant sig6why1why3. À l’aide d’une caractérisation phénotypique et de la quantification de quelques protéines chloroplastiques, nous avons remarqué que la perte d’un des WHIRLY permet de complémenter le phénotype de cotylédons pâles du mutant sig6 et favorise l’expression normale de protéines en principe sous-exprimées dans le mutant sig6. Toutefois, la perte des deux WHIRLY ne permet pas de compenser le phénotype de cotylédons pâles et provoque l’apparition d’un phénotype persistant associé à une expression anormale des protéines chloroplastiques. Ces résultats ne peuvent être expliqués par le rôle des WHIRLY dans le maintien de la stabilité génomique chloroplastique étant donné que le triple mutant sig6why1why3 présente moins de réarrangements que le double mutant why1why3. Finalement, nous montrons que les effets de la perte d’un WHIRLY sur le mutant sig6 peuvent être mimés par l’utilisation de la rifampicine, une drogue inhibant l’ARN polymérase chloroplastique de type bactérienne (PEP). Ensemble, ces résultats démontrent donc l’implication des protéines WHIRLY chloroplastiques dans la biogénèse chloroplastique en association avec la protéine SIG6. Nous proposons un modèle selon lequel les deux protéines WHIRLY permettraient de favoriser l’activité de l’ARN polymérase de type bactérienne, notamment lors du développement du chloroplaste photosynthétique. En cas d’absence d’une des deux protéines, cette diminution partielle d’activité de la PEP favoriserait la mise en place d’un mécanisme de complémentation par le NEPs, permettant finalement de rétablir la biogénèse chloroplastique dans un mutant sig6. En l’absence des deux WHIRLY, le mécanisme de complémentation par les NEPs serait incapable de compenser la forte inhibition de la PEP, se traduisant par une aggravation du retard de développement du chloroplaste dans le mutant sig6.
Resumo:
Le caribou forestier est une espèce menacée au Canada, la principale hypothèse au déclin des populations étant l’intensification de la prédation provoquée par les perturbations anthropiques du paysage. Afin de faire face à cette situation, il est nécessaire d’étudier et comprendre l’impact de l’environnement sur les interactions prédateur-proies entre le caribou et le loup, ainsi qu’avec l’orignal, qui est sa principale proie alternative. Pour cela, cette thèse présente la conception d’un modèle centré sur l’individu des déplacements de ces trois espèces en fonction de leur environnement, dont résulteront les interactions prédateur-proies. Afin de permettre l’application de ce modèle sur de longues périodes, et donc pour un environnement changeant, une méthodologie a été développée, qui s’articule atour de deux aspects principaux. Tout d’abord, la notion de niveaux d’émergence est introduite, permettant d’ordonner les comportements observables du système selon leurs interdépendances, afin de choisir comme trait du modèle un com- portement correspondant au domaine d’applicabilité visé. Ordonner les comportements selon leurs niveaux d’émergence permet également d’identifier la redondance entre les patrons, qui peut être à l’origine d’un phénomène de sur-apprentissage lorsqu’ils sont utilisés lors de la calibration. Dans un second temps, un nouveau protocole pour la calibration et la validation du ou des traits choisis à l’aide des niveaux d’émergence, nommé réplication de système basé sur l’individu (Individual Based System Replication - IBSRtion) est également présenté. Ce protocole met l’emphase sur la modélisation directe, contrairement au principal protocole existant, la modélisation orientée patrons (Pattern Oriented Modelling - POM), et permet une approche empirique en générant artificiellement des données non disponibles ou ne pouvant être récoltées par des études de terrains. IBSRtion a également l’avantage de pouvoir être intégrée dans POM, afin de contribuer à la création d’une méthodologie universelle pour la conception de modèles centrés sur l’individu. Le processus de conception de ce modèle aura entre autre permis de faire une synthèse des connaissances et d’identifier certaines lacunes. Une étude visant à palier le manque de connaissances satisfaisantes sur les réponses comportementales à court-terme des proies face au risque de prédation a notamment permis d’observer que celles-ci sont une combinaison de comportements chroniques et éphémères, et que les mécanismes qui en sont à l’origine sont complexes et non-linéaires. Le résultat de ce travail est un modèle complexe utilisant de nombreux sous-modèles, et calibré de façon empirique, applicable à une grande variété d’environnements. Ce modèle a permis de tester l’impact de l’enfeuillement sur les relations prédateur-proies. Des simulations ont été effectuées pour différentes quantités d’enfeuillement, suivant deux configurations spatiales différentes. Les résultats de simulation suggèrent que des plans d’aménagement considérant également l’habitat de l’orignal pourraient être bénéfiques pour le caribou forestier, car ils permettraient d’améliorer la ségrégation spatiale entre les deux espèces, et donc entre le caribou et le loup. En le couplant avec un module de naissances et de morts naturelles ainsi qu’un modèle d’évolution du paysage, ce modèle permettra par la suite d’évaluer l’impact de plans d’aménagement forestier sur la viabilité des populations de caribou forestier.
Resumo:
Dans cette thèse, nous présentons une nouvelle méthode smoothed particle hydrodynamics (SPH) pour la résolution des équations de Navier-Stokes incompressibles, même en présence des forces singulières. Les termes de sources singulières sont traités d'une manière similaire à celle que l'on retrouve dans la méthode Immersed Boundary (IB) de Peskin (2002) ou de la méthode régularisée de Stokeslets (Cortez, 2001). Dans notre schéma numérique, nous mettons en oeuvre une méthode de projection sans pression de second ordre inspirée de Kim et Moin (1985). Ce schéma évite complètement les difficultés qui peuvent être rencontrées avec la prescription des conditions aux frontières de Neumann sur la pression. Nous présentons deux variantes de cette approche: l'une, Lagrangienne, qui est communément utilisée et l'autre, Eulerienne, car nous considérons simplement que les particules SPH sont des points de quadrature où les propriétés du fluide sont calculées, donc, ces points peuvent être laissés fixes dans le temps. Notre méthode SPH est d'abord testée à la résolution du problème de Poiseuille bidimensionnel entre deux plaques infinies et nous effectuons une analyse détaillée de l'erreur des calculs. Pour ce problème, les résultats sont similaires autant lorsque les particules SPH sont libres de se déplacer que lorsqu'elles sont fixes. Nous traitons, par ailleurs, du problème de la dynamique d'une membrane immergée dans un fluide visqueux et incompressible avec notre méthode SPH. La membrane est représentée par une spline cubique le long de laquelle la tension présente dans la membrane est calculée et transmise au fluide environnant. Les équations de Navier-Stokes, avec une force singulière issue de la membrane sont ensuite résolues pour déterminer la vitesse du fluide dans lequel est immergée la membrane. La vitesse du fluide, ainsi obtenue, est interpolée sur l'interface, afin de déterminer son déplacement. Nous discutons des avantages à maintenir les particules SPH fixes au lieu de les laisser libres de se déplacer. Nous appliquons ensuite notre méthode SPH à la simulation des écoulements confinés des solutions de polymères non dilués avec une interaction hydrodynamique et des forces d'exclusion de volume. Le point de départ de l'algorithme est le système couplé des équations de Langevin pour les polymères et le solvant (CLEPS) (voir par exemple Oono et Freed (1981) et Öttinger et Rabin (1989)) décrivant, dans le cas présent, les dynamiques microscopiques d'une solution de polymère en écoulement avec une représentation bille-ressort des macromolécules. Des tests numériques de certains écoulements dans des canaux bidimensionnels révèlent que l'utilisation de la méthode de projection d'ordre deux couplée à des points de quadrature SPH fixes conduit à un ordre de convergence de la vitesse qui est de deux et à une convergence d'ordre sensiblement égale à deux pour la pression, pourvu que la solution soit suffisamment lisse. Dans le cas des calculs à grandes échelles pour les altères et pour les chaînes de bille-ressort, un choix approprié du nombre de particules SPH en fonction du nombre des billes N permet, en l'absence des forces d'exclusion de volume, de montrer que le coût de notre algorithme est d'ordre O(N). Enfin, nous amorçons des calculs tridimensionnels avec notre modèle SPH. Dans cette optique, nous résolvons le problème de l'écoulement de Poiseuille tridimensionnel entre deux plaques parallèles infinies et le problème de l'écoulement de Poiseuille dans une conduite rectangulaire infiniment longue. De plus, nous simulons en dimension trois des écoulements confinés entre deux plaques infinies des solutions de polymères non diluées avec une interaction hydrodynamique et des forces d'exclusion de volume.
Resumo:
Ce texte se veut un document de présentation visant familiariser les différents auteurs ayant participé à l’étude « Étude de faisabilité : Modèle de fournisseur de services de dépôt électronique », commandée par le Bureau du Registraire de la Cour suprême du Canada en septembre 2002 avec la notion de dépôt électronique telle qu’envisagée par le gouvernement canadien. Il fait l’état d’un modèle conceptuel de marché de fournisseur de services de dépôt électronique (FSDE) normatif géré par le secteur privé afin de fournir des services de dépôt électronique sûrs et peu coûteux aux praticiens du droit au Canada. Ce modèle envisagé par les responsables du projet pourra, grâce à l’utilisation de la norme juridique XML Court Filing 1.0, fournir une plate-forme commune de dépôt électronique et de gestion des documents offrant une interface avec les systèmes de gestion des instances et de gestion des documents de chaque tribunal. Ces travaux ne constituent pas pour autant un endossement du modèle FSDE, mais plutôt un engagement d’étudier de façon complète et systématique une solution de rechange au dépôt électronique afin d’améliorer notre connaissance collective dans ce domaine.
Resumo:
"Des spécialistes de la Cour suprême du Canada et de la Cour fédérale du Canada, Bill MURRAY et Gary PINDER, ont entrepris d’explorer les moyens par lesquels ces institutions pourraient prendre le virage vers l’électronique pour leurs échanges et leur gestion de l’information. Deux projets ont initialement été présentés au programme Gouvernement en direct. Ces projets ont progressivement convergés jusqu’au point de n’en former qu’un seul, celui décrit dans le « Document de travail : Modèle de fournisseur de services de dépôt électronique ». Un document, avertissent ses auteurs, qui ne vise pas l’endossement d’un modèle particulier, mais plutôt l’identification des voies par lesquelles un système cohérent de dépôt électronique pourrait être mis en place au Canada. D'emblée, quatre éléments du modèle proposé apparaissent particulièrement remarquables : il offre un cadre d’ensemble plutôt qu’un projet isolé ; il s’appuie sur l’utilisation de normes techniques, « Standard as Key Enabler » écrivent-ils ; il met à profit l’entreprise privée, un partenaire capable de trouver les marchés et de les développer ; il prévoit enfin, et ce n’est pas le moindre de ses mérites, la création d’un environnement compétitif pour le dépôt électronique. Selon nous, la voie qu’ils ont tracée peut être empruntée. Ce n’est pas dire qu’il faille accepter, tels quels, tous les éléments du projet sans examiner d’autres orientations ou poursuivre certaines réflexions. Mais, dans l’ensemble, la direction est juste et nous devrions nous y engager. Nous avons choisi de suggérer des orientations, et elles convergent presque toujours avec celles adoptées par les auteurs du document de travail. Nous ne mentionnons ici que la plus centrale d’entre elles. Le projet de mettre en place un système cohérent de dépôt électronique confirme s’il était nécessaire le besoin maintes fois ressenti d’un conseil canadien de l’information juridique. Un tel conseil pourrait mener des consultations et procéder à l’adoption des normes techniques qui manquent aujourd’hui cruellement au monde juridique canadien. Le présent projet et la réflexion qu’il nous impose nous offrent peut-être l’occasion de nous doter de cet outil qui non seulement pourrait clarifier le cadre du dépôt électronique, mais aussi d’élaborer les autres normes et lignes de conduite nécessaires à notre domaine. Il reste à inviter la magistrature à examiner attentivement le projet avancé par MURRAY et PINDER. Il esquisse une approche audacieuse et nouvelle pour que nos institutions judiciaires évoluent vers une utilisation encore plus efficiente des nouveaux moyens technologiques. L’influence et l’appui éclairé de la magistrature sont essentiels au démarrage d’un tel projet. D’autres aussi auront à examiner les mérites du modèle proposé, notamment les responsables administratifs des grandes institutions judiciaires canadiennes, nous sommes certains qu’ils sauront eux aussi reconnaître les possibilités que recèle ce projet."
Resumo:
La doctrine politique, sociologique et juridique des quinze dernières années a souligné, à l’envi, avec parfois un certain excès d’enthousiasme, la naissance d’une ère postnationale, c’est-à-dire, en fait, la fin du modèle de l’État-nation tel que celui-ci se déploie en Occident d’abord depuis le XVIIIe siècle environ. Ce modèle contingent ne semble plus répondre aux multiples défis qui confrontent l’humanité et que constituent, parmi tant d’autres, l’environnement, la criminalité et le terrorisme, la régulation de la finance et du commerce international. À cet enthousiasme font écho une obstination du modèle et une croyance impérissable en la nation et en l’État avec lequel elle a fini par se confondre. Quoi qu’il en soit, il faut bien reconnaître que les signes d’un lent dépérissement du modèle de l’État-nation se vérifient dans l’examen et l’analyse des interdépendances nationales, de l’émergence de normativités anationales sous-tendant une activité débordante d’une société civile transnationale et de l’affirmation croissante du rôle des organisations internationales dans la gouvernance globale. Sans parler des travaux des organes gouvernementaux (commissions de valeurs mobilières, banques centrales, tribunaux, etc.) qui se constituent en réseaux transgouvernementaux et dont l’influence normative est loin d’être négligeable. Bref, au plan juridique, la souverainetéde l’État, qui doit lui assurer, selon la théorie, un monopole normatif indépassable – l’État seul dit le droit – se heurte aux réalités contemporaines qui semblent se concrétiser par une diffusion progressive des capacités de dire la norme, par un pluralisme de plus en plus affirmé.
Resumo:
Pour nombre de raisons, souvent liées à la nature sui generis de la construction européenne elle même, l'observateur extérieur qui tente de discerner l'action extérieure de l'UE ne peut être indifférent à cette dialectique qui la constamment caractérise. En effet, cinquante ans depuis sa création, il est frappant que de constater à quel point l'action extérieure de l'UE a été construite aux confins d'une dynamique aussi complexe qu'incertaine. D'une part, portée par son élan intégrateur, l'action extérieure de l'UE doit composer à la fois avec la résistance des États membres à renoncer à leurs compétences dans un domaine régalien par excellence que constitue la politique étrangère, et avec le besoin pressant pour l'UE de s'affirmer sur la scène internationale en tant qu'acteur global. D'autre part, guidée par l'impératif de la cohésion/cohérence, l'action extérieure de l'UE doit renouer avec l'efficacité afin de donner sens à sa raison d'être et, par là même, à rendre la voix de l'UE identifiable et audible.