928 resultados para Convention concernant le travail décent pour les travailleurs et travailleuses domestiques (n° 189)
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Thèse réalisée en cotutelle avec la direction de Jean-Jacques Courtine à l'Université de Paris III Sorbonne Nouvelle sous la discipline anthropologie et avec la direction de Dominique Deslandres à l'Université de Montréal sous la discipline histoire
Resumo:
Cette recherche part d’un double intérêt. Pour la spiritualité, dont on entend beaucoup parler dans un 21e siècle inquiet et en quête de nouveaux repères. Et pour le cinéma, ou 7e art, phénomène culturel phare des temps modernes, qui reflète abondamment les problématiques et questionnements du monde. À une époque où on observe une tendance à l’homogénéisation culturelle, résultat de la mondialisation économique, cette thèse traite du « cinéma transnational ». Elles aussi, les œuvres de ce cinéma traversent l’espace planétaire, mais tout en conservant un solide ancrage local et une singularité artistique. Ce sont en bonne partie les films que l’on retrouve dans les festivals internationaux, tels Cannes, Venise et Berlin. Le cinéma traduisant toutes les interrogations possibles du présent, plusieurs films apparaissent donc porteurs d’un questionnement à portée spirituelle. Et ce, avec des moyens non discursifs, propres à l’art cinématographique. Ils invitent aussi à la rencontre de l’autre. L’objectif de la thèse consiste à décrire comment, par l’analyse d’une douzaine de films transnationaux, on peut dégager de nouveaux concepts sur la façon avec laquelle se vit la spiritualité à notre époque, en relation avec l’autre, et pourquoi cette spiritualité s’accompagne nécessairement de considérations éthiques. Pour accomplir cette tâche, la thèse s’appuie sur les travaux de deux philosophes, Gilles Deleuze (France) et Stanley Cavell (États-Unis), qui ont marqué les études cinématographiques au cours des dernières décennies, par des approches jugées complémentaires pour cette recherche. Le premier a développé sa pensée à partir de ce qui distingue le cinéma des autres arts, et le second, à partir de l’importance du cinéma pour les spectateurs et les spectatrices. Enfin, la thèse se veut une théologie, ou pensée théologico-philosophique, indépendante d’une tradition religieuse et au diapason des réalités du 21e siècle.
Resumo:
Cette thèse se compose de trois articles sur les politiques budgétaires et monétaires optimales. Dans le premier article, J'étudie la détermination conjointe de la politique budgétaire et monétaire optimale dans un cadre néo-keynésien avec les marchés du travail frictionnels, de la monnaie et avec distortion des taux d'imposition du revenu du travail. Dans le premier article, je trouve que lorsque le pouvoir de négociation des travailleurs est faible, la politique Ramsey-optimale appelle à un taux optimal d'inflation annuel significativement plus élevé, au-delà de 9.5%, qui est aussi très volatile, au-delà de 7.4%. Le gouvernement Ramsey utilise l'inflation pour induire des fluctuations efficaces dans les marchés du travail, malgré le fait que l'évolution des prix est coûteuse et malgré la présence de la fiscalité du travail variant dans le temps. Les résultats quantitatifs montrent clairement que le planificateur s'appuie plus fortement sur l'inflation, pas sur l'impôts, pour lisser les distorsions dans l'économie au cours du cycle économique. En effet, il ya un compromis tout à fait clair entre le taux optimal de l'inflation et sa volatilité et le taux d'impôt sur le revenu optimal et sa variabilité. Le plus faible est le degré de rigidité des prix, le plus élevé sont le taux d'inflation optimal et la volatilité de l'inflation et le plus faible sont le taux d'impôt optimal sur le revenu et la volatilité de l'impôt sur le revenu. Pour dix fois plus petit degré de rigidité des prix, le taux d'inflation optimal et sa volatilité augmentent remarquablement, plus de 58% et 10%, respectivement, et le taux d'impôt optimal sur le revenu et sa volatilité déclinent de façon spectaculaire. Ces résultats sont d'une grande importance étant donné que dans les modèles frictionnels du marché du travail sans politique budgétaire et monnaie, ou dans les Nouveaux cadres keynésien même avec un riche éventail de rigidités réelles et nominales et un minuscule degré de rigidité des prix, la stabilité des prix semble être l'objectif central de la politique monétaire optimale. En l'absence de politique budgétaire et la demande de monnaie, le taux d'inflation optimal tombe très proche de zéro, avec une volatilité environ 97 pour cent moins, compatible avec la littérature. Dans le deuxième article, je montre comment les résultats quantitatifs impliquent que le pouvoir de négociation des travailleurs et les coûts de l'aide sociale de règles monétaires sont liées négativement. Autrement dit, le plus faible est le pouvoir de négociation des travailleurs, le plus grand sont les coûts sociaux des règles de politique monétaire. Toutefois, dans un contraste saisissant par rapport à la littérature, les règles qui régissent à la production et à l'étroitesse du marché du travail entraînent des coûts de bien-être considérablement plus faible que la règle de ciblage de l'inflation. C'est en particulier le cas pour la règle qui répond à l'étroitesse du marché du travail. Les coûts de l'aide sociale aussi baisse remarquablement en augmentant la taille du coefficient de production dans les règles monétaires. Mes résultats indiquent qu'en augmentant le pouvoir de négociation du travailleur au niveau Hosios ou plus, les coûts de l'aide sociale des trois règles monétaires diminuent significativement et la réponse à la production ou à la étroitesse du marché du travail n'entraîne plus une baisse des coûts de bien-être moindre que la règle de ciblage de l'inflation, qui est en ligne avec la littérature existante. Dans le troisième article, je montre d'abord que la règle Friedman dans un modèle monétaire avec une contrainte de type cash-in-advance pour les entreprises n’est pas optimale lorsque le gouvernement pour financer ses dépenses a accès à des taxes à distorsion sur la consommation. Je soutiens donc que, la règle Friedman en présence de ces taxes à distorsion est optimale si nous supposons un modèle avec travaie raw-efficace où seule le travaie raw est soumis à la contrainte de type cash-in-advance et la fonction d'utilité est homothétique dans deux types de main-d'oeuvre et séparable dans la consommation. Lorsque la fonction de production présente des rendements constants à l'échelle, contrairement au modèle des produits de trésorerie de crédit que les prix de ces deux produits sont les mêmes, la règle Friedman est optimal même lorsque les taux de salaire sont différents. Si la fonction de production des rendements d'échelle croissant ou decroissant, pour avoir l'optimalité de la règle Friedman, les taux de salaire doivent être égales.
Resumo:
Cette thèse développe des méthodes bootstrap pour les modèles à facteurs qui sont couram- ment utilisés pour générer des prévisions depuis l'article pionnier de Stock et Watson (2002) sur les indices de diffusion. Ces modèles tolèrent l'inclusion d'un grand nombre de variables macroéconomiques et financières comme prédicteurs, une caractéristique utile pour inclure di- verses informations disponibles aux agents économiques. Ma thèse propose donc des outils éco- nométriques qui améliorent l'inférence dans les modèles à facteurs utilisant des facteurs latents extraits d'un large panel de prédicteurs observés. Il est subdivisé en trois chapitres complémen- taires dont les deux premiers en collaboration avec Sílvia Gonçalves et Benoit Perron. Dans le premier article, nous étudions comment les méthodes bootstrap peuvent être utilisées pour faire de l'inférence dans les modèles de prévision pour un horizon de h périodes dans le futur. Pour ce faire, il examine l'inférence bootstrap dans un contexte de régression augmentée de facteurs où les erreurs pourraient être autocorrélées. Il généralise les résultats de Gonçalves et Perron (2014) et propose puis justifie deux approches basées sur les résidus : le block wild bootstrap et le dependent wild bootstrap. Nos simulations montrent une amélioration des taux de couverture des intervalles de confiance des coefficients estimés en utilisant ces approches comparativement à la théorie asymptotique et au wild bootstrap en présence de corrélation sérielle dans les erreurs de régression. Le deuxième chapitre propose des méthodes bootstrap pour la construction des intervalles de prévision permettant de relâcher l'hypothèse de normalité des innovations. Nous y propo- sons des intervalles de prédiction bootstrap pour une observation h périodes dans le futur et sa moyenne conditionnelle. Nous supposons que ces prévisions sont faites en utilisant un ensemble de facteurs extraits d'un large panel de variables. Parce que nous traitons ces facteurs comme latents, nos prévisions dépendent à la fois des facteurs estimés et les coefficients de régres- sion estimés. Sous des conditions de régularité, Bai et Ng (2006) ont proposé la construction d'intervalles asymptotiques sous l'hypothèse de Gaussianité des innovations. Le bootstrap nous permet de relâcher cette hypothèse et de construire des intervalles de prédiction valides sous des hypothèses plus générales. En outre, même en supposant la Gaussianité, le bootstrap conduit à des intervalles plus précis dans les cas où la dimension transversale est relativement faible car il prend en considération le biais de l'estimateur des moindres carrés ordinaires comme le montre une étude récente de Gonçalves et Perron (2014). Dans le troisième chapitre, nous suggérons des procédures de sélection convergentes pour les regressions augmentées de facteurs en échantillons finis. Nous démontrons premièrement que la méthode de validation croisée usuelle est non-convergente mais que sa généralisation, la validation croisée «leave-d-out» sélectionne le plus petit ensemble de facteurs estimés pour l'espace généré par les vraies facteurs. Le deuxième critère dont nous montrons également la validité généralise l'approximation bootstrap de Shao (1996) pour les regressions augmentées de facteurs. Les simulations montrent une amélioration de la probabilité de sélectionner par- cimonieusement les facteurs estimés comparativement aux méthodes de sélection disponibles. L'application empirique revisite la relation entre les facteurs macroéconomiques et financiers, et l'excès de rendement sur le marché boursier américain. Parmi les facteurs estimés à partir d'un large panel de données macroéconomiques et financières des États Unis, les facteurs fortement correlés aux écarts de taux d'intérêt et les facteurs de Fama-French ont un bon pouvoir prédictif pour les excès de rendement.
Resumo:
Cette thèse analyse les pratiques d’égalité entre les femmes et les hommes au sein des organisations non gouvernementales (ONG) maliennes qui ont reçu du financement canadien. En effet, l’aide publique au développement a subi des transformations majeures depuis les années 1950. L’une de ces transformations a été le rôle important joué par les ONG dans les années 1990, à la suite de l’adoption des politiques d’ajustements structurels et de la fin de la monopolisation par l’État en ce qui a trait à l’aide publique pour les projets de développement. Entre autres, les ONG ont été sollicitées pour promouvoir les politiques d’égalité entre hommes et femmes. L’importance des ONG dans l’aide publique au développement a créé des relations de dépendances vis-à-vis des bailleurs de fonds qui imposent des conditionnalités. Nos résultats ont montré que les bailleurs de fonds exigent l’égalité entre les sexes en ce qui concerne les bénéficiaires des programmes, mais, paradoxalement, ne l’exigent pas à l’intérieur des ONG et dans leurs ressources humaines. En analysant la composition du personnel de huit ONG maliennes, nos résultats montrent que 34 % du personnel sont des femmes alors que 66 % sont des hommes, ce qui démontre un déséquilibre assez important en matière de parité. Cependant, une analyse plus fine nous indique que les pratiques d’égalité entre femmes et hommes dans les structures et dans la gestion des ressources humaines diffèrent d’une ONG à une autre. Ces pratiques dépendent beaucoup de la volonté et des valeurs des gestionnaires. Notre recherche a fait ressortir plusieurs explications de cette disparité au niveau de l’emploi des femmes. Les raisons souvent mentionnées étaient : 1) la nécessité d’avoir du personnel compétent, 2) la conciliation famille-travail, 3) le contexte socioculturel, 4) l’interprétation de la religion musulmane en matière d’égalité. En effet, nos résultats ont démontré que sous l’influence des bailleurs de fonds les ONG se sont professionnalisées, que l’impact de la professionnalisation a été différent selon le genre et que celle-ci s’est faite aux dépens des femmes. Ainsi, certains gestionnaires, quel que soit leur sexe, préfèrent recruter plus d’hommes parce qu’ils les jugent plus compétents.Nos résultats confirment la théorie du plafond de verre qui met en exergue le fait que les femmes ont de la difficulté à accéder à des postes de responsabilité. Nos résultats ont aussi démontré qu’au Mali, le contexte socioculturel et la religion jouent un grand rôle dans les relations sociales et surtout en ce qui concerne la place des femmes au sein de la société.
Resumo:
Pour les partis politiques attachés à des idéaux pacifiques et internationalistes, comme les partis socialistes, la période de préparation à la Conférence mondiale du désarmement, soit entre 1925 et 1932, put paraître pleine de possibilités pour la réduction des armements nationaux. Bien que ces partis aient partagé un lien transnational, par leur adhésion à l’Internationale ouvrière socialiste, ils étaient avant tout des organisations évoluant dans des cadres nationaux différents. Ainsi, les positions qu’ils mirent de l’avant afin de convaincre leur électorat respectif ne purent être totalement semblables. Dans ce mémoire, le discours public, ainsi que les arguments le sous-tendant, de la SFIO et du Labour concernant le désarmement entre le 12 décembre 1925 et le 3 février 1932 est décrit, analysé et comparé. Les raisons du désarmement, les appréciations des développements sur la question autant dans le contexte de la SDN que dans les autres réunions internationales ainsi qu’au niveau strictement national pour les deux partis sont l’objet de cette étude. Il apparaît que la SFIO et le Labour ont présenté des arguments similaires afin de justifier le désarmement. De plus, bien qu’ils aient tous deux appuyé un potentiel rôle d’arbitrage pour la SDN, alors que les socialistes ont insisté sur leur rôle de lobbyistes, les travaillistes tablèrent plutôt sur les responsabilités des chefs d’État et des « grands hommes » dans le processus, tout particulièrement lorsque leur parti fut au pouvoir. Les travaillistes démontrèrent également une ouverture pour toute avancée du désarmement, même minime, alors que les socialistes préférèrent manifestement les ententes globales. Finalement, des approches nationales aux implications différentes furent promues : l’organisation de la nation en temps de guerre en France et la promotion d’un esprit de paix en Grande-Bretagne.
Resumo:
Cette thèse concerne la modélisation des interactions fluide-structure et les méthodes numériques qui s’y rattachent. De ce fait, la thèse est divisée en deux parties. La première partie concerne l’étude des interactions fluide-structure par la méthode des domaines fictifs. Dans cette contribution, le fluide est incompressible et laminaire et la structure est considérée rigide, qu’elle soit immobile ou en mouvement. Les outils que nous avons développés comportent la mise en oeuvre d’un algorithme fiable de résolution qui intégrera les deux domaines (fluide et solide) dans une formulation mixte. L’algorithme est basé sur des techniques de raffinement local adaptatif des maillages utilisés permettant de mieux séparer les éléments du milieu fluide de ceux du solide que ce soit en 2D ou en 3D. La seconde partie est l’étude des interactions mécaniques entre une structure flexible et un fluide incompressible. Dans cette contribution, nous proposons et analysons des méthodes numériques partitionnées pour la simulation de phénomènes d’interaction fluide-structure (IFS). Nous avons adopté à cet effet, la méthode dite «arbitrary Lagrangian-Eulerian» (ALE). La résolution fluide est effectuée itérativement à l’aide d’un schéma de type projection et la structure est modélisée par des modèles hyper élastiques en grandes déformations. Nous avons développé de nouvelles méthodes de mouvement de maillages pour aboutir à de grandes déformations de la structure. Enfin, une stratégie de complexification du problème d’IFS a été définie. La modélisation de la turbulence et des écoulements à surfaces libres ont été introduites et couplées à la résolution des équations de Navier-Stokes. Différentes simulations numériques sont présentées pour illustrer l’efficacité et la robustesse de l’algorithme. Les résultats numériques présentés attestent de la validité et l’efficacité des méthodes numériques développées.
Resumo:
Manger est un geste davantage relié aux sensations plutôt qu’aux cognitions. Les ateliers Les aventuriers du goût constituent l’objet de cette évaluation qui cible les enfants âgés de 5 à 7 ans en milieu scolaire dans la région de Sherbrooke. Les objectifs de l’étude sont de décrire 1) les effets des ateliers sur la reconnaissance des aliments, l’envie de goûter et le comportement alimentaire quant à la diversité du choix alimentaire, et de décrire 2) le comportement alimentaire des enfants tel que perçu par leurs parents. Un devis mixte d’évaluation comportant des observations faites avant et après les ateliers avec groupe témoin a été utilisé. Il en ressort que les ateliers ont favorisé la reconnaissance des aliments et l’attitude envers l’envie de goûter à de nouveaux aliments. L’éveil sensoriel au goût semble une avenue prometteuse pour favoriser la reconnaissance d’aliments, encourager la diversité ainsi que l’acquisition de saines habitudes alimentaires.
Resumo:
Le lessivage des nitrates, la contamination de la nappe phréatique et l’eutrophisation des cours d’eau figurent parmi les enjeux planétaires qui affectent la durabilité de l’agriculture et des ressources naturelles. Ce mémoire présente le développement d’une première génération d’un nouveau senseur électrochimique pour le dosage de précisions des nitrates. Celui-ci est basé sur la spectroscopie d’impédance électrochimique d’une membrane polymérique sélective aux ions. Grâce à cette approche, un senseur compact et abordable a été produit. Par son utilisation en solutions aqueuses et en substrats de croissance saturés, il a été montré que le senseur permettait de quantifier des ajouts contrôlés de nitrates allant de 0,6 ppm à 60 ppm. La mise en application en substrat de croissance a pu être étudiée en comparaison avec des méthodes certifiées ISO 17025 visant l’analyse de ces substrats. Le senseur a aussi montré une grande versatilité par son utilisation sur divers appareils de mesure d’impédance. En plus, il a démontré une stabilité possible suite à une implantation d’un mois directement en substrat de croissance sous les variables environnementales d’une pépinière forestière. Par l’étude du spectre d’impédance du senseur en solutions pures de différentes concentrations, il a aussi été possible de proposer le circuit électrique équivalent du système, qui met en évidence deux parcours compétitifs du courant, un au coeur de la membrane et un deuxième en solution. Les résultats de ces travaux sont au coeur de deux publications scientifiques dont le manuscrit est inclus à ce mémoire. Pour finir cette étude, des suggestions seront faites pour guider l’amélioration du senseur par le développement d’une deuxième génération de celui-ci.
Resumo:
Cette thèse est constituée de deux parties : Dans la première partie nous étudions l’existence de solutions périodiques, de periode donnée, et à variations bornées, de l’équation de van der Pol en présence d’impulsions. Nous étudions, en premier, le cas où les impulsions ne dépendent pas de l’état. Ensuite, nous considèrons le cas où les impulsions dépendent de la moyenne de l’état et enfin, nous traitons le cas général où les impulsions dépendent de l’état. La méthode de résolution est basée sur le principe de point fixe de type contraction. Nous nous intéressons ensuite à l’étude d’un problème avec trois points aux limites, associé à certaines équations différentielles impulsives du second ordre. Nous obtenons un premier résultat d’existence de solutions en appliquant le théorème de point fixe de Schaefer. Un deuxième résultat est obtenu en utilisant le théorème de point fixe de Sadovskii. Pour le résultat d’unicité des solutions nous appliquons, enfin, un théorème de point fixe de type contraction. La deuxième partie est consacrée à la justification de la technique de moyennisation dans le cadre des équations différentielles floues. Les conditions sur les données que nous imposons sont moins restrictives que celles de la littérature.
Resumo:
La compréhension et la modélisation de l’interaction de l’onde électromagnétique avec la neige sont très importantes pour l’application des technologies radars à des domaines tels que l’hydrologie et la climatologie. En plus de dépendre des propriétés de la neige, le signal radar mesuré dépendra aussi des caractéristiques du capteur et du sol. La compréhension et la quantification des différents processus de diffusion du signal dans un couvert nival s’effectuent à travers les théories de diffusions de l’onde électromagnétique. La neige, dans certaines conditions, peut être considérée comme un milieu dense lorsque les particules de glace qui la composent y occupent une fraction volumique considérable. Dans un tel milieu, les processus de diffusion par les particules ne se font plus de façon indépendante, mais de façon cohérente. L’approximation quasi-cristalline pour les milieux denses est une des théories élaborées afin de prendre en compte ces processus de diffusions cohérents. Son apport a été démontré dans de nombreuses études pour des fréquences > 10 GHz où l’épaisseur optique de la neige est importante et où la diffusion de volume est prédominante. Par contre, les capteurs satellitaires radar présentement disponibles utilisent les bandes L (1-2GHz), C (4-8GHz) et X (8-12GHz), à des fréquences principalement en deçà des 10 GHz. L’objectif de la présente étude est d’évaluer l’apport du modèle de diffusion issu de l’approximation quasi-cristalline pour les milieux denses (QCA/DMRT) dans la modélisation de couverts de neige sèches en bandes C et X. L’approche utilisée consiste à comparer la modélisation de couverts de neige sèches sous QCA/DMRT à la modélisation indépendante sous l’approximation de Rayleigh. La zone d’étude consiste en deux sites localisés sur des milieux agricoles, près de Lévis au Québec. Au total 9 champs sont échantillonnés sur les deux sites afin d’effectuer la modélisation. Dans un premier temps, une analyse comparative des paramètres du transfert radiatif entre les deux modèles de diffusion a été effectuée. Pour des paramètres de cohésion inférieurs à 0,15 à des fractions volumiques entre 0,1 et 0,3, le modèle QCA/DMRT présentait des différences par rapport à Rayleigh. Un coefficient de cohésion optimal a ensuite été déterminé pour la modélisation d’un couvert nival en bandes C et X. L’optimisation de ce paramètre a permis de conclure qu’un paramètre de cohésion de 0,1 était optimal pour notre jeu de données. Cette très faible valeur de paramètre de cohésion entraîne une augmentation des coefficients de diffusion et d’extinction pour QCA/DMRT ainsi que des différences avec les paramètres de Rayleigh. Puis, une analyse de l’influence des caractéristiques du couvert nival sur les différentes contributions du signal est réalisée pour les 2 bandes C et X. En bande C, le modèle de Rayleigh permettait de considérer la neige comme étant transparente au signal à des angles d’incidence inférieurs à 35°. Vu l’augmentation de l’extinction du signal sous QCA/DMRT, le signal en provenance du sol est atténué d’au moins 5% sur l’ensemble des angles d’incidence, à de faibles fractions volumiques et fortes tailles de grains de neige, nous empêchant ainsi de considérer la transparence de la neige au signal micro-onde sous QCA/DMRT en bande C. En bande X, l’augmentation significative des coefficients de diffusion par rapport à la bande C, ne nous permet plus d’ignorer l’extinction du signal. La part occupée par la rétrodiffusion de volume peut dans certaines conditions, devenir la part prépondérante dans la rétrodiffusion totale. Pour terminer, les résultats de la modélisation de couverts de neige sous QCA/DMRT sont validés à l’aide de données RADARSAT-2 et TerraSAR-X. Les deux modèles présentaient des rétrodiffusions totales semblables qui concordaient bien avec les données RADARSAT-2 et TerraSAR-X. Pour RADARSAT-2, le RMSE du modèle QCA/DMRT est de 2,52 dB en HH et 2,92 dB en VV et pour Rayleigh il est de 2,64 dB en HH et 3,01 dB en VV. Pour ce qui est de TerraSAR-X, le RMSE du modèle QCA/DMRT allait de 1,88 dB en HH à 2,32 dB en VV et de 2,20 dB en HH à 2,71 dB en VV pour Rayleigh. Les valeurs de rétrodiffusion totales des deux modèles sont assez similaires. Par contre, les principales différences entre les deux modèles sont bien évidentes dans la répartition des différentes contributions de cette rétrodiffusion totale.
Resumo:
Le caribou de Peary est l’unité désignable du caribou la plus septentrionale ; sa population a chuté d’environ 70% au cours des trois dernières générations. Le Comité sur la situation des espèces en péril au Canada (COSEPAC) identifie les conditions difficiles d’accès à la nourriture à travers le couvert nival comme le facteur le plus influant contribuant à ce déclin. Cette étude se concentre sur l’établissement d’un outil spatial de caractérisation des conditions nivales pour l’accès à la nourriture du caribou de Peary dans le Nord canadien, utilisant des simulations du couvert nival générées avec le logiciel suisse SNOWPACK à partir des données du Modèle Régional Climatique Canadien. Le cycle de vie du caribou de Peary a été divisé en trois périodes critiques : la période de mise bas et de migration printanière (avril – juin), celle d’abondance de nourriture et de rut (juillet – octobre) et celle de migration automnale et de survie des jeunes caribous (novembre – mars). Les conditions nivales sont analysées et les simulations du couvert nival comparées aux comptes insulaires de caribous de Peary pour identifier un paramètre nival qui agirait comme prédicateur des conditions d’accès à la nourriture et expliquerait les fluctuations des comptes de caribous. Cette analyse conclue que ces comptes sont affectés par des densités de neige au-dessus de 300 kg/m³. Un outil logiciel cartographiant à une échelle régionale (dans l’archipel arctique canadien) les conditions d’accès à la nourriture possiblement favorables et non favorables basées sur la neige est proposé. Des exemples spécifiques de sorties sont données pour montrer l’utilité de l’outil, en cartographiant les pixels selon l’épaisseur cumulée de neige au-dessus de densités de 300 kg/m³, où des épaisseurs cumulées au-dessus de 7000 cm par hiver sont considérées comme non favorables pour le caribou de Peary.
Resumo:
Les élèves vivant dans la crainte d’être victimisés par leurs pairs peuvent se comporter de différentes façons, notamment en évitant de se rendre à l’école ou encore en imaginant différents moyens d’autoprotection (ex., apporter divers objets potentiellement dangereux à l’école). L’objectif de ce mémoire est de vérifier s’il existe des liens entre la victimisation par les pairs et le fait d’apporter des objets potentiellement dangereux et pouvant servir d’arme à l’école. L’échantillon est composé de 28 015 élèves de la première à la cinquième secondaire (12 à 17 ans) en provenance des écoles secondaires publiques du Québec. Les participants ont rempli le Questionnaire sur la Sécurité et la Violence à l’école Révisé (QSVE-R) visant à dresser le portrait de la violence dans les établissements scolaires du Québec. Les résultats démontrent que 5,1 % des élèves, davantage de garçons (8,2 %) que de filles (2,1 %) disent avoir déjà apporté un objet potentiellement dangereux à l’école. Le risque d’apporter ces objets augmente avec l’âge et c’est le couteau qui est l’objet le plus populaire auprès des répondants. L’étude confirme l’influence de la victimisation de type direct (insultes-menaces et agressions physiques), du sexe (garçons) et de l’âge (17 ans et plus) sur le fait d’apporter un objet pouvant servir d’arme à l’école. En plus de proposer des pistes d’études futures pour en connaître davantage sur ce que vivent les élèves victimisés à l’école, les conclusions de cette recherche soulèvent l’importance d’aider ces jeunes victimes à développer de meilleures stratégies afin de mieux gérer cette situation pénible, et amènent des réflexions pour orienter les interventions visant à créer des milieux scolaires sécurisants pour tous.