998 resultados para complexe régional de sécurité
Resumo:
"Mémoire présenté à la faculté des études supérieures en vue de l'obtention du grade de maître en droit (LL.M.)". Ce mémoire a été accepté à l'unanimité et classé parmi les 15% des mémoires de la discipline.
Resumo:
Les molécules du complexe majeur d'histocompatibilité de classe II (CMH II) sont exprimées exclusivement à la surface des cellules présentatrices d'antigènes et servent à stimuler les cellules CD4+ initiant une réponse immunitaire. Le chargement peptidique sur HLA-DR se produit dans les endosomes tardifs et les lysosomes sous l'action de HLA-DM. Cette molécule de classe II non-classique enlève les fragments peptidiques de la chaîne invariante (Ii) restés associés aux molécules de classe II (CLIP) et édite leur répertoire d'antigènes présentés. En utilisant une forme mutante de HLA-DM (HLA-DMy) qui s'accumule à la surface plasmique, nous avons observé que HLA-DMy augmente les chargements de peptides exogènes et aussi la réponse des cellules T en comparaison avec HLA-DM sauvage. Il a été démontré que des molécules chimiques, comme le n-propanol, pouvait avoir le même effet que HLA-DM en remplaçant les peptides associés aux molécules de classe II de la surface cellulaire. De plus, HLA-DMy et le n-propanol ont présenté un effet additif sur la présentation de peptides exogènes. Certaines protéines de la voie endocytique, comme HLA-DR, HLA-DM, HLA-DO et Ii sont ciblés aux compartiments multivésiculaires (MVB) et peuvent être ciblées aux exosomes. Suite à une fusion entre les MVB et la membrane plasmique, les exosomes sont relâchés dans le milieu extracellulaire. Nous avons déterminé que le motif tyrosine de HLA-DMβ et son interaction avec HLA-DR n'affectaient pas le ciblage aux exosomes, sauf la molécule HLA-DO. Cette étude nous a permis de démontrer que HLA-DMy augmente la quantité de peptides exogènes chargés sur les CPA et que HLA-DM et HLA-DMy sont incorporés dans les exosomes.
Resumo:
La xénotransplantation, soit la transplantation de cellules, de tissus ou d'organes d'origine animale chez l'homme, est envisagée comme solution à la pénurie d'organes. Toutefois, cette technologie pourrait être à l'origine de nouvelles maladies. D'où la nécessité d'avoir des mesures visant tant la santé des animaux fournisseurs que la qualité et la sécurité des xénogreffons pour minimiser les risques de transmission de maladies de l'animal à l'homme, appelées xénozoonoses. L'objet de ce mémoire est de vérifier si les normes existantes au Canada et au Québec sont appropriées pour assurer la sécurité des receveurs et de la population. Nous avons d'abord examiné les normes susceptibles de s'appliquer à la surveillance et au contrôle de la santé des animaux fournisseurs. Ne visant que les maladies connues, elles ne répondent pas aux spécificités de la xénotransplantation. Quant aux xénogreffons, leur qualification pose problème: drogues ou instruments. Cette incertitude pourrait affecter l'uniformité des décisions relatives à leur qualité et à leur sécurité. Nous avons aussi étudié la Proposition d'une Norme canadienne pour la xénotransplantation. Cette dernière pourrait certes pallier la situation d'inadéquation de l'encadrement normatif existant au Canada. Une comparaison de cette norme canadienne avec les recommandations de l'OMS et les mesures en place aux ÉtatsUnis nous permet de suggérer comment la bonifier. Il ressort de notre étude que l'encadrement normatif canadien visant la sécurité des xénogreffons demeure à bâtir. Un élément essentiel à considérer dans son élaboration est la nécessité d'instaurer des systèmes de contrôle adéquats et compatibles à l'échelle planétaire.
Resumo:
Les transformations économiques visant la création d’un marché mondial unique, le progrès technologique et la disponibilité d’une main-d’œuvre qualifiée dans les pays à bas salaire amènent les dirigeants des entreprises à réexaminer l’organisation et la localisation de leurs capacités productives de façon à en accroître la flexibilité qui est, selon plusieurs, seule garante de la pérennité de l’organisation (Atkinson, 1987; Patry, 1994; Purcell et Purcell, 1998; Kennedy 2002; Kallaberg, Reynolds, Marsden, 2003; Berger, 2006). Une stratégie déployée par les entreprises pour parvenir à cette fin est la délocalisation (Kennedy, 2002; Amiti et Wei, 2004; Barthélemy, 2004; Trudeau et Martin, 2006; Olsen, 2006). La technologie, l’ouverture des marchés et l’accès à des bassins nouveaux de main-d’œuvre qualifiée rendent possible une fragmentation de la chaîne de production bien plus grande qu’auparavant, et chaque maillon de cette chaîne fait l’objet d’un choix de localisation optimale (Hertveldt et al., 2005). Dans ces conditions, toutes les activités qui ne requièrent aucune interaction complexe ou physique entre collègues ou entre un employé et un client, sont sujettes à être transférées chez un sous-traitant, ici ou à l’étranger (Farrell, 2005). La plupart des recherches traitant de l’impartition et des délocalisations se concentrent essentiellement sur les motivations patronales d’y recourir (Lauzon-Duguay, 2005) ou encore sur les cas de réussites ou d’échecs des entreprises ayant implanté une stratégie de cette nature (Logan, Faught et Ganster, 2004). Toutefois, les impacts sur les employés de telles pratiques ont rarement été considérés systématiquement dans les recherches (Benson, 1998; Kessler, Coyle-Shapiro et Purcell, 1999; Logan et al., 2004). Les aspects humains doivent pourtant être considérés sérieusement, car ils sont à même d’être une cause d’échec ou de réussite de ces processus. La gestion des facteurs humains entourant le processus de délocalisation semble jouer un rôle dans l’impact de l’impartition sur les employés. Ainsi, selon Kessler et al. (1999), la façon dont les employés perçoivent la délocalisation serait influencée par trois facteurs : la manière dont ils étaient gérés par leur ancien employeur (context), ce que leur offre leur nouvel employeur (pull factor) et la façon dont ils sont traités suite au transfert (landing). La recherche vise à comprendre l’impact de la délocalisation d’activités d’une entreprise sur les employés ayant été transférés au fournisseur. De façon plus précise, nous souhaitons comprendre les effets que peut entraîner la délocalisation d’une entreprise « source » (celle qui cède les activités et les employés) à une entreprise « destination » (celle qui reprend les activités cédées et la main-d’œuvre) sur les employés transférés lors de ce processus au niveau de leur qualité de vie au travail et de leurs conditions de travail. Plusieurs questions se posent. Qu’est-ce qu’un transfert réussi du point de vue des employés? Les conditions de travail ou la qualité de vie au travail sont-elles affectées? À quel point les aspects humains influencent-t-ils les effets de la délocalisation sur les employés? Comment gérer un tel transfert de façon optimale du point de vue du nouvel employeur? Le modèle d’analyse est composé de quatre variables. La première variable dépendante (VD1) de notre modèle correspond à la qualité de vie au travail des employés transférés. La seconde variable dépendante (VD2) correspond aux conditions de travail des employés transférés. La troisième variable, la variable indépendante (VI) renvoie à la délocalisation d’activités qui comporte deux dimensions soit (1) la décision de délocalisation et (2) le processus d’implantation. La quatrième variable, la variable modératrice (VM) est les aspects humains qui sont examinés selon trois dimensions soit (1) le contexte dans l’entreprise « source » (Context), (2) l’attrait du nouvel employeur (pull factor) et (3) la réalité chez le nouvel employeur (landing). Trois hypothèses de recherche découlent de notre modèle d’analyse. Les deux premières sont à l’effet que la délocalisation entraîne une détérioration de la qualité de vie au travail (H1) et des conditions de travail (H2). La troisième hypothèse énonce que les aspects humains ont un effet modérateur sur l’impact de la délocalisation sur les employés transférés (H3). La recherche consiste en une étude de cas auprès d’une institution financière (entreprise « source ») qui a délocalisé ses activités technologiques à une firme experte en technologies de l’information (entreprise « destination »). Onze entrevues semi-dirigées ont été réalisées avec des acteurs-clés (employés transférés et gestionnaires des deux entreprises). Les résultats de la recherche indiquent que la délocalisation a de façon générale un impact négatif sur les employés transférés. Par contre, cette affirmation n’est pas généralisable à tous les indicateurs étudiés de la qualité de vie au travail et des conditions de travail. Les résultats mettent en évidence des conséquences négatives en ce qui a trait à la motivation intrinsèque au travail, à l’engagement organisationnel ainsi qu’à la satisfaction en lien avec l’aspect relationnel du travail. La délocalisation a également entraîné une détérioration des conditions de travail des employés transférés soit au niveau de la sécurité d’emploi, du contenu et de l’évaluation des tâches, de la santé et sécurité au travail et de la durée du travail. Mais, d’après les propos des personnes interviewées, les conséquences les plus importantes sont sans aucun doute au niveau du salaire et des avantages sociaux. Les conséquences de la délocalisation s’avèrent par contre positives lorsqu’il est question de l’accomplissement professionnel et de la satisfaction de l’aspect technique du travail. Au niveau de la confiance interpersonnelle au travail, l’organisation du travail, la formation professionnelle ainsi que les conditions physiques de l’emploi, les effets ne semblent pas significatifs d’après les propos recueillis lors des entrevues. Enfin, les résultats mettent en évidence l’effet modérateur significatif des aspects humains sur les conséquences de la délocalisation pour les employés transférés. L’entreprise « source » a tenté d’amoindrir l’impact de la délocalisation, mais ce ne fut pas suffisant. Comme les employés étaient fortement attachés à l’entreprise « source » et qu’ils ne désiraient pas la quitter pour une entreprise avec une culture d’entreprise différente qui leur paraissait peu attrayante, ces dimensions des aspects humains ont en fait contribué à amplifier les impacts négatifs de la délocalisation, particulièrement sur la qualité de vie au travail des employés transférés. Mots clés : (1) délocalisation, (2) impartition, (3) transfert d’employés, (4) qualité de vie au travail, (5) conditions de travail, (6) technologies de l’information, (7) entreprise, (8) gestion des ressources humaines.
Resumo:
En février, 2009 un rapport de PHRMA (Pharmaceutical Research and Manufacturers of America) confirmait que plus de 300 médicaments pour le traitement des maladies cardiaques étaient en phase d’essais cliniques ou en révision par les agences règlementaires. Malgré cette abondance de nouvelles thérapies cardiovasculaires, le nombre de nouveaux médicaments approuvés chaque année (toutes indications confondues) est en déclin avec seulement 17 et 24 nouveaux médicaments approuvés en 2007 et 2008, respectivement. Seulement 1 médicament sur 5000 sera approuvé après 10 à 15 ans de développement au coût moyen de 800 millions $. De nombreuses initiatives ont été lancées par les agences règlementaires afin d’augmenter le taux de succès lors du développement des nouveaux médicaments mais les résultats tardent. Cette stagnation est attribuée au manque d’efficacité du nouveau médicament dans bien des cas mais les évaluations d’innocuité remportent la palme des causes d’arrêt de développement. Primum non nocere, la maxime d’Hippocrate, père de la médecine, demeure d’actualité en développement préclinique et clinique des médicaments. Environ 3% des médicaments approuvés au cours des 20 dernières années ont, par la suite, été retirés du marché suite à l’identification d’effets adverses. Les effets adverses cardiovasculaires représentent la plus fréquente cause d’arrêt de développement ou de retrait de médicament (27%) suivi par les effets sur le système nerveux. Après avoir défini le contexte des évaluations de pharmacologie de sécurité et l’utilisation des bio-marqueurs, nous avons validé des modèles d’évaluation de l’innocuité des nouveaux médicaments sur les systèmes cardiovasculaires, respiratoires et nerveux. Évoluant parmi les contraintes et les défis des programmes de développements des médicaments, nous avons évalué l’efficacité et l’innocuité de l’oxytocine (OT), un peptide endogène à des fins thérapeutiques. L’OT, une hormone historiquement associée à la reproduction, a démontré la capacité d’induire la différentiation in vitro de lignées cellulaires (P19) mais aussi de cellules souches embryonnaires en cardiomyocytes battants. Ces observations nous ont amené à considérer l’utilisation de l’OT dans le traitement de l’infarctus du myocarde. Afin d’arriver à cet objectif ultime, nous avons d’abord évalué la pharmacocinétique de l’OT dans un modèle de rat anesthésié. Ces études ont mis en évidence des caractéristiques uniques de l’OT dont une courte demi-vie et un profil pharmacocinétique non-linéaire en relation avec la dose administrée. Ensuite, nous avons évalué les effets cardiovasculaires de l’OT sur des animaux sains de différentes espèces. En recherche préclinique, l’utilisation de plusieurs espèces ainsi que de différents états (conscients et anesthésiés) est reconnue comme étant une des meilleures approches afin d’accroître la valeur prédictive des résultats obtenus chez les animaux à la réponse chez l’humain. Des modèles de rats anesthésiés et éveillés, de chiens anesthésiés et éveillés et de singes éveillés avec suivi cardiovasculaire par télémétrie ont été utilisés. L’OT s’est avéré être un agent ayant d’importants effets hémodynamiques présentant une réponse variable selon l’état (anesthésié ou éveillé), la dose, le mode d’administration (bolus ou infusion) et l’espèce utilisée. Ces études nous ont permis d’établir les doses et régimes de traitement n’ayant pas d’effets cardiovasculaires adverses et pouvant être utilisées dans le cadre des études d’efficacité subséquentes. Un modèle porcin d’infarctus du myocarde avec reperfusion a été utilisé afin d’évaluer les effets de l’OT dans le traitement de l’infarctus du myocarde. Dans le cadre d’un projet pilote, l’infusion continue d’OT initiée immédiatement au moment de la reperfusion coronarienne a induit des effets cardiovasculaires adverses chez tous les animaux traités incluant une réduction de la fraction de raccourcissement ventriculaire gauche et une aggravation de la cardiomyopathie dilatée suite à l’infarctus. Considérant ces observations, l’approche thérapeutique fût révisée afin d’éviter le traitement pendant la période d’inflammation aigüe considérée maximale autour du 3ième jour suite à l’ischémie. Lorsqu’initié 8 jours après l’ischémie myocardique, l’infusion d’OT a engendré des effets adverses chez les animaux ayant des niveaux endogènes d’OT élevés. Par ailleurs, aucun effet adverse (amélioration non-significative) ne fût observé chez les animaux ayant un faible niveau endogène d’OT. Chez les animaux du groupe placebo, une tendance à observer une meilleure récupération chez ceux ayant des niveaux endogènes initiaux élevés fût notée. Bien que la taille de la zone ischémique à risque soit comparable à celle rencontrée chez les patients atteints d’infarctus, l’utilisation d’animaux juvéniles et l’absence de maladies coronariennes sont des limitations importantes du modèle porcin utilisé. Le potentiel de l’OT pour le traitement de l’infarctus du myocarde demeure mais nos résultats suggèrent qu’une administration systémique à titre de thérapie de remplacement de l’OT devrait être considérée en fonction du niveau endogène. De plus amples évaluations de la sécurité du traitement avec l’OT dans des modèles animaux d’infarctus du myocarde seront nécessaires avant de considérer l’utilisation d’OT dans une population de patients atteint d’un infarctus du myocarde. En contre partie, les niveaux endogènes d’OT pourraient posséder une valeur pronostique et des études cliniques à cet égard pourraient être d’intérêt.
Resumo:
L’autorisation de recourir à la force est une pratique par laquelle le Conseil de sécurité permet à des États membres des Nations Unies ou à des accords ou organismes régionaux, voire au Secrétaire général des Nations Unies de recourir à la coercition militaire. Elle est l’une des circonstances excluant l’illicéité face à l’interdiction de recourir à la force dans les relations internationales dont la règle est posée à l’article 2,§ 4 de la Charte des Nations Unies. Il est évident que cette pratique ne correspond pas clairement à la lettre de la Charte mais elle tire sa légitimité du fait qu’elle permet au Conseil de sécurité de s’acquitter de sa mission principale de maintien de la paix et de la sécurité internationales, étant donné que le système de coercition militaire prévu par la Charte s’avère inapplicable dans la pratique. Il reste que cette pratique est empreinte d’ambiguïté : elle apparaît tantôt comme une intervention des Nations Unies, tantôt comme une action unilatérale au profit de certaines puissances capables de mener des opérations de grande envergure. Cette ambiguïté est encore exacerbée par le problème de l’autorisation présumée que certainsÉtats pourraient déduire des actes du Conseil de sécurité, pour intervenir dans divers conflits. Dans les faits, la pratique de l’autorisation de recourir à la force semble actualiser une tendance belliciste qui caractérisait les époques antérieures. Elle peut, si l’on n’y prend garde, refondre, par pans entiers, les legs du droit contre la guerre (jus contra bellum) issu du XXème siècle, droit qui a été le fruit de longues tribulations dans l’histoire des relations internationales. Le danger le plus grave est que des acquis chèrement négociés risquent d’être jetés par-dessus bord avec trop de facilité et sans délai, pour servir des visées à court terme.
Resumo:
Les systèmes de gestion intégrée en environnement et en santé et sécurité du travail (SGI) sont un nouveau paradigme de gestion dans les organisations modernes. Ces systèmes sont construits à partir des normes ISO 14001 et d’OHSAS 18001, basées sur la prévention des risques et le principe de précaution. La littérature sur les SGI témoigne d’un marasme conceptuel prédominant depuis plus de 10 ans; elle insiste sur l’urgence d’un consensus taxinomique et conceptuel afin de définir les systèmes de gestion intégrée et de différencier le mécanisme d’intégration de celui de l’implantation. Cette lacune conceptuelle enlise les connaissances dans un fossé épistémologique, retardant ainsi le débat dans ce nouveau champ d’études. Les rares connaissances dont nous disposons dans ce domaine proviennent de quelques études théoriques et de six études empiriques, toutes préoccupées par la compatibilité des multiples systèmes et des avantages économiques de leur intégration. Les évidences engendrées par ces études sont insuffisantes pour appréhender la dynamique du nouveau paradigme dont les effets demeurent peu connus. Cette situation révèle l’urgence d’agir dans un contexte où l’utilisation des SGI se multiplie, et où leur tendance à minimiser l’importance des risques devient de plus en plus préoccupante. Aucune étude ne s’est encore penchée sur l’implantation d’un SGI en environnement et en santé et sécurité du travail construit uniquement à partir des normes ISO 14001 et d’OHSAS 18001. Cette connaissance est importante pour expliquer les effets de tels systèmes. C’est dans cette perspective que nous avons réalisé cette première étude empirique d’un SGI selon les normes ISO 14001 et d’OHSAS 18001. Nos questions de recherche portent sur le mode, le degré d’implantation, les effets du SGI, ainsi que sur les facteurs contextuels qui interviennent pour expliquer les variations dans le degré d’implantation et les effets du SGI. Il s’agit d’une recherche à prélèvement qualitatif qui repose sur un devis d’étude de cas, avec des niveaux d’analyse imbriqués, et comportant une double visée descriptive et explicative. Notre échantillon, de type raisonné, regroupait trente-cinq intervenants provenant de différentes instances hiérarchiques ; il incluait également des représentants syndicaux. Notre échantillon était composé de 7 usines, accréditées aux normes ISO 14001, OHSAS 18001, et dispersées dans différentes villes du Québec. Ces usines différaient tant par leur technologie, leur âge, leur taille, et leurs types de production. Nos données ont été recueillies en 2004; elles sont basées sur des entrevues semi dirigées, sur des observations directes lors de la visite des lieux; elles s’appuient aussi sur des consultations de documents internes et sur des outils électroniques implantés. La transcription des entrevues effectuée, le contenu des discours a été catégorisé selon les cinq dimensions du SGI: engagement, planification, mise en opération, contrôle et revue de la direction. Une condensation horizontale avait précédé l’analyse de chaque cas et l’analyse transversale des cas selon une approche à la fois inductive et déductive. Les résultats de notre recherche ont révélé deux modes d’implantation : le mode d’enrichissement et le mode de fusion. Ces modes dépendaient de la nature des structures fonctionnelles en place. La visée d’amélioration continue à la base du SGI n’avait pas réussi à concilier les approches traditionnelles bottom up et top down qui ont dominé cette implantation; son mécanisme était guidé par 4 types de stratégies : l’économie des ressources, le contrôle des forces d’influences, la stratégie des fruits faciles à cueillir et la stratégie à petits pas. Pour analyser le degré d’implantation, nous avons tenu compte de l’effort de structuration du SGI et de la force d’utilisation des processus implantés à chacune des cinq dimensions du SGI. Les résultats de notre recherche révèlent une variabilité certaine du degré d’implantation entre les usines d’une part, et entre les processus associés aux cinq dimensions du SGI d’autre part. L’analyse des discours a permis de produire cinq hypothèses qui soutiennent l’effort de structuration et la force d’utilisation du SGI: (i) l’hypothèse de la force de cohésion, (ii) l’hypothèse de la spécificité du processus, (iii) l’hypothèse de la portée du processus, (iv) l’hypothèse de la capacité organisationnelle, (v) l’hypothèse de l’acceptation du changement. L’implantation du SGI était soumise à l’influence de multiples facteurs; ils étaient de nature politique, structurelle et organisationnelle. Ces facteurs avaient agi sur le processus d’implantation en amorçant une cascade d’interactions au cours desquelles leurs forces d’influences se renforçaient, se neutralisaient ou s’additionnaient pour affecter le degré d’implantation. Les facteurs facilitant touchaient surtout l’effort de structuration ; ils incluaient : l’expérience des systèmes de gestion, l’implication de la direction, celle du syndicat ou du CSS, la structure organisationnelle, le niveau d’éducation, l’âge et la taille de l’usine. Quant aux facteurs contraignants, ils agissaient sur la force d’utilisation ; ils incluaient : la lourdeur procédurale, le manque de temps, le manque de formation, le manque de ressources, la culture organisationnelle, la structure organisationnelle, le fossé intergénérationnel, l’absence du syndicat et l’âge de l’usine. Trois effets proximaux escomptés par l’entreprise ont été observés. (i) La rigueur de la gestion était associée à l’application des exigences du SGI; elle touchait la gouvernance en environnement et en santé et sécurité du travail, les mécanismes de gestion et les procédés de production. (ii) La standardisation était reliée au mode d’implantation du SGI; elle concernait les pratiques, les outils, les méthodes de travail et l’organisation des ressources. (iii) La rupture des silos est un effet relié au mode d’implantation du SGI; elle touchait les structures départementales, les frontières professionnelles, les relations et climat de travail. Ces effets proximaux avaient provoqué plusieurs effets émergents, plus distaux: une augmentation du pouvoir de contrôle syndical, un renforcement de la légitimité des recommandations soumises par les spécialistes professionnels, la création de réseaux inter organisationnels et le transfert du savoir. L’implantation du SGI avait transformé la gouvernance et les pratiques en environnement et en santé et sécurité du travail dans les sept usines. Toutefois, elle ne semblait pas garantir l’immunité du processus de gestion des risques à l’environnement ni à la santé et sécurité du travail. Sa capacité à diluer les risques devait retenir l’attention des politiques de santé publiques et des programmes de prévention des risques à l’environnement et à la santé et sécurité du travail. L’amélioration de la gestion des risques demeurait un effet attendu non observé et soumis à des facteurs contextuels qui pourraient l’empêcher de se concrétiser. À cet égard, le transfert du savoir, renforcé par l’émergence des réseaux inter organisationnels, semblait offrir une avenue beaucoup plus prometteuse et accessible. C’est l’une des contributions de cette recherche. Elle a aussi (i) proposé une typologie des modes d’implantation et des effets du SGI (ii) préconisé une méthode détaillée d’une meilleure appréciation du degré d’implantation (iii) précisé le rôle des facteurs contextuels dans l’explication des variations du degré d’implantation et dans la production des effets, (iv) proposé des hypothèses sur la structuration et l’utilisation du SGI (v) offert une perspective plurielle et approfondie de la dynamique de l’implantation du SGI grâce à la variété de l’échantillon des répondants et des usines. Il s’agit de la première étude de terrain dans le domaine. À notre connaissance, aucune autre étude n’a eu de tels résultats. Mots Clés : ISO 14001, OHSAS 18001, gestion intégrée, environnement, santé et sécurité du travail, risques environnementaux, risques en santé et sécurité du travail, analyse d’implantation, degré d’implantation, SGI, transfert du savoir.
Resumo:
Le Conseil de sécurité est l’organe principal du système onusien chargé du maintien de la paix et de la sécurité internationales. Face à une situation illégale, il ne peut donc l’ignorer et s’en désintéresser. Cependant, la perpétration d’un acte à la légalité controversée par l’un ou plusieurs de ses membres permanents peut nous laisser entendre que l’organe politique onusien aura des difficultés à remplir son rôle. Les membres permanents vont tenter d’instrumentaliser le Conseil de sécurité afin de diminuer l’illégalité de la situation. Ceci pose avec acuité le problème du contrôle de son activité en matière de maintien de la paix. L’accomplissement d’un acte illégal par un ou plusieurs membres permanents du Conseil de sécurité nécessite alors de réfléchir à des moyens d’ordre juridique pour limiter son pouvoir. Cette réflexion s’avère particulièrement pressante lorsque le Conseil est confronté à une occupation de guerre impliquant ses membres permanents ou, lorsqu’il crée ou autorise des opérations de paix de grandes envergures suite à un conflit armé impliquant ses membres permanents. Afin de limiter les prérogatives du Conseil de sécurité, le régime juridique de l’occupation tel qu’énoncé par le Règlement de La Haye (IV) de 1907 et la IVe Convention de Genève de 1949 devrait être appliquer par l’organe politique onusien lorsqu’il intervient dans une situation d’occupation de guerre impliquant ses membres permanents. L’objectif est d’éviter qu’il n’attribue aux puissances occupantes des missions qui dépassent le cadre juridique imposé par le droit des conflits armés. L’autorisation, par le Conseil de sécurité d’opérations de paix, telles qu’une administration civile transitoire ou une force multinationale avec un mandat de la paix avec recours à la force armée, suite à un conflit armé impliquant ses propres membres permanents, ouvre le débat sur leur réglementation. Alors, il sera proposé une interprétation progressiste de la définition de l’occupation telle qu’énoncée par le Règlement de La Haye (IV) de 1907 et la IVe Convention de Genève de 1949 afin d’y intégrer ces nouvelles formes d’occupations pacifiques, présentant de grandes similitudes avec les occupations de guerre. Ainsi, le régime juridique de l’occupation pourra leur être appliqué.
Resumo:
Cette étude qualitative descriptive de type exploratoire avait pour but l’exploration de la perception des adolescents et des experts en sécurité routière sur les campagnes de sensibilisation actuelles et les programmes de prévention en sécurité routière s’adressant aux adolescents, afin de proposer de nouvelles pistes d’action en prévention des accidents de la route. Le modèle de planification Precede/Proceed de Green et Kreuter (2005) a été utilisé comme cadre de référence. Un groupe de discussion a été réalisé auprès de huit adolescents et des entrevues semi-dirigées ont été réalisées auprès de trois experts en sécurité routière. Les résultats montrent que peu de similitudes existent entre les propos des adolescents et ceux des experts en sécurité routière. Par contre, les similitudes portent sur des aspects importants en sécurité routière comme la prise du risque à l’adolescence, l’implication des parents et l’implication du milieu scolaire. Les résultats de cette étude fourniront aux décideurs de programmes de prévention ou aux personnes agissant de près ou de loin auprès de cette clientèle des pistes de recherches et d’actions pour de futures interventions prometteuses en prévention des accidents de la route chez les adolescents afin de réduire le nombre d’accidents chez les jeunes conducteurs.
Resumo:
Ce mémoire présente trois approches différentes vers la synthèse du 3–(trans–2–nitrocyclopropyl)alanine, un intermédiaire synthétique de la hormaomycine. Cette molécule naturelle démontre d’intéressantes activités biologiques et pharmacologiques. Il est intéressant de souligner que ce dérivé donne facilement accès au 3–(trans–2–aminocyclopropyl)alanine, unité centrale de la bélactosine A. Ce composé naturel possédant lui aussi d’intéressantes propriétés biologiques, plusieurs études relationnelles structures-activités menant à des dérivés plus actifs de cette molécule ont été entreprises, démontrant l’intérêt toujours présent de synthétiser de façon efficace et optimale ces dérivés cyclopropaniques. Une méthodologie développée au sein de notre groupe de recherche et basée sur une réaction de cyclopropanation intramoléculaire diastéréosélective sera mise à profit afin d’élaborer une nouvelle voie de synthèse aussi élégante qu’efficace à la construction du 3–(trans–2–nitrocyclopropyl) alanine. En utilisant un carbène de rhodium généré soit par la dégradation d’un dérivé diazoïque, soit par la formation d’un réactif de type ylure d’iodonium, une réaction de cyclopropanation diastéréosélective permettra la formation de deux autres centres contigus et ce, sans même utiliser d’auxiliaire ou de catalyseur énantioenrichis. Ensuite, un réarrangement intramoléculaire précédant deux réactions synchronisées d’ouverture de cycle et de décarboxylation permettront l’obtention du composé d’intérêt avec un rendement global convenable et en relativement peu d’étapes. De cette manière, la synthèse formelle de la bélactosine A et de l’hormaomycine a été effectuée. Cette synthèse se démarque des autres par l’utilisation d’une seule transformation catalytique énantiosélective.
Resumo:
L’article examine les enjeux et l’intérêt d’une application politique du principe de précaution. Ce principe peut en effet être utilisé par la théorie de la décision appliquée à la sécurité, notamment au plan international. Comment faire face à l’accroissement du risque lié aux formes modernes de conflit ? Cet accroissement tend à entraîner une technologisation et une mondialisation croissantes des réponses sécuritaires. L’incertitude liée cet accroissement du risque appelle pourtant responsabilisation des dirigeants qui ont pour devoir éthique de recourir au principe de précaution comme guide d’orientation dans l’avenir, non seulement dans le domaine environnemental ou sanitaire, mais encore dans le domaine de la sécurité publique.
Resumo:
L’article examine les enjeux et l’intérêt d’une application politique du principe de précaution. Ce principe peut en effet être utilisé par la théorie de la décision appliquée à la sécurité, notamment au plan international. Comment faire face à l’accroissement du risque lié aux formes modernes de conflit ? Cet accroissement tend à entraîner une technologisation et une mondialisation croissantes des réponses sécuritaires. L’incertitude liée cet accroissement du risque appelle pourtant responsabilisation des dirigeants qui ont pour devoir éthique de recourir au principe de précaution comme guide d’orientation dans l’avenir, non seulement dans le domaine environnemental ou sanitaire, mais encore dans le domaine de la sécurité publique.
Resumo:
Les avocats, praticiens et universitaires qui sont engagés dans le droit des transports internationaux de marchandises par mer ont l’habitude de travailler avec un régime complexe de responsabilité du transporteur maritime. La coexistence de plusieurs conventions régissant ce régime et l’imprécision des textes de ces différentes législations rendent leur application difficile d’où l’échec permanent du voeu d’uniformisation de ce droit. En premier lieu, nous retrouvons le régime de base celui de la Convention de Bruxelles sur l’unification de certaines règles en matière de connaissement, ratifiée le 25 août 1924 et ses Protocoles modificatifs annexés en 1968 et 1979. Il s’agit d’un régime fondé sur la présomption de responsabilité comprenant une liste de cas exonératoires appelés « cas exceptés ». En second lieu figurent les Règles de Hambourg, édictées en 1978, qui établissent un régime basé sur la présomption de faute du transporteur à l’exception de deux cas exonératoires : l’incendie et l’assistance ou la tentative de sauvetage. Enfin, apparaît la Convention sur le contrat de transport international de marchandises effectué entièrement ou partiellement par mer, adoptée par les Nations unies en 2009, sous l’appellation « Les Règles de Rotterdam », qui adopte un régime de responsabilité « particulier ». Cette étude a tenté d’analyser ces mécanismes juridiques mis en place. Pour ce faire, nous nous sommes concentrées sur les sources du dysfonctionnement de ces régimes, afin de favoriser le développement d’initiatives d’uniformisation des règles de responsabilité du propriétaire du navire. L’analyse des textes positifs, de la doctrine et de la jurisprudence, nous a permis de constater que les différentes approches du régime juridique du transporteur maritime des marchandises sous ces différentes législations ne garantissent pas la prévisibilité et la sécurité juridiques recherchées par les différents acteurs maritimes. Par conséquent, l’absence d’un régime cohérent et unifié a créé des incertitudes au sein de la communauté maritime internationale et au sein des tribunaux en cas de litige. Pour surmonter cette réalité complexe, notre thèse propose une approche qui pourra simplifier ce régime, l’approche objective.
Resumo:
Ce mémoire a pour objectif d’analyser la nature et l’ampleur des enjeux de sécurité dans l’Arctique contemporain en utilisant les outils offerts par la théorie de la sécurisation de l’École de Copenhague. Cinq secteurs de sécurité – militaire, politique, identitaire, environnemental et économique – et quatre variables – la géographie, l’identité, l’histoire et la politique – sont utilisées pour examiner les perceptions de sécurité, les sécurisations et les comportements stratégiques du Canada et de la Norvège. La 1re hypothèse avancée dans ce mémoire est la suivante : depuis 2005, au Canada et en Norvège, nous sommes en train d’assister à une sécurisation progressive des enjeux non militaires dans l’Arctique - politiques, identitaires, environnementaux et économiques - et les effets entre ces secteurs de sécurité ont d’importantes conséquences sur le secteur militaire, notamment au niveau de la multiplication de projets étatiques pour la plupart essentiellement militaires, ainsi qu’au niveau d’un déclenchement d’une sécurisation de leur intégrité territoriale ou du moins un accroissement de l’insécurité à son égard. La 2e hypothèse avancée est la suivante : les nouvelles perceptions de sécurité et les comportements stratégiques des États de la région engendrent de l’insécurité à l’intérieur des sociétés ainsi qu’une dégradation de la confiance entre les acteurs étatiques. Cela a pour effet d’augmenter la division politique dans l’Arctique et de ralentir toute construction régionale. Nous concluons, sur la base de nos études de cas, qu’au Canada, la souveraineté, la nordicité et l’intégrité territoriale sont perçues comme étant menacées. De plus, les sécurisations dans l’Arctique semblent faire partie d’un renouvellement stratégique global en matière de politique étrangère et de défense. En Norvège, la Russie est considérée comme l’acteur principal du High North et à partir de 2008, la relation russo-norvégienne a subi une sécurisation. Contrairement au Canada, la Norvège préfère le statu quo stratégique dans l’Arctique en privilégiant les trois éléments traditionnels de sa politique de défense et de sécurité - la dissuasion par l’OTAN, la gestion de la Russie par l’assurance, et l’amélioration des relations est-ouest.
Resumo:
Affiche de projet terminal, baccalauréat en Urbanisme. Institut d'urbanisme, Université de Montréal.