617 resultados para Mesures de sécurité
Resumo:
La présente étude a analysé l’évolution de l’Administration Canadienne de la Sureté du Transport Aérien (ACSTA) depuis sa mise en place jusqu’aujourd’hui, ainsi que les acteurs individuels ou institutionnels impliqués dans ce processus. L’ACSTA gravite dans un champ organisationnel ‐ensemble d’organisations qui constituent un domaine reconnu de la vie institutionnelle (DiMaggio et Powell, 1983)- au sein duquel agissent différents acteurs qui ont influencé non seulement sa création, mais qui ont continué à jouer un rôle important tout au long de son évolution. Nous avons défini le champ de la sûreté aérienne et au sein de celui‐ci, nous avons analysé les mécanismes institutionnels, tout en identifiant et définissant le rôle des différents acteurs en présence. Il ressort de nos analyses que principalement deux types de contraintes institutionnelles (DiMaggio et Powell, 1983) ont influencé la création et le développement de l’ACSTA. Premièrement, mis à part les contraintes coercitives émanant de la règlementation internationale de l’Organisation de l’Aviation Civile Internationale, il apparait que d’autres contraintes du même type proviennent du gouvernement américain, par le biais de pressions visant à la mise en place de mesures sécuritaires, tant au moment de la création que tout le long de l’évolution de l’organisation. Il est à noter, cependant, le rôle du terrorisme et des tentatives d’attentat comme provocant de telles contraintes. Deuxièmement, nous avons identifié des contraintes du type normatif, c’est-à‐dire celles qui proviennent des valeurs, des normes et du bagage professionnel lié à la sécurité et à la sureté aérienne. Il apparait que les contraintes normatives agissent constamment alors que les contraintes coercitives surgissent ponctuellement tout au long de la période analysée.
Resumo:
La pauvreté monoparentale touche de nombreux pays développés au point que la monoparentalité est restée pendant longtemps associée à la pauvreté. Malgré les efforts de l’État-providence, les systèmes de protection sociale s’avèrent souvent inefficaces et inadaptés aux changements de la structure familiale et de la diversité des modes de résidence. Or, les situations des familles monoparentales ne sont pas semblables d’une société à une autre. Certaines sociétés adoptent des régimes providentiels qui offrent des conditions plutôt favorables aux familles quel que soit leur statut (monoparental ou biparental), tandis que d’autres se caractérisent par des systèmes moins égalitaires et moins favorables aux familles monoparentales. Notre thèse cherche à déconstruire le lien entre la pauvreté et la monoparentalité en poussant plus loin la réflexion sur les régimes providentiels. Le bien-être des familles monoparentales dépend des arrangements institutionnels des régimes qui assurent des ressources à travers les trois piliers que sont l’État, le marché et la famille. Certaines sociétés favorisent le pilier de l’État comme principal pourvoyeur de ressources alors que d’autres mettent l’accent sur le marché. Dans d’autres cas, la solidarité familiale est considérée comme étant fondamentale dans le bien-être des individus. Parmi ces trois piliers, il est souvent difficile de trouver la combinaison la plus appropriée pour protéger les familles monoparentales et leur assurer une certaine sécurité et une autonomie économique. Lorsque les gouvernements adoptent la politique de prise en charge des familles monoparentales, ces dernières deviennent très dépendantes de l’assistance sociale et des programmes d’aide publique. Dans un contexte libéral, les mesures d’incitation au travail qui visent les chefs de famille monoparentale ont plutôt tendance à réduire cette dépendance. Mais dans bien des cas, les familles monoparentales sont amenées à dépendre d’un revenu du marché qui ne les aide pas toujours à sortir de la pauvreté. Lorsque nous regardons le troisième pilier, celui de la famille, il s’avère souvent que les solidarités qui proviennent de cette source sont limitées et occasionnelles et nécessitent parfois une réglementation spéciale pour les dynamiser (comme c’est le cas des pensions alimentaires). L’articulation de ces piliers et leur apport au bien-être des familles monoparentales soulève une question fondamentale : Quelles sont les possibilités pour les chefs de famille monoparentale de fonder et maintenir un ménage autonome qui ne soit ni pauvre ni dans la dépendance par rapport à une seule source de revenu qui peut provenir de l’État, du marché ou de la famille ? Pour examiner cette question, nous avons procédé à des comparaisons internationales et interprovinciales à partir des données du Luxembourg Income Study (LIS). Le choix des comparaisons internationales est très utile pour situer le Québec dans un environnement de régimes providentiels avec un cadre théoriquement et conceptuellement structuré pour comprendre les politiques de lutte contre la pauvreté monoparentale. Cette recherche montre principalement que la pauvreté monoparentale est très problématique dans les régimes qui privilégient le marché comme principal pilier de bien-être. Elle l’est aussi dans certains pays qui privilégient les transferts et adoptent des politiques de prise en charge envers les familles monoparentales qui restent largement désavantagées par rapport aux familles biparentales. Par contre, certains régimes favorisent une complémentarité entre ce que peuvent tirer les familles du marché du travail et ce qu’elles peuvent tirer des ressources de l’État. Généralement, ce genre d’approche mène vers des taux de pauvreté plus faibles chez les familles monoparentales. Le Québec fait partie des sociétés où le marché représente une source fondamentale de bien-être. Toutefois, la pauvreté monoparentale est moins problématique que chez ses voisins d’Amérique du Nord. De nombreux chefs de famille monoparentale dans la province occupent des emplois à temps plein sans être désavantagés. Cependant, les chefs de famille monoparentale qui occupent des emplois à temps partiel sont largement plus exposés à la pauvreté. Pourtant, dans certaines sociétés, particulièrement aux Pays-Bas, ce statut d’emploi offre des conditions meilleures pour la conciliation travail-famille.
Resumo:
Dans ce mémoire, nous proposons des protocoles cryptographiques d'échange de clef, de mise en gage, et de transfert équivoque. Un premier protocole de transfert équivoque, primitive cryptographique universelle pour le calcul multi-parties, s'inspire du protocole d'échange de clef par puzzle de Merkle, et améliore les résultats existants. Puis, nous montrons qu'il est possible de construire ces mêmes primitives cryptographiques sans l'hypothèse des fonctions à sens unique, mais avec le problème 3SUM. Ce problème simple ---dans une liste de n entiers, en trouver trois dont la somme a une certaine valeur--- a une borne inférieure conjecturée de Omega(n^2).
Resumo:
Rapport de stage présenté à la Faculté des sciences infirmières en vue de l'obtention du grade de Maître ès sciences (M. Sc.) en sciences infirmières option administration des services infirmiers
Resumo:
Les filtres de recherche bibliographique optimisés visent à faciliter le repérage de l’information dans les bases de données bibliographiques qui sont presque toujours la source la plus abondante d’évidences scientifiques. Ils contribuent à soutenir la prise de décisions basée sur les évidences. La majorité des filtres disponibles dans la littérature sont des filtres méthodologiques. Mais pour donner tout leur potentiel, ils doivent être combinés à des filtres permettant de repérer les études couvrant un sujet particulier. Dans le champ de la sécurité des patients, il a été démontré qu’un repérage déficient de l’information peut avoir des conséquences tragiques. Des filtres de recherche optimisés couvrant le champ pourraient s’avérer très utiles. La présente étude a pour but de proposer des filtres de recherche bibliographique optimisés pour le champ de la sécurité des patients, d’évaluer leur validité, et de proposer un guide pour l’élaboration de filtres de recherche. Nous proposons des filtres optimisés permettant de repérer des articles portant sur la sécurité des patients dans les organisations de santé dans les bases de données Medline, Embase et CINAHL. Ces filtres réalisent de très bonnes performances et sont spécialement construits pour les articles dont le contenu est lié de façon explicite au champ de la sécurité des patients par leurs auteurs. La mesure dans laquelle on peut généraliser leur utilisation à d’autres contextes est liée à la définition des frontières du champ de la sécurité des patients.
Resumo:
L’objectif à moyen terme de ce travail est d’explorer quelques formulations des problèmes d’identification de forme et de reconnaissance de surface à partir de mesures ponctuelles. Ces problèmes ont plusieurs applications importantes dans les domaines de l’imagerie médicale, de la biométrie, de la sécurité des accès automatiques et dans l’identification de structures cohérentes lagrangiennes en mécanique des fluides. Par exemple, le problème d’identification des différentes caractéristiques de la main droite ou du visage d’une population à l’autre ou le suivi d’une chirurgie à partir des données générées par un numériseur. L’objectif de ce mémoire est de préparer le terrain en passant en revue les différents outils mathématiques disponibles pour appréhender la géométrie comme variable d’optimisation ou d’identification. Pour l’identification des surfaces, on explore l’utilisation de fonctions distance ou distance orientée, et d’ensembles de niveau comme chez S. Osher et R. Fedkiw ; pour la comparaison de surfaces, on présente les constructions des métriques de Courant par A. M. Micheletti en 1972 et le point de vue de R. Azencott et A. Trouvé en 1995 qui consistent à générer des déformations d’une surface de référence via une famille de difféomorphismes. L’accent est mis sur les fondations mathématiques sous-jacentes que l’on a essayé de clarifier lorsque nécessaire, et, le cas échéant, sur l’exploration d’autres avenues.
Resumo:
Les collisions proton-proton produites par le LHC imposent un environnement radiatif hostile au détecteur ATLAS. Afin de quantifier les effets de cet environnement sur la performance du détecteur et la sécurité du personnel, plusieurs simulations Monte Carlo ont été réalisées. Toutefois, la mesure directe est indispensable pour suivre les taux de radiation dans ATLAS et aussi pour vérifier les prédictions des simulations. À cette fin, seize détecteurs ATLAS-MPX ont été installés à différents endroits dans les zones expérimentale et technique d'ATLAS. Ils sont composés d'un détecteur au silicium à pixels appelé MPX dont la surface active est partiellement recouverte de convertisseurs de neutrons thermiques, lents et rapides. Les détecteurs ATLAS-MPX mesurent en temps réel les champs de radiation en enregistrant les traces des particules détectées sous forme d'images matricielles. L'analyse des images acquises permet d'identifier les types des particules détectées à partir des formes de leurs traces. Dans ce but, un logiciel de reconnaissance de formes appelé MAFalda a été conçu. Étant donné que les traces des particules fortement ionisantes sont influencées par le partage de charge entre pixels adjacents, un modèle semi-empirique décrivant cet effet a été développé. Grâce à ce modèle, l'énergie des particules fortement ionisantes peut être estimée à partir de la taille de leurs traces. Les convertisseurs de neutrons qui couvrent chaque détecteur ATLAS-MPX forment six régions différentes. L'efficacité de chaque région à détecter les neutrons thermiques, lents et rapides a été déterminée par des mesures d'étalonnage avec des sources connues. L'étude de la réponse des détecteurs ATLAS-MPX à la radiation produite par les collisions frontales de protons à 7TeV dans le centre de masse a montré que le nombre de traces enregistrées est proportionnel à la luminosité du LHC. Ce résultat permet d'utiliser les détecteurs ATLAS-MPX comme moniteurs de luminosité. La méthode proposée pour mesurer et étalonner la luminosité absolue avec ces détecteurs est celle de van der Meer qui est basée sur les paramètres des faisceaux du LHC. Vu la corrélation entre la réponse des détecteurs ATLAS-MPX et la luminosité, les taux de radiation mesurés sont exprimés en termes de fluences de différents types de particules par unité de luminosité intégrée. Un écart significatif a été obtenu en comparant ces fluences avec celles prédites par GCALOR qui est l'une des simulations Monte Carlo du détecteur ATLAS. Par ailleurs, les mesures effectuées après l'arrêt des collisions proton-proton ont montré que les détecteurs ATLAS-MPX permettent d'observer la désintégration des isotopes radioactifs générés au cours des collisions. L'activation résiduelle des matériaux d'ATLAS peut être mesurée avec ces détecteurs grâce à un étalonnage en équivalent de dose ambiant.
Resumo:
Depuis quelques années, mais surtout depuis le 11 septembre 2001, les contrôles migratoires sont devenus le locus principal d’affirmation du pouvoir souverain dans les pays occidentaux. La mouvance sécuritaire actuelle semble avoir donné les outils conceptuels nécessaires aux États pour leur permettre d’amalgamer des notions autrefois distinctes, comme la sécurité et l’immigration, et d’en inférer des liens qui paraissent désormais naturels et évidents aux yeux du public. Le Canada s’inscrit aussi dans cette mouvance où l’immigrant et l’étranger sont désormais pensés en relation avec l’illégalité, la criminalité et le sujet de non-droit. En pratique, cela se traduit par la mise en œuvre étatique d’un pouvoir souverain qui se manifeste clairement et ouvertement dans le cadre de contrôles migratoires de plus en plus serrés et contraignants. Ainsi, alimenté par la justification sécuritaire, par l’affect de la peur et par la nécessité de combattre le terrorisme international, le Canada applique ses lois et ses politiques de manière à exercer un contrôle accru sur sa population, plus particulièrement sur les migrants en général, mais encore davantage sur les demandeurs d’asile et les réfugiés soupçonnés de terrorisme. La mise en œuvre de pratiques restrictives à l’endroit des demandeurs d’asile et des réfugiés est facilitée par une conviction très tenace. À la lumière de son comportement, le gouvernement canadien semble convaincu que l’exclusion, l’expulsion, voire le refoulement, à l’extérieur du territoire national des personnes jugées être de potentiels terroristes, permettront de renforcer la sécurité nationale. Cette conviction est elle-même supportée par une autre, à savoir la croyance selon laquelle le pouvoir souverain d’exclure quelqu’un du territoire est absolu et, qu’en situation d’exception, il ne peut être limité d’aucune manière par le droit international. Suivant ceci, la lutte antiterroriste s’exécute presque exclusivement par le rejet des éléments potentiellement dangereux à l’extérieur du pays, au détriment d’autres mesures moins attentatoires des droits et libertés, plus légitimes et plus à même de remplir les objectifs liés à la lutte au terrorisme international. Dans notre étude, par une relecture d’une décision paradigmatique de la Cour suprême du Canada, l’affaire Suresh, nous chercherons à ébranler ces convictions. Notre thèse est à l’effet que la prétention du Canada à vouloir en arriver à un monde plus sécuritaire, en excluant d’une protection internationale contre la torture et en refoulant de potentiels terroristes à l'extérieur de son territoire, constitue une entreprise vouée à l’échec allant potentiellement à l’encontre des objectifs de lutte au terrorisme et qui se réalise présentement dans le déni de ses obligations internationales relatives aux droits de l’Homme et à la lutte contre l’impunité. Généralement, à la lumière d’une analyse de certaines obligations du Canada dans ces domaines, notre étude révélera trois éléments, ceux-ci se trouvant en filigrane de toute notre réflexion. Premièrement, le pouvoir souverain du Canada d’exclure des individus de son territoire n’est pas absolu. Deuxièmement, le droit d’une personne à obtenir protection non plus n’est pas absolu et des mécanismes d’équilibrage existant en droit international permettent de protéger les personnes tout en s’assurant que le Canada ne devienne pas un refuge pour les terroristes potentiels. Troisièmement, le Canada est astreint à d’autres obligations internationales. Celles-ci protègent les personnes exclues d’une protection et forcent le gouvernement à lutter contre l’impunité.
Resumo:
Dans les environnements électroniques, quels sont les mécanismes qui permettent d’assurer la fiabilité d’un document ? comment s’assurer que les procédés retenus sont suffisants ? comment garantir l’impartialité des organismes de normalisation ? etc. Telles sont les questions auxquelles s’intéressent l’auteure en analysant, du point de vue du droit français et communautaire, la problématique de la sécurité juridique sur Internet sous le prisme de la normalisation.
Resumo:
« Dissimuler » un trésor a toujours fasciné. Mais à l’heure actuelle, le trésor n’est plus toujours une caisse pleine de pierres précieuses ou d’or, il peut s’agir d’une simple information ou d’une donnée informatique importante que l’on souhaite cacher pour mieux la protéger. Avec le développement d’Internet, le domaine de la stéganographie, technique consistant à dissimuler une information pour la faire passer inaperçue, prend alors une nouvelle ampleur : il est désormais facile de dissimuler un fichier qui n’est qu’une goutte d’eau dans un océan informationnel. Si cette possibilité ouvre de nouvelles perspectives en termes de sécurité de l’information (car si personne ne sait qu’il y a un message secret, personne ne cherchera à le regarder ou le récupérer…), sa couverture sur le plan juridique n’est encore qu’embryonnaire. Dans la première partie, après avoir présenté les principes de la stéganographie informatique, nous montrerons combien un tel procédé est complémentaire et s’accorde bien avec la cryptographie, et le mettrons en perspective avec d’autres techniques voisines de dissimulation d’information (tatouage et empreinte digitale). Nous illustrerons finalement quelques pratiques de stéganographie appliquée à deux catégories de données numériques, l’image et le texte. Dans la seconde partie, nous plaçant résolument sur le plan juridique, nous tenterons tout d’abord de voir si la stéganographie peut faire partie des mesures techniques de protection que doit mettre en place un responsable de système d’information au titre de l’obligation de sécurité informationnelle. Ensuite, après avoir constaté que certains usages déviants de la stéganographie pouvaient impacter la sécurité publique, nous nous interrogerons sur ses répercussions, compte tenu des exigences d’accessibilité et d’intégrité de l’information.
Resumo:
"De plus en plus, la recherche en génétique s'attarde à identifier les mutations de gènes qui prédisposent les porteurs de ces mutations à des maladies complexes. La recherche tente également d'établir un lien entre le développement de la maladie pour certains porteurs en fonction de leur contexte socio-économique et de leur interaction avec l'environnement. Compte tenu de ces nombreux facteurs d'analyse, l'interprétation des caractéristiques génétiques d'un individu et du risque qui en découle s'avère particulièrement complexe. Or, cette complexité croissante se produit alors même que l'accès aux données génétiques se banalise et qu'il est maintenant possible pour quiconque d'obtenir une analyse personnalisée de son génome via l'internet. La discrimination génétique n'est pas définie en droit canadien ; il est généralement acquis que, dans le contexte de l'assurance-vie, celle-ci est susceptible d'avoir des conséquences désastreuses. Cependant, nous ne croyons pas que l'information d'ordre génétique doive être l'objet d'une approche exceptionnelle causant accrocs au droit général des assurances. D'autant plus, les conséquences du risque de discrimination génétique semblent davantage relevées de la crainte que de l'exercice d'une discrimination réelle. Dans ce contexte, il s'avère nécessaire d'évaluer les mesures de protection contre la discrimination génétique dans le contexte de l'assurance-vie. Pour ce faire, nous abordons, d'une part, les normes d'application générale en matière de protection contre la discrimination; normes parmi lesquelles la Charte des droits et libertés de la personne offre une protection intéressante. D'autre part, nous nous intéressons aux normes visant la discrimination spécifiquement génétique, notamment le nouvel Genetic Information Nondiscrimination Act et l'affaire Audet c. Industrielle-Alliance. Enfin, nous proposons des mesures minimales qui sauraient s'avérer utile pour préserver un juste équilibre."
Resumo:
L’auteur traite ici de la télémédecine, une sorte d’application des technologies de l’information et de la communication aux activités du secteur des soins de santé. Il fait d’abord état des nombreux produits et services qu’offre cette application, allant de la prise de rendez-vous chez le médecin grâce à l’informatique, aux vêtements dits intelligents et qui sont munis de capteurs permettant la délivrance à distance des médicaments directement au patient. Le nombre d’applications de la télémédecine étant quasi illimité, nombreuses deviennent les informations à gérer et qui se rapportent tant aux patients qu’au personnel soignant et qu’à leurs collaborateurs. Cela pose évidemment le problème de la confidentialité et de la sécurité se rapportant à de telles applications. C'est justement cette question qui sera traitée par l’auteur qui nous rappelle d’abord l’importance en Europe de l’encadrement juridique de la télémédecine afin d’assurer la protection des données médicales. Une telle protection a surtout été consacrée à travers des directives émanant de la Communauté européenne où la confidentialité et la sécurité des traitements de données ne sont qu’une partie des règles qui assurent la protection des données médicales.
Resumo:
Entre la publication de La volonté de savoir en 1976 et les derniers ouvrages publiés en 1984, un certain silence recouvre l’œuvre de Michel Foucault. Mais cet apparent mutisme s’estompe aujourd’hui, grâce à la publication et à la réception progressive de ses cours — notamment ceux professés au Collège de France en 1977-1978. Ils nous permettent en effet de porter un regard nouveau sur le parcours philosophique de Foucault, éclairant tout le pan d’une œuvre qui allait par la suite s’enrichir d’un êthos éthico-critique. En ce sens, il nous a semblé important de revenir sur quelques unes des notions-clés qui conditionneront ses derniers travaux. Ainsi, nous nous proposons à la fois d’esquisser la genèse du biopouvoir qui s’articule autour du « concept » capital de population et de décrire les traits généraux des dispositifs de sécurité : thèmes qui offrent une résonance toute contemporaine et qui permettent de problématiser le présent de notre avenir.
Resumo:
Résumé Introduction L’efficacité de la mastectomie prophylactique est bien démontrée. La mastectomie NSM (nipple-sparing mastectomy) peut potentiellement améliorer les résultats esthétiques, mais elle n’est pas pratiquée d’emblée en raison de doutes face à sa sécurité oncologique. Objectif Évaluer la faisabilité et la sécurité oncologique de la NSM dans un contexte prophylactique ainsi que les résultats esthétiques et la satisfaction des patientes. Méthodologie Une étude rétrospective fut conduite chez toutes les femmes ayant subi une mastectomie prophylactique suivie d’une reconstruction mammaire immédiate au centre hospitalier de l’Université de Montréal (CHUM) entre1997 et 2008. Les données concernant les facteurs de risque de cancer, les complications post-opératoires et les incidences de cancer furent notées. La satisfaction des patientes était évaluée par questionnaire. Deux chirurgiens ont évalué les résultats esthétiques sur des photos. Résultats Soixante et onze patientes ont subi 86 mastectomies prophylactiques, dont 21 NSM et 65 SSM (skin-sparing mastectomy). Suivant une SSM, 34 CAM (complexe aréolo- mamelonaire) furent reconstruits. Une nécrose totale s’est produite dans 2 CAM préservés et dans 2 CAM reconstruits. Le taux général de complications était significativement plus élevé parmi les CAM reconstruits. La satisfaction des patientes quant à l’apparence du CAM était significativement plus élevée dans le groupe NSM et les résultats esthétiques, meilleurs. Avec un temps de suivi moyen de 50 mois, aucune incidence au niveau du CAM n’est survenue. i Conclusion Les NSM offrent de meilleures résultats, n’augmentent pas les complications post- opératoire et semblent sécuritaires au plan oncologique.