13 resultados para Procédures de remboursement

em Université de Montréal


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La cybersécurité représente un enjeu important pour les services en charge de la sécurité canadienne à l’ère de l’expansion des Menaces Persistantes Avancées (MSP ou cybercrimes de type 1). Ces crimes se déroulent essentiellement dans le cyberespace, ce qui implique l’adoption de mesures spécifiques adéquates à l’environnement numérique, notamment à l’épreuve de son ubiquité. Le gouvernement canadien a pour sa part publié certaines mesures de défense passive et active dont la plus connue est la stratégie canadienne de cybersécurité. Puisque le cyberespace n’est pas limité territorialement, l’autorité canadienne a conclu plusieurs partenariats internationaux d’où ressortent des mesures bilatérales et multilatérales de protection et de renforcement de la cybersécurité. Toutefois, ces diverses mesures nationales et internationales ne tracent pas de cadre légal précisant la nature et le régime juridique des MSP; précisions sans lesquelles l’adoption de règles au plan national serait improductive. Considérant que l’espace numérique est international, il appelle la mise en place de mesures applicables à l’échelle universelle. Or, au plan international, il n’existe aucun texte à valeur légale spécifique à l’espèce. Ainsi, à la question de savoir, quels textes légaux pourraient s’appliquer, il s’est avéré que le jus ad bellum et la Convention européenne contre le cybercrime (Convention de Budapest) apportaient d’incontournables éléments de réponse. D’une part, le jus ad bellum permet de définir la catégorie d’acte dans laquelle peuvent être rangées les MSP, et d’autre part, la Convention de Budapest permet de définir les infractions informatiques commises par les différents acteurs en cause, les procédures d’investigation appropriées et les mécanismes utiles à la coopération internationale. Bien que les éléments ressortis de ces ententes internationales soient utiles à l’adoption d’un corps de règles internationales uniformes, les intérêts étatiques divergents constituent des obstacles de taille.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire explore la relation qui lie démocratie et légitimité politique, dans une perspective épistémique. La démocratie, dans son acception la plus générale, confère à chacun la possibilité de faire valoir les intérêts qu'il estime être les siens et ceux de sa communauté, en particulier à l’occasion d’un scrutin. Cette procédure décisionnelle qu’est le vote consacre ainsi en quelque sorte la liberté et l’égalité dont profitent chacun des citoyens, et confère une certaine légitimité au processus décisionnel. Cela dit, si le vote n’est pas encadré par des considérations épistémiques, rien ne garantit que le résultat politique qui en découlera sera souhaitable tant pour les individus que pour la collectivité: il est tout à fait permis d’imaginer que des politiques discriminatoires, économiquement néfastes ou simplement inefficaces voient ainsi le jour, et prennent effet au détriment de tous. En réponse à ce problème, différentes théories démocratiques ont vu le jour et se sont succédé, afin de tenter de lier davantage le processus démocratique à l’atteinte d’objectifs politiques bénéfiques pour la collectivité. Au nombre d’entre elles, la démocratie délibérative a proposé de substituer la seule confrontation d’intérêts de la démocratie agrégative par une recherche collective du bien commun, canalisée autour de procédures délibératives appelées à légitimer sur des bases plus solides l’exercice démocratique. À sa suite, la démocratie épistémique s’est inspirée des instances délibératives en mettant davantage l’accent sur la qualité des résultats obtenus que sur les procédures elles-mêmes. Au final, un même dilemme hante chaque fois les différentes théories : est-il préférable de construire les instances décisionnelles en se concentrant prioritairement sur les critères procéduraux eux-mêmes, au risque de voir de mauvaises décisions filtrer malgré tout au travers du processus sans pouvoir rien y faire, ou devons-nous avoir d’entrée de jeu une conception plus substantielle de ce qui constitue une bonne décision, au risque cette fois de sacrifier la liberté de choix qui est supposé caractériser un régime démocratique? La thèse que nous défendrons dans ce mémoire est que le concept d’égalité politique peut servir à dénouer ce dilemme, en prenant aussi bien la forme d’un critère procédural que celle d’un objectif politique préétabli. L’égalité politique devient en ce sens une source normative forte de légitimité politique. En nous appuyant sur le procéduralisme épistémique de David Estlund, nous espérons avoir démontré au terme de ce mémoire que l’atteinte d’une égalité politique substantielle par le moyen de procédures égalitaires n’est pas une tautologie hermétique, mais plutôt un mécanisme réflexif améliorant tantôt la robustesse des procédures décisionnelles, tantôt l’atteinte d’une égalité tangible dans les rapports entre citoyens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis une vingtaine d’années, les systèmes d’enseignement de très nombreux pays sont engagés dans des transformations profondes de leurs politiques éducatives. D’une part, on assiste progressivement à une globalisation et à une européanisation des politiques éducatives. Si elles restent formellement définies par les États, ces dernières sont de plus en plus enchâssées dans des procédures de mise en comparaison de leurs résultats (via par exemple les classements des pays produits par l’enquête Pisa de l’OCDE ; Lingard/Rawolle/Taylor, 2005 ; Mangez/Cattonar, 2009) et dans des procédures de coordination de leurs objectifs. Ainsi en Europe, les ministres de l’éducation des États-membres, avec l’aide de la Commission européenne, se sont mis d’accord sur un “Cadre européen Éducation et formation tout au long de la vie” (CEEFTLV)1. Les objectifs sont formulés en s’appuyant sur la définition d’indicateurs et de niveaux de référence de ces indicateurs (benchmark) que chaque pays s’engage à essayer d’atteindre. Les objectifs opérationnels sont formulés sous forme de “chiffres” de référence. Comme l’avance Ozga (2009), on gouverne par les “nombres”. Cette construction progressive d’un “espace européen de l’éducation” s’opère notamment par la mise en place de dispositifs de “coordination” basés sur ces outils (Lawn/Grek, 2012).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche qualitative a comme objectif de comprendre et d’analyser l’expérience pénale d’individus ayant été déclarés « délinquants dangereux » ou « délinquants à contrôler », en vertu des dispositions légales prévues à la Partie XXIV (articles 752 et suivantes) du Code criminel canadien. Plus spécifiquement, nous avons voulu mettre en lumière comment se vit l’apposition de ce statut « dangereux » au plan personnel et social au moment des procédures judiciaires, lors de l’exécution de leur peine d’incarcération et dans le cadre de leur liberté surveillée, le cas échéant. Pour ce faire, nous avons rencontré dix-neuf hommes visés par ces dispositions légales afin de restituer en profondeur leur expérience pénale par rapport à ce « statut » légalement imposé, et ce, à partir de leur point de vue. Il en ressort que les individus faisant l’objet d’une déclaration spéciale traversent un grand bouleversement émotif, d’une part, en lien avec les délits qu’ils ont commis et d’autre part, relativement à la peine leur ayant été imposée. Ces sentiments complexes semblent se positionner en paradoxe entre un sentiment de culpabilité pour les gestes commis et l’impression d’avoir été traités injustement. Les hommes rencontrés partagent également un parcours pénal difficile marqué par de l’exclusion, du rejet ainsi que des mauvais traitements physiques ou psychologiques. Ils rapportent beaucoup d’impuissance à pouvoir faire évoluer leur situation, soit de se défaire de leur statut « dangereux ». Enfin, l’analyse des propos rapportés montre que l’imposition d’une déclaration spéciale ne constitue pas une « simple » peine puisqu’elle induit un processus de stigmatisation immédiat, discréditant et permanent qui a des implications importantes au niveau social et personnel. Ces implications ont de fait, engendré une transformation à l’égard de la perception qu’ils ont d’eux-mêmes ainsi que dans leurs façons de se comporter socialement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Certaines recherches ont investigué le traitement visuel de bas et de plus hauts niveaux chez des personnes neurotypiques et chez des personnes ayant un trouble du spectre de l’autisme (TSA). Cependant, l’interaction développementale entre chacun de ces niveaux du traitement visuel n’est toujours pas bien comprise. La présente thèse a donc deux objectifs principaux. Le premier objectif (Étude 1) est d’évaluer l’interaction développementale entre l’analyse visuelle de bas niveaux et de niveaux intermédiaires à travers différentes périodes développementales (âge scolaire, adolescence et âge adulte). Le second objectif (Étude 2) est d’évaluer la relation fonctionnelle entre le traitement visuel de bas niveaux et de niveaux intermédiaires chez des adolescents et des adultes ayant un TSA. Ces deux objectifs ont été évalué en utilisant les mêmes stimuli et procédures. Plus précisément, la sensibilité de formes circulaires complexes (Formes de Fréquences Radiales ou FFR), définies par de la luminance ou par de la texture, a été mesurée avec une procédure à choix forcés à deux alternatives. Les résultats de la première étude ont illustré que l’information locale des FFR sous-jacents aux processus visuels de niveaux intermédiaires, affecte différemment la sensibilité à travers des périodes développementales distinctes. Plus précisément, lorsque le contour est défini par de la luminance, la performance des enfants est plus faible comparativement à celle des adolescents et des adultes pour les FFR sollicitant la perception globale. Lorsque les FFR sont définies par la texture, la sensibilité des enfants est plus faible comparativement à celle des adolescents et des adultes pour les conditions locales et globales. Par conséquent, le type d’information locale, qui définit les éléments locaux de la forme globale, influence la période à laquelle la sensibilité visuelle atteint un niveau développemental similaire à celle identifiée chez les adultes. Il est possible qu’une faible intégration visuelle entre les mécanismes de bas et de niveaux intermédiaires explique la sensibilité réduite des FFR chez les enfants. Ceci peut être attribué à des connexions descendantes et horizontales immatures ainsi qu’au sous-développement de certaines aires cérébrales du système visuel. Les résultats de la deuxième étude ont démontré que la sensibilité visuelle en autisme est influencée par la manipulation de l’information locale. Plus précisément, en présence de luminance, la sensibilité est seulement affectée pour les conditions sollicitant un traitement local chez les personnes avec un TSA. Cependant, en présence de texture, la sensibilité est réduite pour le traitement visuel global et local. Ces résultats suggèrent que la perception de formes en autisme est reliée à l’efficacité à laquelle les éléments locaux (luminance versus texture) sont traités. Les connexions latérales et ascendantes / descendantes des aires visuelles primaires sont possiblement tributaires d’un déséquilibre entre les signaux excitateurs et inhibiteurs, influençant ainsi l’efficacité à laquelle l’information visuelle de luminance et de texture est traitée en autisme. Ces résultats supportent l’hypothèse selon laquelle les altérations de la perception visuelle de bas niveaux (local) sont à l’origine des atypies de plus hauts niveaux chez les personnes avec un TSA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce projet illustre cinq études, mettant l'emphase sur le développement d'une nouvelle approche diagnostique cardiovasculaire afin d'évaluer le niveau d’oxygène contenu dans le myocarde ainsi que sa fonction microvasculaire. En combinant une séquence de résonance magnétique cardiovasculaire (RMC) pouvant détecter le niveau d’oxygène (OS), des manœuvres respiratoires ainsi que des analyses de gaz artériels peuvent être utilisés comme procédure non invasive destinée à induire une réponse vasoactive afin d’évaluer la réserve d'oxygénation, une mesure clé de la fonction vasculaire. Le nombre de tests diagnostiques cardiaques prescrits ainsi que les interventions, sont en pleine expansion. L'imagerie et tests non invasifs sont souvent effectués avant l’utilisation de procédures invasives. L'imagerie cardiaque permet d’évaluer la présence ou absence de sténoses coronaires, un important facteur économique dans notre système de soins de santé. Les techniques d'imagerie non invasives fournissent de l’information précise afin d’identifier la présence et l’emplacement du déficit de perfusion chez les patients présentant des symptômes d'ischémie myocardique. Néanmoins, plusieurs techniques actuelles requièrent la nécessité de radiation, d’agents de contraste ou traceurs, sans oublier des protocoles de stress pharmacologiques ou physiques. L’imagerie RMC peut identifier une sténose coronaire significative sans radiation. De nouvelles tendances d’utilisation de RMC visent à développer des techniques diagnostiques qui ne requièrent aucun facteur de stress pharmacologiques ou d’agents de contraste. L'objectif principal de ce projet était de développer et tester une nouvelle technique diagnostique afin d’évaluer la fonction vasculaire coronarienne en utilisant l' OS-RMC, en combinaison avec des manœuvres respiratoires comme stimulus vasoactif. Ensuite, les objectifs, secondaires étaient d’utilisés l’OS-RMC pour évaluer l'oxygénation du myocarde et la réponse coronaire en présence de gaz artériels altérés. Suite aux manœuvres respiratoires la réponse vasculaire a été validée chez un modèle animal pour ensuite être utilisé chez deux volontaires sains et finalement dans une population de patients atteints de maladies cardiovasculaires. Chez le modèle animal, les manœuvres respiratoires ont pu induire un changement significatif, mesuré intrusivement par débit sanguin coronaire. Il a été démontré qu’en présence d'une sténose coronarienne hémodynamiquement significative, l’OS-RMC pouvait détecter un déficit en oxygène du myocarde. Chez l’homme sain, l'application de cette technique en comparaison avec l'adénosine (l’agent standard) pour induire une vasodilatation coronarienne et les manœuvres respiratoires ont pu induire une réponse plus significative en oxygénation dans un myocarde sain. Finalement, nous avons utilisé les manœuvres respiratoires parmi un groupe de patients atteint de maladies coronariennes. Leurs myocardes étant altérées par une sténose coronaire, en conséquence modifiant ainsi leur réponse en oxygénation. Par la suite nous avons évalué les effets des gaz artériels sanguins sur l'oxygénation du myocarde. Ils démontrent que la réponse coronarienne est atténuée au cours de l’hyperoxie, suite à un stimuli d’apnée. Ce phénomène provoque une réduction globale du débit sanguin coronaire et un déficit d'oxygénation dans le modèle animal ayant une sténose lorsqu’un supplément en oxygène est donné. En conclusion, ce travail a permis d'améliorer notre compréhension des nouvelles techniques diagnostiques en imagerie cardiovasculaire. Par ailleurs, nous avons démontré que la combinaison de manœuvres respiratoires et l’imagerie OS-RMC peut fournir une méthode non-invasive et rentable pour évaluer la fonction vasculaire coronarienne régionale et globale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse développe des méthodes bootstrap pour les modèles à facteurs qui sont couram- ment utilisés pour générer des prévisions depuis l'article pionnier de Stock et Watson (2002) sur les indices de diffusion. Ces modèles tolèrent l'inclusion d'un grand nombre de variables macroéconomiques et financières comme prédicteurs, une caractéristique utile pour inclure di- verses informations disponibles aux agents économiques. Ma thèse propose donc des outils éco- nométriques qui améliorent l'inférence dans les modèles à facteurs utilisant des facteurs latents extraits d'un large panel de prédicteurs observés. Il est subdivisé en trois chapitres complémen- taires dont les deux premiers en collaboration avec Sílvia Gonçalves et Benoit Perron. Dans le premier article, nous étudions comment les méthodes bootstrap peuvent être utilisées pour faire de l'inférence dans les modèles de prévision pour un horizon de h périodes dans le futur. Pour ce faire, il examine l'inférence bootstrap dans un contexte de régression augmentée de facteurs où les erreurs pourraient être autocorrélées. Il généralise les résultats de Gonçalves et Perron (2014) et propose puis justifie deux approches basées sur les résidus : le block wild bootstrap et le dependent wild bootstrap. Nos simulations montrent une amélioration des taux de couverture des intervalles de confiance des coefficients estimés en utilisant ces approches comparativement à la théorie asymptotique et au wild bootstrap en présence de corrélation sérielle dans les erreurs de régression. Le deuxième chapitre propose des méthodes bootstrap pour la construction des intervalles de prévision permettant de relâcher l'hypothèse de normalité des innovations. Nous y propo- sons des intervalles de prédiction bootstrap pour une observation h périodes dans le futur et sa moyenne conditionnelle. Nous supposons que ces prévisions sont faites en utilisant un ensemble de facteurs extraits d'un large panel de variables. Parce que nous traitons ces facteurs comme latents, nos prévisions dépendent à la fois des facteurs estimés et les coefficients de régres- sion estimés. Sous des conditions de régularité, Bai et Ng (2006) ont proposé la construction d'intervalles asymptotiques sous l'hypothèse de Gaussianité des innovations. Le bootstrap nous permet de relâcher cette hypothèse et de construire des intervalles de prédiction valides sous des hypothèses plus générales. En outre, même en supposant la Gaussianité, le bootstrap conduit à des intervalles plus précis dans les cas où la dimension transversale est relativement faible car il prend en considération le biais de l'estimateur des moindres carrés ordinaires comme le montre une étude récente de Gonçalves et Perron (2014). Dans le troisième chapitre, nous suggérons des procédures de sélection convergentes pour les regressions augmentées de facteurs en échantillons finis. Nous démontrons premièrement que la méthode de validation croisée usuelle est non-convergente mais que sa généralisation, la validation croisée «leave-d-out» sélectionne le plus petit ensemble de facteurs estimés pour l'espace généré par les vraies facteurs. Le deuxième critère dont nous montrons également la validité généralise l'approximation bootstrap de Shao (1996) pour les regressions augmentées de facteurs. Les simulations montrent une amélioration de la probabilité de sélectionner par- cimonieusement les facteurs estimés comparativement aux méthodes de sélection disponibles. L'application empirique revisite la relation entre les facteurs macroéconomiques et financiers, et l'excès de rendement sur le marché boursier américain. Parmi les facteurs estimés à partir d'un large panel de données macroéconomiques et financières des États Unis, les facteurs fortement correlés aux écarts de taux d'intérêt et les facteurs de Fama-French ont un bon pouvoir prédictif pour les excès de rendement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de projet de maîtrise présenté en vue de l'obtention du grade de M.Sc.A. en génie biomédical, option génie clinique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un matériau semi-conducteur utilisé lors de la fabrication d’antennes térahertz (THz), le quaternaire InGaAsP (E_g = 0,79 eV), subit une implantation ionique de Fe suivi d’un recuit thermique rapide (RTA) dans le but d’améliorer ses propriétés d’émission. Le recuit est nécessaire afin de recristalliser la couche amorphisée lors de l’implantation, donnant lieu à un polycristal rempli de défauts de recristallisation. On constate cependant que les matériaux implantés Fe offrent de meilleures performances que ceux simplement endommagés au Ga. Dans le but de départager l’effet des défauts de recristallisation et des impuretés de Fe, des mesures de spectroscopie transitoire des niveaux profonds (DLTS) et de DLTS en courant (I-DLTS), ainsi que de spectrométrie de masse d’ions secondaires par temps de vol (ToF-SIMS) ont été effectuées sur des échantillons non implantés et d’autres recristallisés. Les mesures DLTS et I-DLTS ont pour but de caractériser les niveaux profonds générés par ces deux procédures postcroissance, tout en identifiant le rôle que jouent les impuretés de Fe sur la formation de ces niveaux profonds. De plus, le voisinage des atomes de Fe dans le matériau recristallisé a été étudié à l’aide des mesures ToF-SIMS. Les mesures DLTS sur matériau recristallisé sont peu concluantes, car la mesure de capacité est faussée par la haute résistivité du matériau. Par contre, les mesures I-DLTS sur matériau recristallisé ont permis de conclure que les impuretés de Fe sont responsables de la formation d’une grande variété de niveaux d’énergie se trouvant entre 0,25 et 0,40 eV, alors que les défauts de structure induisent des niveaux de moins de 0,25 eV. La concentration de Fe est élevée par rapport au seuil de solubilité du Fe dans le matériau recristallisé. Il serait donc plausible que des agrégats de Fe se forment. Toutefois, cette hypothèse est infirmée par l'absence de pic aux masses correspondant à la molécule ^(56)Fe_2^+ sur les spectres ToF-SIMS. De plus, un modèle simple est utilisé afin d’estimer si certaines masses présentes sur les spectres ToF-SIMS correspondent à des liaisons non induites par la mesure dans le matériau recristallisé. Bien qu’aucune liaison avec le Ga et l'As n’est détectable, ce modèle n’exclut pas la possibilité de liens préférentiels avec l’In.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les médias n’offrent pas une réflexion objective des évènements et de la société. Ils emploient plutôt des cadres afin de construire la nouvelle. Les journaux suivent un style de contenu axé sur le marché, ce qui résulte entre autres en la construction d’une « histoire » pouvant mieux rejoindre leurs lectorats. Bien que des études sur la représentation des crimes et criminels dans les médias soient nombreuses, celles portant sur la représentation du système judiciaire sont plutôt rares. Ce mémoire cherche à comprendre comment les médias ont présenté le système judiciaire lors des procédures intentées contre Guy Turcotte, un procès durant lequel le système judiciaire a été fortement discuté et critiqué. Cette affaire judiciaire a été reprise par plusieurs politiciens pour proposer des réformes populistes misant sur des modifications de notre système de justice ou visant une plus grande sévérité face à ce type de crime. Le présent mémoire cherche à vérifier si les médias ont contribué à ce populisme pénal en utilisant des stratégies populistes lors de la présentation de l’affaire judiciaire. De manière plus précise, le mémoire décrit comment les aspects judiciaires et légaux sont représentés dans les médias, et ce, grâce à des analyses quantitatives et qualitatives effectuées sur 239 articles publiés entre 2009 et 2012 dans le Journal de Montréal (JM) et La Presse (LP). Ces journaux sont reconnus pour avoir des lignes éditoriales différentes et un lectorat distinct. Le mémoire analyse le contenu des articles de journaux et cherche à différencier les stratégies de présentation utilisées par les médias selon la période judiciaire (avant, pendant ou après procès) et le type de journal. Le contenu des articles est analysé à travers le prisme des théories sur les stratégies de populisme pénal retrouvées dans les discours politiques. Ces analyses mettent en lumière la présence de stratégies telles que l’emploi d’émotion, les simplifications excessives, le discrédit des experts et la polarisation, lesquelles sont davantage mises de l’avant dans le Journal de Montréal et en l’absence de nouvelles informations (durant la période après le procès). Les analyses révèlent également que les médias ont parfois recours à des stratégies que l’on qualifie d’anti-populistes, comme ce fut le cas pour La Presse, qui a proposé une couverture médiatique de cette affaire qui rompt avec plusieurs des stratégies associées au populisme pénal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'entraînement sans surveillance efficace et inférence dans les modèles génératifs profonds reste un problème difficile. Une approche assez simple, la machine de Helmholtz, consiste à entraîner du haut vers le bas un modèle génératif dirigé qui sera utilisé plus tard pour l'inférence approximative. Des résultats récents suggèrent que de meilleurs modèles génératifs peuvent être obtenus par de meilleures procédures d'inférence approximatives. Au lieu d'améliorer la procédure d'inférence, nous proposons ici un nouveau modèle, la machine de Helmholtz bidirectionnelle, qui garantit qu'on peut calculer efficacement les distributions de haut-vers-bas et de bas-vers-haut. Nous y parvenons en interprétant à les modèles haut-vers-bas et bas-vers-haut en tant que distributions d'inférence approximative, puis ensuite en définissant la distribution du modèle comme étant la moyenne géométrique de ces deux distributions. Nous dérivons une borne inférieure pour la vraisemblance de ce modèle, et nous démontrons que l'optimisation de cette borne se comporte en régulisateur. Ce régularisateur sera tel que la distance de Bhattacharyya sera minisée entre les distributions approximatives haut-vers-bas et bas-vers-haut. Cette approche produit des résultats de pointe en terme de modèles génératifs qui favorisent les réseaux significativement plus profonds. Elle permet aussi une inférence approximative amérliorée par plusieurs ordres de grandeur. De plus, nous introduisons un modèle génératif profond basé sur les modèles BiHM pour l'entraînement semi-supervisé.