511 resultados para Analyse multicritère
Resumo:
La saga Saw est une franchise qui a marqué le cinéma d’horreur des années 2000. Le présent mémoire tâchera d’en faire une étude détaillée et rigoureuse en utilisant la notion de jeu. En élaborant tout d’abord un survol du cinéma d’horreur contemporain et en observant la réception critique de la saga à travers l’étude de différents articles, ce travail tentera en majeure partie d’analyser la franchise Saw en rapport avec l’approche ludique du cinéma en général et celle adoptée par Bernard Perron. Cette étude, qui s’élaborera tant au niveau diégétique que spectatoriel, aura pour but de montrer l’importance de la place qu’occupe la notion de jeu dans cette série de films.
Resumo:
Les dernières décennies ont été marquées par une augmentation du nombre des cas de cancers, ce qui a subséquemment conduit à une augmentation dans la consommation des agents de chimiothérapie. La toxicité et le caractère cancérogène de ces molécules justifient l’intérêt crucial porté à leur égard. Quelques études ont fait l’objet de détection et de quantification des agents de chimiothérapie dans des matrices environnementales. Dans ce projet, une méthode utilisant la chromatographie liquide couplée à la spectrométrie de masse en tandem (LC-MS/MS) précédée d’une extraction sur phase solide (SPE) automatisée ou en ligne a été développée pour la détection et la quantification d’un groupe de six agents de chimiothérapie. Parmi ceux-ci figurent les plus utilisés au Québec (gemcitabine, méthotrexate, cyclophosphamide, ifosfamide, irinotécan, épirubicine) et présentant des propriétés physico-chimiques et des structures chimiques différentes. La méthode développée a été validée dans une matrice réelle représentant l’affluent d’une station d’épuration dans la région de Montréal. Deux des six composés cytotoxiques étudiés en l’occurrence (cyclophosphamide et méthotrexate) ont été détectés dans huit échantillons sur les neuf qui ont été recensés, essentiellement au niveau de l’affluent et l’effluent de quelques stations d’épuration de la région de Montréal. Les résultats des analyses effectuées sur les échantillons réels ont montré qu’il n’y avait pas de différence significative dans la concentration entre l’affluent et l’effluent, et donc que les systèmes d’épuration semblent inefficaces pour la dégradation de ces molécules.
Resumo:
"L’enregistrement de noms de domaine, basé sur la règle du « premier arrivé, premier servi », n’a pas échappé à des personnes peu scrupuleuses qui se sont empressées d’enregistrer comme noms de domaine des marques de commerce, phénomène connu sous le nom de « cybersquattage ». L’U.D.R.P. (Uniform domain name Dispute Resolution Policy) est une procédure internationale qui a été adoptée pour régler les différends relatifs à cette pratique. La procédure de l’U.D.R.P. est conçue pour être rapide, efficace et simple. Même si le fardeau de preuve reposant sur le titulaire de marque de commerce peut sembler lourd, l’analyse de la procédure démontre qu’elle n’offre pas aux détenteurs de noms de domaine un procès juste et équitable, notamment en raison des délais très courts, de l’absence de voies de recours internes en cas de défaut et de l’obligation de saisir les tribunaux de droit commun. La procédure de l’U.D.R.P. ne présente aussi aucun caractère dissuasif envers les titulaires de marques qui tenteraient de s’approprier un nom de domaine enregistré dans des conditions légitimes. Une étude des décisions issues de la Procédure U.D.R.P. révèle qu’il existe un déséquilibre flagrant en faveur des titulaires de marques de commerces; les organismes accrédités se taillant la plus grande part du marché sont ceux dont les décisions sont généralement plus favorables aux titulaires de marques. Une variété d’arguments sont avancés pour expliquer ces résultats mais les études démontrent que la Procédure U.D.R.P. doit faire l’objet de réformes. La réforme devrait comprendre deux volets : premièrement, la modification du mode de désignation des organismes accrédités chargés d’administrer la Procédure U.D.R.P. ainsi que la modification du processus de sélection des commissaires; deuxièmement, une réforme relative aux délais, à la langue des procédures et au phénomène des procédures abusives intentées par des détenteurs de marques de commerce à l?égard d’enregistrements légitimes."
Resumo:
L'Italie a été l'avant-dernier pays européen, suivi seulement de la Grèce, à se doter d'une loi sur la protection de la vie privée (loi du 31 décembre 1996). Paradoxalement, c'est en Italie qu'ont été écrites quelques-uns des meilleurs ouvrages sur ce sujet, notamment ceux du professeur Rodotà. En dépit du retard du législateur italien, il doit être précisé que la loi de 1996, faisant suite à la Directive communautaire relative à la protection des données personnelles, introduit un concept moderne de la vie privée, qui ne se limite pas simplement à un « right to be let alone », selon la célèbre conception de la fin du dix-neuvième siècle, mais qui se réfère plutôt à la protection de la personne humaine. Le concept de vie privée, entendu comme l’interdiction d’accéder à des informations personnelles, se transforme en un contrôle des renseignements relatifs à la personne. De cette manière, se développe une idée de la vie privée qui pose comme fondements : le droit de contrôle, de correction et d'annulation d'informations sur la personne. À cet égard, il est important de souligner le double système d’autorisation pour le traitement licite des informations. Le consentement de l'intéressé est requis pour les données personnelles. Pour les données dites « sensibles », en revanche, l'autorisation du Garant sera nécessaire en plus de l'expression du consentement de l’intéressé. En revanche, aucune autorisation n'est requise pour le traitement de données n'ayant qu'un but exclusivement personnel, ainsi que pour les données dites « anonymes », à condition qu'elles ne permettent pas d'identifier le sujet concerné. Le type de responsabilité civile prévu par la loi de 1996 se révèle particulièrement intéressant : l'article 18 prévoit l'application de l'article 2050 du Code civil italien (exercice d'activités dangereuses), alors que l'article 29 prévoit, lui, l'octroi de dommages et intérêts pour les préjudices non patrimoniaux (cette disposition est impérative, conformément à l'article 2059 du Code civil italien). Le présent article se propose d'examiner l'application des normes évoquées ci-dessus à Internet.
Resumo:
La notion de dignité humaine déroute et attire les juristes. La décision récente de la Cour suprême du Canada dans l'affaire R. c. Kapp d'abolir le critère de l'atteinte à la dignité dans le cadre de l'analyse du droit à l'égalité a rappelé les périls qui guettent une analyse s'appuyant sur la dignité humaine. La richesse de ses significations est difficile à traduire dans une analyse qui ne soit pas purement subjective. La dignité humaine constitue pourtant la fondation sur laquelle sont érigés les droits et libertés de la personne ainsi qu'un guide indispensable dans leur interprétation. Prenant appui sur une typologie émergente de la dignité humaine, cet article vise l'élaboration d'un modèle d'analyse qui intégrerait les trois exigences de la dignité humaine : la reconnaissance, le respect et la sollicitude. Ces exigences reflètent les significations universelle et individuelle de même que les dimensions morale et corporelle de la dignité humaine. La considération simultanée des différentes exigences et significations de la dignité humaine rejoint l'approche préconisée par Emmanuel Kant et empêche d'avoir à choisir entre reconnaissance et redistribution. Une vision large et intégrée de la dignité humaine traduit la diversité des applications juridiques de la dignité humaine comme principe et comme droit et leur nécessaire imbrication. La combinaison des exigences de respect et de sollicitude requiert une attention aux réelles conditions sociales et économiques des êtres humains et une évaluation non condescendante des politiques sur les personnes vulnérables. L'attention à la réalité telle que vécue par la personne qui invoque une atteinte à sa dignité est nécessaire pour contrer à la fois la myopie d'une analyse formaliste ainsi que les écueils d'un concours de vulnérabilités auquel certains peuvent être tentés de se livrer.
Resumo:
Ce mémoire étudie l'algorithme d'amplification de l'amplitude et ses applications dans le domaine de test de propriété. On utilise l'amplification de l'amplitude pour proposer le plus efficace algorithme quantique à ce jour qui teste la linéarité de fonctions booléennes et on généralise notre nouvel algorithme pour tester si une fonction entre deux groupes abéliens finis est un homomorphisme. Le meilleur algorithme quantique connu qui teste la symétrie de fonctions booléennes est aussi amélioré et l'on utilise ce nouvel algorithme pour tester la quasi-symétrie de fonctions booléennes. Par la suite, on approfondit l'étude du nombre de requêtes à la boîte noire que fait l'algorithme d'amplification de l'amplitude pour amplitude initiale inconnue. Une description rigoureuse de la variable aléatoire représentant ce nombre est présentée, suivie du résultat précédemment connue de la borne supérieure sur l'espérance. Suivent de nouveaux résultats sur la variance de cette variable. Il est notamment montré que, dans le cas général, la variance est infinie, mais nous montrons aussi que, pour un choix approprié de paramètres, elle devient bornée supérieurement.
Resumo:
Rapport de stage présenté à la Faculté des études supérieures et postdoctorales en vue de l’obtention du grade de Maître ès sciences (M.Sc.) en criminologie
Resumo:
Le sujet de la gestion du risque m’a toujours interpelée, surtout après que j’ai vécu deux ouragans et un tremblement de terre dévastateurs au Salvador. Bien qu’on ait assez écrit sur le sujet en le reliant souvent aux changements climatiques, on ne sait pas comment les organisations gouvernementales et civiles vivent cette gestion du risque au quotidien. À partir d’une étude ethnographique de la Commission de la protection civile de la Mairie de Tecoluca au Salvador, j’observais les processus qui se mettent en place dans la recherche et l’analyse des facteurs structuraux causant les situations de vulnérabilité. Pour ce faire, j’adoptais une approche basée sur l’étude des interactions, mobilisant les théories de la cognition distribuée et de l’acteur réseau. Comme je le montre, la gestion du risque, vue comme un processus participatif, se caractérise, d’une part, par la coopération et la coordination entre les personnes et, d’autre part, par la contribution d’outils, de technologies, de documents et de méthodes contribuant à la détection de risques. Ceci exige la mobilisation de connaissances qui doivent être produites, partagées et distribuées entre les membres d’un groupe à travers les divers artéfacts, outils, méthodes et technologies qu’ils mobilisent et qui les mobilisent. À ce sujet, la théorie de la cognition distribuée permet d’explorer des interactions qui se produisent au sein d’un groupe de travail en se focalisant sur ce qui contribue à l’acte de connaitre, conçu comme une activité non pas seulement individuelle, mais surtout collective et distribuée. Par ailleurs, la théorie de l’acteur-réseau me permet, quant à elle, de montrer comment dans l’exécution de cette tâche (la gestion du risque), la contribution active d’acteurs non humains, tant en soi qu’en relations avec les acteurs humains, participe de l’activité de détection et de prévention du risque.
Resumo:
Les techniques de groupement technologique sont aujourd’hui utilisées dans de nombreux ateliers de fabrication; elles consistent à décomposer les systèmes industriels en sous-systèmes ou cellules constitués de pièces et de machines. Trouver le groupement technologique le plus efficace est formulé en recherche opérationnelle comme un problème de formation de cellules. La résolution de ce problème permet de tirer plusieurs avantages tels que la réduction des stocks et la simplification de la programmation. Plusieurs critères peuvent être définis au niveau des contraintes du problème tel que le flot intercellulaire,l’équilibrage de charges intracellulaires, les coûts de sous-traitance, les coûts de duplication des machines, etc. Le problème de formation de cellules est un problème d'optimisation NP-difficile. Par conséquent les méthodes exactes ne peuvent être utilisées pour résoudre des problèmes de grande dimension dans un délai raisonnable. Par contre des méthodes heuristiques peuvent générer des solutions de qualité inférieure, mais dans un temps d’exécution raisonnable. Dans ce mémoire, nous considérons ce problème dans un contexte bi-objectif spécifié en termes d’un facteur d’autonomie et de l’équilibre de charge entre les cellules. Nous présentons trois types de méthodes métaheuristiques pour sa résolution et nous comparons numériquement ces métaheuristiques. De plus, pour des problèmes de petite dimension qui peuvent être résolus de façon exacte avec CPLEX, nous vérifions que ces métaheuristiques génèrent des solutions optimales.
Resumo:
Depuis longtemps, le sentiment d’insécurité suscite l’intérêt des chercheurs en sciences sociales. En milieu carcéral, ce phénomène est encore peu étudié. Les différentes études arrivent à des résultats incohérents par rapport aux facteurs reliés au sentiment d’insécurité des détenus. Les différentes façons de conceptualiser et de mesurer ce phénomène apparaissent souvent comme une des causes de l’incohérence des résultats obtenus. La présente étude a comme objectif général d’approfondir les connaissances sur le sentiment d’insécurité des incarcérés et présente les objectifs spécifiques suivants: (1) dresser un portrait quantitatif du sentiment d'insécurité en tenant compte de ses dimensions affective, cognitive et comportementale; (2) estimer le taux de victimisation dans les pénitenciers canadiens du Québec; (3) analyser les facteurs reliés aux différentes dimensions du sentiment d'insécurité; (4) analyser l’interrelation entre les différentes dimensions du sentiment d’insécurité. Afin d’atteindre ces objectifs, les données recueillies auprès de 293 détenus de dix pénitenciers québécois ont été analysées. Des analyses descriptives ont été utilisées pour documenter le sentiment d’insécurité des détenus en tenant compte de différentes dimensions. Des analyses bi variées et multi variées ont permis d'identifier les facteurs individuels et contextuels en relation significative avec les différentes dimensions du sentiment d’insécurité. Des modèles de régression hiérarchisée ont permis d’analyser l’interrelation entre les différentes dimensions du sentiment d’insécurité, en tenant compte de l’influence de facteurs individuels et contextuels. Les résultats ont révélé un niveau d’insécurité peu élevé et variable parmi la population carcérale et aussi que les différentes dimensions du sentiment d’insécurité étaient affectées par différents facteurs et qu'elles étaient partiellement inter reliées.
Resumo:
La légitimité des écoles privées fondées sur un projet religieux ou spirituel fait l’objet de débats épineux tant au Québec qu’ailleurs, depuis plusieurs années (chapitre 1). À la différence des nombreux travaux normatifs déjà produits sur ces questions, cette thèse propose une contribution empirique sur la réalité de certaines de ces écoles à Montréal. Notre objectif général consiste donc à comprendre comment la dimension religieuse ou spirituelle d'écoles privées de groupes ou courants minoritaires (juives, musulmanes, Steiner) se traduit dans les discours et pratiques de l'école. La mise en lien d’écoles abritant des projets éducatifs minoritaires de différentes natures vise par ailleurs à poser un regard plus large sur l’identité, ethnique ou religieuse. Après avoir analysé les trois écoles, nous examinons les différences ou convergences significatives entre elles. Puis, nous tentons de mieux comprendre comment leurs discours et leurs pratiques nous renseignent sur les attentes parallèles relatives à l’éducation en contexte libéral. Nous portons alors attention (chapitre 2) aux interactions entre le curriculum « séculier » et une perspective religieuse ou spirituelle, à la conception de l'autonomie dans la scolarisation, à la formation du citoyen et à la hiérarchisation des valeurs éducatives. En nous inspirant entre autres de Juteau (1999), nous considérons ces écoles comme des « communautés » éducatives. Notre démarche méthodologique (chapitre 3), d’inspiration ethnographique, s’articule autour d'observations participantes en 5e et en 6e année du primaire et en 1re et 2e année du secondaire (environ 3 jours par classe) et à plus de 45 entrevues, menées auprès des enseignants, des directions d’école et des parents d’élèves. Même si notre dispositif ne consiste pas à faire « émerger » une théorie, nous nous inspirons de la méthode de la « théorisation ancrée » pour analyser nos données. Le premier chapitre d’analyse (chapitre 4) illustre d’abord un cas relativement « pur » de communalisation, puisque l’école Steiner produit du spirituel sans forcément se situer dans un rapport de force avec d’autres groupes sociaux. Cela reflète donc comment une lignée identitaire peut être construite grâce à l’enracinement dans une tradition et une mémoire « créées» par l’école. L’école musulmane (chapitre 5) adapte plutôt les références associées à la religion de manière à constituer un « pont » entre la socialisation primaire et celle de la société d’accueil. On constate en effet que la direction et les enseignants de l’école ne réinventent pas la lignée croyante, mais ne la reproduisent pas non plus à l’identique. En ce qui concerne l’école juive (chapitre 6), elle permet surtout d’attester une communauté ethnoreligieuse extérieure. La tradition juive enseignée à l’école, souvent qualifiée de « traditionalisme non religieux » par les acteurs scolaires, présente donc peu de réinterprétations ou de transformations dans ce contexte scolaire. Un dernier chapitre d’analyse (chapitre 7), abordant les trois écoles dans une perspective comparative, met notamment en perspective comment ces trois institutions transmettent une culture identitaire et un style de vie débordant le cadre scolaire, qui englobent les croyances religieuses et/ou spirituelles, mais ne s’y réduisent pas.
Resumo:
L'analyse en composantes indépendantes (ACI) est une méthode d'analyse statistique qui consiste à exprimer les données observées (mélanges de sources) en une transformation linéaire de variables latentes (sources) supposées non gaussiennes et mutuellement indépendantes. Dans certaines applications, on suppose que les mélanges de sources peuvent être groupés de façon à ce que ceux appartenant au même groupe soient fonction des mêmes sources. Ceci implique que les coefficients de chacune des colonnes de la matrice de mélange peuvent être regroupés selon ces mêmes groupes et que tous les coefficients de certains de ces groupes soient nuls. En d'autres mots, on suppose que la matrice de mélange est éparse par groupe. Cette hypothèse facilite l'interprétation et améliore la précision du modèle d'ACI. Dans cette optique, nous proposons de résoudre le problème d'ACI avec une matrice de mélange éparse par groupe à l'aide d'une méthode basée sur le LASSO par groupe adaptatif, lequel pénalise la norme 1 des groupes de coefficients avec des poids adaptatifs. Dans ce mémoire, nous soulignons l'utilité de notre méthode lors d'applications en imagerie cérébrale, plus précisément en imagerie par résonance magnétique. Lors de simulations, nous illustrons par un exemple l'efficacité de notre méthode à réduire vers zéro les groupes de coefficients non-significatifs au sein de la matrice de mélange. Nous montrons aussi que la précision de la méthode proposée est supérieure à celle de l'estimateur du maximum de la vraisemblance pénalisée par le LASSO adaptatif dans le cas où la matrice de mélange est éparse par groupe.
Resumo:
Cette thèse avait pour objectif général d’approfondir nos connaissances sur les rêves dysphoriques (mauvais rêves et cauchemars), selon deux axes. Premièrement, nous avons voulu éclaircir les implications méthodologiques reliées aux différentes mesures de la fréquence de rappel de rêves (articles 1 et 2). Deuxièmement, nous avons voulu étudier un aspect encore peu exploré des rêves dysphoriques : leur contenu (article 3). Dans la première étude, nous avons comparé systématiquement différentes méthodes rétrospectives et prospectives utilisées pour mesurer la fréquence des cauchemars et des mauvais rêves chez 411 participants. En plus de reproduire les résultats d’études antérieures selon lesquelles les mesure rétrospectives sous-estiment la fréquence des rêves dysphoriques, nous avons démontré que ces fréquences n’étaient pas affectées de manière différentielle par le format de la mesure prospective (journaux de rêves narratifs ou à choix de réponse). Dans la deuxième étude, nous nous sommes intéressés à la fréquence de rappel onirique en général (i.e. de tous les rêves) auprès d'un échantillon de 358 participants pour approfondir les résultats relatifs à la comparaison entre les deux types de journaux de rêves obtenus dans la première étude. Nos résultats soulignent que la fréquence de rappel obtenue par un journal à choix de réponse est plus élevée que celle obtenue d’un journal narratif, et que le présumé effet d’augmentation de rappel attribué aux mesures prospectives est limité dans le temps. Ces résultats suggèrent que des facteurs motivationnels sont impliqués dans la tenue d’un journal de rêves, et que dans le cas des journaux narratifs, ces facteurs outrepasseraient les facteurs attentionnels favorisant le rappel onirique. Dans la troisième étude, nous avons comparé le contenu de 253 cauchemars et 431 mauvais rêves obtenus prospectivement auprès de 331 participants, offrant ainsi l’une des descriptions de ce type des plus détaillées à ce jour. Nos résultats démontrent que cauchemars et mauvais rêves partagent de nombreuses caractéristiques mais se différencient en plusieurs points : le contenu des cauchemars est davantage caractérisé par des menaces physiques, et celui des mauvais rêves par des menaces psychologiques. De plus, les cauchemars ont plus souvent la peur comme émotion principale, ont une intensité émotionnelle plus forte, se terminent plus souvent de façon négative et sont plus bizarres que les mauvais rêves. Ces différences de contenu entre mauvais rêves et cauchemars suggèrent que ces deux types de rêves sont des manifestations d’un même phénomène variant en termes d’intensité, et que cette intensité est multidimensionnelle. Les résultats de l’étude 3 sont discutés en lien avec différentes théories sur l’étiologie et la fonction des rêves.
Resumo:
Travail de fin de session réalisé à l’EBSI, Université de Montréal, dans le cadre du cours SCI6114 Diplomatique contemporaine offert au trimestre d’hiver 2013 par le professeur Sabine Mas.
Resumo:
La rétine est constituée de plusieurs types de neurones incluant les cellules amacrines, ganglionnaires, bipolaires et les photorécepteurs. Les photorécepteurs, qui englobent les cônes et les bâtonnets, sont des neurones sensoriels hautement spécialisés qui permettent la conversion de la lumière en signaux électriques par le mécanisme de phototransduction. Les mécanismes moléculaires par lesquels les progéniteurs rétiniens (RPCs) se différencient en différents neurones spécialisés comme les photorécepteurs sont encore peu connus. Le gène Polycomb Bmi1 appartient à la famille des gènes Polycomb qui forment des complexes multimériques impliqués dans la répression de l’expression génique via le remodelage de la chromatine. Au niveau biologique, le gène Bmi1 régule, entre autre, le contrôle de la prolifération cellulaire, le métabolisme des radicaux libres, et la réparation de l’ADN. Récemment, il a été démontré que Bmi1 joue un rôle critique dans la prolifération et l’auto-renouvellement d’un groupe de RPCs immatures. De plus, Bmi1 est essentiel au développement post-natal de la rétine. L'objectif de cette étude est d'analyser le rôle de Bmi1 dans le développement et la survie des photorécepteurs chez la souris. Nos résultats révèlent un phénotype de dégénérescence des photorécepteurs de types cônes chez notre modèle de souris déficiente pour Bmi1. Les bâtonnets sont insensibles à la mutation. De plus, Bmi1 est exprimé de façon prédominante dans les cônes. Nos expériences de culture de cellules rétiniennes suggèrent que le phénotype est cellule-autonome. Par ailleurs, la co-délétion du gène Chk2, membre de la réponse aux dommages à l'ADN, permet de ralentir la progression du phénotype. Les rétines Bmi1-/- et Bmi1-/-Chk2-/- présentent une augmentation importante des dommages oxydatifs à l'ADN. Ces résultats suggèrent que le stress oxydatif pourrait jouer un rôle important dans la survie des cônes. L'étude du rôle du gène Polycomb Bmi1 dans les photorécepteurs est importante pour une meilleure compréhension des mécanismes contribuant à la survie des cônes et pourrait mener à la découverte de nouveaux traitements des maladies dégénératives des cônes.