952 resultados para calculs théoriques
Resumo:
Prenant appui sur l’occultation de la mémoire verbale par la théorie théâtrale actuelle, le présent mémoire questionne l’exercice mémoriel des acteurs contemporains à partir de la dialectique mémoire/oubli dans les théories et pratiques de l’énonciation de Larry Tremblay, de Daniel Danis et de Christian Lapointe. Le premier chapitre s’intéresse aux fondements de l’énonciation privilégiés par les praticiens dans leurs discours théoriques – Le crâne des théâtres (Tremblay), « La mémoire intime au théâtre » (Danis), « Petit guide de l’apparition à l’usage de ceux qu’on ne voit pas » (Lapointe) –, plus précisément à la valeur accordée à la mémorisation verbale. Le deuxième s’attache à montrer que les textes dramatiques des auteurs-metteurs en scène – The Dragonfly of Chicoutimi (Tremblay), Mille anonymes (Danis), Sepsis (Lapointe) – engagent aussi un rapport oblique à l’apprentissage par cœur. Enfin, le troisième cherche à définir la notion de mémoire oublieuse à la lumière de laquelle les théories et les pratiques de Tremblay, de Danis et de Lapointe peuvent être analysées ainsi qu’à en identifier certaines conséquences dans leurs mises en scène.
Resumo:
La présente étude explore la trajectoire de vie d’un détenu condamné à une peine à perpétuité qui bénéficie d’une libération conditionnelle totale afin d’identifier laquelle ou lesquelles des cinq grandes conceptualisations théoriques du désistement criminel permettent le mieux d’expliquer sa trajectoire de désistement. Pour atteindre cet objectif, une méthodologie qualitative de type exploratoire a été privilégiée. Un homme purgeant une peine à perpétuité dans la collectivité a été rencontré en contexte d’entretiens afin de restituer en profondeur son histoire de vie et cerner, à la lumière des théories recensées, les concepts applicables à son désistement criminel. Une série de neuf entretiens d’environ une heure et demie a été réalisée. Le récit de vie de monsieur P est présenté et analysé pour illustrer l’applicabilité des principales conceptualisations théoriques du désistement criminel qui ont été recensées dans le présent mémoire. L’analyse des données recueillies a permis de faire ressortir l’importance de considérer le concept identitaire dans le processus de désistement et le changement psychologique qui l’accompagne. La discussion aborde quelques pistes d’interventions susceptibles de soutenir le travail des membres du personnel qui œuvrent auprès des délinquants qui purgent de longues peines. Celles-ci prennent en compte les défis posés par la clientèle particulière des détenus à perpétuité et cherchent à maximiser leur réintégration sociale lors de leur mise en liberté.
Resumo:
Objectifs. Les objectifs de ce mémoire sont au nombre de deux. Le premier objectif est scindé en deux : l’objectif 1A est d’évaluer l’apport et la validité/fiabilité de l’analyse descriptive des règlements de compte amorcée par Cordeau dans sa thèse de doctorat de 1991 puis d’étendre la portée de cette analyse descriptive de part et d’autre des années 1970-1986. Ceci sera fait afin de voir si les règlements de compte de la période de Cordeau diffèrent de notre ensemble; l’objectif 1B est d’évaluer différents taux afin de voir lesquels nous permettent de mieux comprendre les grandes tendances des règlements de compte et leurs vagues. Enfin, le deuxième objectif est d’utiliser l’analyse de réseau afin de confirmer certains points ressortant de l’analyse descriptive des règlements de comptes et d’analyser la structure sociale du règlement de compte au Québec entre 1953 et 2013. Méthodologie. En faisant appel à Allô Police et plusieurs autres sources médiatiques, nous avons constitué une base de données des règlements de comptes québécois entre de 1953 à 2013. Nos analyses font appel à une approche holistique qui intègre à la fois l’analyse statistique descriptive, les tableaux croisés, l’analyse temporelle et l’analyse de réseau afin de bien cerner la question des règlements de compte. Résultats. Nos principaux résultats sont au nombre de quatre: 1) les grandes tendances qu’avait trouvées Cordeau entre 1970-1986 s’appliquent pour l’ensemble des règlements de compte de 1953 à 2013. Ainsi, peu de variations importantes ont été observées entre nos règlements de compte et ceux de Cordeau ; 2) les taux alternatifs se basant sur la population carcérale ou criminelle ne permettent pas de mieux comprendre les règlements de compte par rapport à un taux basé sur la population générale. Par contre, les proportions proposées par Morselli et al (2008) amènent une meilleure conception des périodes d’effervescences du milieu; 3) les groupes criminels qui sont plus exposés à la violence sont aussi ceux qui ont le plus recours à la violence et; 4) les indépendants occupent une place importante parmi les victimes de règlements de compte et ont donc une place importante dans le milieu criminel. Conclusion. Nos résultats font état du besoin d’intégrer différentes approches théoriques et méthodologiques afin de bien cerner la question complexe qu’est le règlement de compte. Avec les avenues de recherches identifiées à la fin de ce mémoire, nous espérons que la relève sera en mesure de mettre à profit les apprentissages de ce mémoire.
Resumo:
Le nettoyage des systèmes de Chauffage, Ventilation et Climatisation de l’Air est important pour assurer une bonne qualité d’air intérieur. Le déclenchement de leur nettoyage est basé sur une inspection visuelle qui ne tient pas compte du contenu en moisissures, lesquelles ont des effets sur le système respiratoire. Cette recherche vise à proposer une méthode d’évaluation du contenu en moisissures afin d’aider les gestionnaires d’immeuble. Cinq générations de poussières ont été effectuées pour simuler un conduit de ventilation. Une cassette modifiée 37 mm et un filtre CPV pré-pesés ont utilisés pour collecter les poussières déposées avec une pompe calibrée à 15L/min. Les pourcentages de collecte des cassettes et des filtres ont été calculés pour 54 échantillons. Dix générations supplémentaires de poussières ont été effectuées concomitamment avec la génération de spores. Soixante échantillons ont été analysés selon quatre méthodes : culture, comptage direct des spores par microscopie (CDSM), dosage de β-N-acétylhexosaminidase (NAHA), 18S-q-PCR. La limite de détection (LD), la réplicabilité, la répétabilité, le nombre de spores et le coefficient de corrélation (r) ont été déterminés. Les récupérations de poussières étaient supérieures à 84%. Selon la méthode analytique, les concentrations médianes de spores/100 cm² allaient de 10 000 à 815 000. Les LD variaient dépendamment de la méthode de 120 à 218 000 spores/100 cm² et r de -0,08 à 0,83. La réplicabilité et la répétabilité étaient de 1% et 1% pour PCR; 5% et 10% pour CDSM; 6% et 15% pour NAHA; 12% et 11% pour culture. La méthode de collecte a démontré une excellente efficacité de récupération. La PCR est la méthode analytique recommandée pour l’évaluation fongique des systèmes de ventilation. Une validation terrain est en cours.
Resumo:
La distance de Kendall-τ compte le nombre de paires en désaccord entre deux permuta- tions. La distance d’une permutation à un ensemble est simplement la somme des dis- tances entre cette permutation et les permutations de l’ensemble. À partir d’un ensemble donné de permutations, notre but est de trouver la permutation, appelée médiane, qui minimise cette distance à l’ensemble. Le problème de la médiane de permutations sous la distance de Kendall-τ, trouve son application en bio-informatique, en science politique, en télécommunication et en optimisation. Ce problème d’apparence simple est prouvé difficile à résoudre. Dans ce mémoire, nous présentons plusieurs approches pour résoudre le problème, pour trouver une bonne solution approximative, pour le séparer en classes caractéristiques, pour mieux com- prendre sa compléxité, pour réduire l’espace de recheche et pour accélérer les calculs. Nous présentons aussi, vers la fin du mémoire, une généralisation de ce problème et nous l’étudions avec ces mêmes approches. La majorité du travail de ce mémoire se situe dans les trois articles qui le composent et est complémenté par deux chapitres servant à les lier.
Resumo:
Nous proposons, dans ce mémoire, d’explorer les possibilités pratiques et pédagogiques d’une approche autopoïétique de la création sonore au cinéma. Notre principal souci sera de saisir les modalités de l’ascèse propre aux artistes qui se livrent à une telle activité, comprise comme un « apprentissage de soi par soi » (Foucault), afin de faire celui qui peut faire l’œuvre (processus de subjectivation), et le rôle descriptif et opératoire de cet exercice - en tant qu’effort pour penser de façon critique son propre savoir-faire -, dans le faire-œuvre et l’invention de possibles dans l’écriture audio-visuelle cinématographique. Pour ce faire, d’une part, nous étudierons, à partir de témoignages autopoïétiques, le rapport réflexif de trois créateurs sonores à leur pratique et leur effort pour penser (et mettre en place) les conditions d’une pratique et d’une esthétique du son filmique comme forme d’art sonore dans un contexte audio-visuel, alors qu’ils travaillent dans un cadre normalisant : Randy Thom, Walter Murch et Franck Warner. D’autre part, nous recourrons à différentes considérations théoriques (la théorie de l’art chez Deleuze et Guattari, la « surécoute » chez Szendy, l’histoire de la poïétique à partir de Valéry, etc.) et pratiques (la recherche musicale chez Schaeffer, la relation maître-apprenti, les rapports entre automatisme et pensée dans le cinéma moderne chez Artaud et Godard, etc.), afin de contextualiser et d’analyser ces expériences de création, avec l’objectif de problématiser la figure de l’artiste-poïéticien sur un plan éthique dans le sillage de la théorie des techniques de soi chez Foucault.
Resumo:
Ce texte a pour but de monter que l’efficience telle qu’utilisée par les économistes dans le cadre de recommandations de politiques publiques suppose toujours l’adoption de certains critères moraux. Je voudrai d’abord montrer que les recommandations des économistes en matière de politiques publiques ont déjà été identifiées aux recommandations de l’utilitarisme. Plusieurs économistes ont voulu abstraire leur science de toute discussion morale au XXe siècle. Cette séparation entre faits et valeur s’est soldée par l’apparition de l’efficience de Pareto, grandement utilisée dans le cadre de l’économie du bien-être. Cependant, cette utilisation de l’efficience suppose à la fois qu’il est moralement désirable d’améliorer le bien-être des individus et que ce bien-être peut être évalué en termes de satisfaction des préférences, ce qui constitue un jugement de nature éthique et morale qui ne peut être fait seulement à partir de faits scientifiques. L’efficience ne peut plutôt être utilisée de manière non moralement discutable seulement si l’on examine au préalable les objectifs sociaux que l’utilisation de cette mesure présuppose. D’un point de vue scientifique, l’économiste qui veut utiliser une mesure d’efficience doit donc toujours prendre pour acquis les éléments normatifs qui sont intégrés aux calculs d’efficience. La discussion concernant la pertinence de ces objectifs sociaux ainsi que l’importance relative de chacun des objectifs sociaux est une discussion portant avant tout sur des questions morales qui ne sont pas du domaine des sciences économiques.
Resumo:
Cet essai est présenté en tant que mémoire de maîtrise dans le cadre du programme de droit des technologies de l’information. Ce mémoire traite de différents modèles d’affaires qui ont pour caractéristique commune de commercialiser les données dans le contexte des technologies de l’information. Les pratiques commerciales observées sont peu connues et l’un des objectifs est d’informer le lecteur quant au fonctionnement de ces pratiques. Dans le but de bien situer les enjeux, cet essai discutera d’abord des concepts théoriques de vie privée et de protection des renseignements personnels. Une fois ce survol tracé, les pratiques de « data brokerage », de « cloud computing » et des solutions « analytics » seront décortiquées. Au cours de cette description, les enjeux juridiques soulevés par chaque aspect de la pratique en question seront étudiés. Enfin, le dernier chapitre de cet essai sera réservé à deux enjeux, soit le rôle du consentement et la sécurité des données, qui ne relèvent pas d’une pratique commerciale spécifique, mais qui sont avant tout des conséquences directes de l’évolution des technologies de l’information.
Resumo:
Le présent travail consiste à proposer un modèle de représentation des notions théoriques et pratiques de la terminologie et de leurs relations sous forme de thésaurus. Selon la norme ISO 25964-1, 2011, « un thésaurus est un vocabulaire contrôlé et structuré dans lequel les concepts sont représentés par des termes, ayant été organisés afin de rendre explicites les relations entre les concepts (…) ». Notre objectif est de créer un outil pédagogique à la suite d’une réflexion théorique englobant différentes perspectives notionnelles au sein de cette discipline. Les enjeux soulevés par la classification des concepts de certains champs de savoir (notamment ceux donnant lieu à différentes perspectives) n’ont pas été approfondis suffisamment dans la littérature de la terminologie, ni dans celle portant sur les thésaurus. Comment décrire des concepts qui sont sujets à des dissensions théoriques entre les différentes écoles de pensée? Comment classer les différentes relations entretenues par les concepts théoriques et les applications pratiques d’une discipline? À ces questions s’ajoute celle de la prise en compte de ces difficultés dans un thésaurus. Nous commençons par délimiter et organiser les concepts saillants du domaine. Ensuite, à l’aide d’un corpus comprenant des publications associées à différentes approches de la terminologie, nous étudions les réalisations linguistiques de ces concepts et leurs relations en contexte, dans le but de les décrire, de les classer et de les définir. Puis, nous faisons l’encodage de ces données à l’aide d’un logiciel de gestion de thésaurus, en respectant les normes ISO applicables. La dernière étape consiste à définir la visualisation de ces données afin de la rendre conviviale et compréhensible. Enfin, nous présentons les caractéristiques fondamentales du Thésaurus de la terminologie. Nous avons analysé et représenté un échantillon de 45 concepts et leurs termes reliés. Les différents phénomènes associés à ces descripteurs comme la multidimensionalité, la variation conceptuelle et la variation dénominative sont aussi représentés dans notre thésaurus.
Resumo:
Introduction : La néphro-urétérectomie radicale (NUR) représente le traitement primaire pour les patients atteints d’une tumeur des voies excrétrices supérieures (TVES) non métastatique. Une approche ouverte ou laparoscopique peut être considérée. Malgré la présence de plusieurs études comparant les résultats périopératoires et oncologiques entre ces deux approches, aucunes études se basent sur une cohorte populationnelle. Objectif : Notre but est d’évaluer la morbidité péri-opératoire entre la NUR ouverte et laparoscopique en utilisant une cohorte populationnelle. Méthode : Nous avons utilisé la base de donnée Nationwide Inpatient Sample (NIS) pour identifier tous les patients atteints d’une TVES non métastatique, traités par NUR ouverte ou laparoscopique, entre 1998 et 2009. Au total, 7401 (90,8%) et 754 (9,2%) patients ont subi une NUR ouverte et laparoscopique, respectivement. Dans le but de contrôler les différences inhérentes entre les deux groupes, nous avons utilisé une analyse par appariement sur les scores de propension. Ainsi, 3016 (80%) patients avec NUR ouverte étaient appariés à 754 (20%) patients avec NUR laparoscopique. Intervention : Tous les patients ont subi une NUR. Mesures : Les taux de complications intra-opératoires et post-opératoires, de transfusions sanguines, d’hospitalisation prolongée et de mortalité intrahospitalière ont été mesurés. Des analyses de régression logistique on été utilisées pour notre cohorte, après appariement sur les scores de propension. Résultats et Limitations : Pour les patients traités par approche ouverte vs. laparoscopique, les taux suivants furent calculés : transfusions sanguines : 15 vs. 10% (p<0,001); complications intra-opératoires : 4,7 vs. 2,1% (p=0,002); complications post-opératoires : 17 vs. 15% (p=0,24); durée d’hospitalisation prolongée (≥ 5 jours) : 47 vs. 28% (p<0,001); mortalité intra-hospitalière 1,3 vs. 0,7% (p=0,12). Sur les analyses par régression logistique, les patients ayant été traités par NUR laparoscopique avaient moins de chance de recevoir une transfusion sanguine (odds ratio [OR]: 0,6, p<0,001), de subir une complication intra-opératoire (OR: 0,4, p=0,002), et d’avoir une durée prolongée d’hospitalisation (OR: 0,4, p<0,001). Globalement les taux de complications postopératoires étaient équivalents. Toutefois, l’approche laparoscopique était associée à moins de complications pulmonaires (OR: 0,4, p=0,007). Cette étude est limitée par sa nature rétrospective. Conclusion: Après ajustement de potentiels biais de sélection, la NUR par approche laparoscopique est associée à moins de complications intraopératoires et péri-opératoires comparée à la NUR par approche ouverte.
Development of new scenario decomposition techniques for linear and nonlinear stochastic programming
Resumo:
Une approche classique pour traiter les problèmes d’optimisation avec incertitude à deux- et multi-étapes est d’utiliser l’analyse par scénario. Pour ce faire, l’incertitude de certaines données du problème est modélisée par vecteurs aléatoires avec des supports finis spécifiques aux étapes. Chacune de ces réalisations représente un scénario. En utilisant des scénarios, il est possible d’étudier des versions plus simples (sous-problèmes) du problème original. Comme technique de décomposition par scénario, l’algorithme de recouvrement progressif est une des méthodes les plus populaires pour résoudre les problèmes de programmation stochastique multi-étapes. Malgré la décomposition complète par scénario, l’efficacité de la méthode du recouvrement progressif est très sensible à certains aspects pratiques, tels que le choix du paramètre de pénalisation et la manipulation du terme quadratique dans la fonction objectif du lagrangien augmenté. Pour le choix du paramètre de pénalisation, nous examinons quelques-unes des méthodes populaires, et nous proposons une nouvelle stratégie adaptive qui vise à mieux suivre le processus de l’algorithme. Des expériences numériques sur des exemples de problèmes stochastiques linéaires multi-étapes suggèrent que la plupart des techniques existantes peuvent présenter une convergence prématurée à une solution sous-optimale ou converger vers la solution optimale, mais avec un taux très lent. En revanche, la nouvelle stratégie paraît robuste et efficace. Elle a convergé vers l’optimalité dans toutes nos expériences et a été la plus rapide dans la plupart des cas. Pour la question de la manipulation du terme quadratique, nous faisons une revue des techniques existantes et nous proposons l’idée de remplacer le terme quadratique par un terme linéaire. Bien que qu’il nous reste encore à tester notre méthode, nous avons l’intuition qu’elle réduira certaines difficultés numériques et théoriques de la méthode de recouvrement progressif.
Resumo:
Selon la philosophie de Katz et Sarnak, la distribution des zéros des fonctions $L$ est prédite par le comportement des valeurs propres de matrices aléatoires. En particulier, le comportement des zéros près du point central révèle le type de symétrie de la famille de fonctions $L$. Une fois la symétrie identifiée, la philosophie de Katz et Sarnak conjecture que plusieurs statistiques associées aux zéros seront modélisées par les valeurs propres de matrices aléatoires du groupe correspondant. Ce mémoire étudiera la distribution des zéros près du point central de la famille des courbes elliptiques sur $\mathbb{Q}[i]$. Brumer a effectué ces calculs en 1992 sur la famille de courbes elliptiques sur $\mathbb{Q}$. Les nouvelles problématiques reliées à la généralisation de ses travaux vers un corps de nombres seront mises en évidence
Resumo:
Ce mémoire présente une recherche détaillée et une analyse des étoiles naines blanches hybrides chimiquement stratifiées dans le Sloan Digital Sky Survey (SDSS). Une seule étoile stratifiée, PG 1305-017, était connue avant notre recherche. L'objectif principal est de confirmer l'existence de plusieurs nouvelles étoiles stratifiées. Pour ce faire, il a fallu dans un premier temps développer une nouvelle génération de modèles d'atmosphère à partir de ceux de Bergeron et al. (1991) et Tremblay & Bergeron (2009). Nous y avons ajouté l'opacité de toutes les raies d'hélium et les calculs nécessaires pour tenir compte de la stratification chimique de l'atmosphère, où une mince quantité d’hydrogène flotte en équilibre diffusif au-dessus d’une enveloppe massive d’hélium. En parallèle, nous avons aussi calculé des modèles standards, chimiquement homogènes. Ensuite, nous avons sélectionné des naines blanches chaudes (Teff > 30,000 K) de type spectral hybride (traces d'hélium et d'hydrogène) parmi les ~38,000 naines blanches répertoriées dans le SDSS. Un total de 52 spectres d'étoile a été retenu dans notre échantillon final. La technique spectroscopique, c'est-à-dire l'ajustement des raies spectrales des modèles sur un spectre observé, a été appliquée à toutes les étoiles de notre échantillon. Nous avons ainsi mesuré la température effective, la gravité de surface et la composition chimique de l'atmosphère de ces étoiles. Par l'ajustement simultané de modèles stratifiés et homogènes, nous avons aussi pu déterminer si les étoiles étaient stratifiées ou non. Nous identifions ainsi 14 naines blanches stratifiées. Nous tirons de ces résultats plusieurs conclusions sur les processus physiques expliquant la présence d'hélium dans l'atmosphère.
Resumo:
Prenant appui sur l’occultation de la mémoire verbale par la théorie théâtrale actuelle, le présent mémoire questionne l’exercice mémoriel des acteurs contemporains à partir de la dialectique mémoire/oubli dans les théories et pratiques de l’énonciation de Larry Tremblay, de Daniel Danis et de Christian Lapointe. Le premier chapitre s’intéresse aux fondements de l’énonciation privilégiés par les praticiens dans leurs discours théoriques – Le crâne des théâtres (Tremblay), « La mémoire intime au théâtre » (Danis), « Petit guide de l’apparition à l’usage de ceux qu’on ne voit pas » (Lapointe) –, plus précisément à la valeur accordée à la mémorisation verbale. Le deuxième s’attache à montrer que les textes dramatiques des auteurs-metteurs en scène – The Dragonfly of Chicoutimi (Tremblay), Mille anonymes (Danis), Sepsis (Lapointe) – engagent aussi un rapport oblique à l’apprentissage par cœur. Enfin, le troisième cherche à définir la notion de mémoire oublieuse à la lumière de laquelle les théories et les pratiques de Tremblay, de Danis et de Lapointe peuvent être analysées ainsi qu’à en identifier certaines conséquences dans leurs mises en scène.
Resumo:
La présente étude explore la trajectoire de vie d’un détenu condamné à une peine à perpétuité qui bénéficie d’une libération conditionnelle totale afin d’identifier laquelle ou lesquelles des cinq grandes conceptualisations théoriques du désistement criminel permettent le mieux d’expliquer sa trajectoire de désistement. Pour atteindre cet objectif, une méthodologie qualitative de type exploratoire a été privilégiée. Un homme purgeant une peine à perpétuité dans la collectivité a été rencontré en contexte d’entretiens afin de restituer en profondeur son histoire de vie et cerner, à la lumière des théories recensées, les concepts applicables à son désistement criminel. Une série de neuf entretiens d’environ une heure et demie a été réalisée. Le récit de vie de monsieur P est présenté et analysé pour illustrer l’applicabilité des principales conceptualisations théoriques du désistement criminel qui ont été recensées dans le présent mémoire. L’analyse des données recueillies a permis de faire ressortir l’importance de considérer le concept identitaire dans le processus de désistement et le changement psychologique qui l’accompagne. La discussion aborde quelques pistes d’interventions susceptibles de soutenir le travail des membres du personnel qui œuvrent auprès des délinquants qui purgent de longues peines. Celles-ci prennent en compte les défis posés par la clientèle particulière des détenus à perpétuité et cherchent à maximiser leur réintégration sociale lors de leur mise en liberté.