459 resultados para Polylogarithmes multiples
Resumo:
Généralement, dans les situations d’hypothèses multiples on cherche à rejeter toutes les hypothèses ou bien une seule d’entre d’elles. Depuis quelques temps on voit apparaître le besoin de répondre à la question : « Peut-on rejeter au moins r hypothèses ? ». Toutefois, les outils statisques pour répondre à cette question sont rares dans la littérature. Nous avons donc entrepris de développer les formules générales de puissance pour les procédures les plus utilisées, soit celles de Bonferroni, de Hochberg et de Holm. Nous avons développé un package R pour le calcul de la taille échantilonnalle pour les tests à hypothèses multiples (multiple endpoints), où l’on désire qu’au moins r des m hypothèses soient significatives. Nous nous limitons au cas où toutes les variables sont continues et nous présentons quatre situations différentes qui dépendent de la structure de la matrice de variance-covariance des données.
Resumo:
Les modèles de réflexion complexes, avec leurs nombreux paramètres dont certains restent non intuitifs, sont difficiles à contrôler pour obtenir une apparence désirée. De plus, même si un artiste peut plus aisément comprendre la forme de la micro-géométrie d'une surface, sa modélisation en 3D et sa simulation en 4D demeurent extrêmement fastidieuses et coûteuses en mémoire. Nous proposons une solution intermédiaire, où l'artiste représente en 2D une coupe dans un matériau, en dessinant une micro-géométrie de surface en multi-couches. Une simulation efficace par lancer de rayons en seulement 2D capture les distributions de lumière affectées par les micro-géométries. La déviation hors-plan est calculée automatiquement de façon probabiliste en fonction de la normale au point d'intersection et de la direction du rayon incident. Il en résulte des BRDFs isotropes complètes et complexes, simulées à des vitesses interactives, et permettant ainsi une édition interactive de l'apparence de réflectances riches et variées.
Resumo:
Rapport de recherche présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Maîtrise en sciences économiques.
Resumo:
Le Japon connaît depuis les années 1980 un certain nombre de difficultés liées au taux de natalité qui sont parmi les plus faibles dans le monde. Face à cette situation, le gouvernement japonais rejette la faute sur les femmes qui, selon le gouvernement, perdent les valeurs familiales et deviennent de plus en plus égoïstes. Ce changement, serait dû, entre autres, à un niveau plus haut niveau d’éducation et à des attentes croissantes tant au niveau personnel que professionnel. Dans ce mémoire, nous nous attacherons, à l’aide de différentes théories sur la faible natalité, à démontrer que s’il y a effectivement eu un changement au niveau des valeurs familiales, ces derniers n’expliquent pas entièrement la situation actuelle. Ainsi, nous touchons ici à la situation économique, au manque d’égalité entre les hommes et les femmes dans les différentes sphères de la vie et, enfin nous parlerons des changements au niveau des valeurs.
Resumo:
La maintenance du logiciel est une phase très importante du cycle de vie de celui-ci. Après les phases de développement et de déploiement, c’est celle qui dure le plus longtemps et qui accapare la majorité des coûts de l'industrie. Ces coûts sont dus en grande partie à la difficulté d’effectuer des changements dans le logiciel ainsi que de contenir les effets de ces changements. Dans cette perspective, de nombreux travaux ont ciblé l’analyse/prédiction de l’impact des changements sur les logiciels. Les approches existantes nécessitent de nombreuses informations en entrée qui sont difficiles à obtenir. Dans ce mémoire, nous utilisons une approche probabiliste. Des classificateurs bayésiens sont entraînés avec des données historiques sur les changements. Ils considèrent les relations entre les éléments (entrées) et les dépendances entre changements historiques (sorties). Plus spécifiquement, un changement complexe est divisé en des changements élémentaires. Pour chaque type de changement élémentaire, nous créons un classificateur bayésien. Pour prédire l’impact d’un changement complexe décomposé en changements élémentaires, les décisions individuelles des classificateurs sont combinées selon diverses stratégies. Notre hypothèse de travail est que notre approche peut être utilisée selon deux scénarios. Dans le premier scénario, les données d’apprentissage sont extraites des anciennes versions du logiciel sur lequel nous voulons analyser l’impact de changements. Dans le second scénario, les données d’apprentissage proviennent d’autres logiciels. Ce second scénario est intéressant, car il permet d’appliquer notre approche à des logiciels qui ne disposent pas d’historiques de changements. Nous avons réussi à prédire correctement les impacts des changements élémentaires. Les résultats ont montré que l’utilisation des classificateurs conceptuels donne les meilleurs résultats. Pour ce qui est de la prédiction des changements complexes, les méthodes de combinaison "Voting" et OR sont préférables pour prédire l’impact quand le nombre de changements à analyser est grand. En revanche, quand ce nombre est limité, l’utilisation de la méthode Noisy-Or ou de sa version modifiée est recommandée.
Resumo:
Les méthodes de Monte Carlo par chaînes de Markov (MCCM) sont des méthodes servant à échantillonner à partir de distributions de probabilité. Ces techniques se basent sur le parcours de chaînes de Markov ayant pour lois stationnaires les distributions à échantillonner. Étant donné leur facilité d’application, elles constituent une des approches les plus utilisées dans la communauté statistique, et tout particulièrement en analyse bayésienne. Ce sont des outils très populaires pour l’échantillonnage de lois de probabilité complexes et/ou en grandes dimensions. Depuis l’apparition de la première méthode MCCM en 1953 (la méthode de Metropolis, voir [10]), l’intérêt pour ces méthodes, ainsi que l’éventail d’algorithmes disponibles ne cessent de s’accroître d’une année à l’autre. Bien que l’algorithme Metropolis-Hastings (voir [8]) puisse être considéré comme l’un des algorithmes de Monte Carlo par chaînes de Markov les plus généraux, il est aussi l’un des plus simples à comprendre et à expliquer, ce qui en fait un algorithme idéal pour débuter. Il a été sujet de développement par plusieurs chercheurs. L’algorithme Metropolis à essais multiples (MTM), introduit dans la littérature statistique par [9], est considéré comme un développement intéressant dans ce domaine, mais malheureusement son implémentation est très coûteuse (en termes de temps). Récemment, un nouvel algorithme a été développé par [1]. Il s’agit de l’algorithme Metropolis à essais multiples revisité (MTM revisité), qui définit la méthode MTM standard mentionnée précédemment dans le cadre de l’algorithme Metropolis-Hastings sur un espace étendu. L’objectif de ce travail est, en premier lieu, de présenter les méthodes MCCM, et par la suite d’étudier et d’analyser les algorithmes Metropolis-Hastings ainsi que le MTM standard afin de permettre aux lecteurs une meilleure compréhension de l’implémentation de ces méthodes. Un deuxième objectif est d’étudier les perspectives ainsi que les inconvénients de l’algorithme MTM revisité afin de voir s’il répond aux attentes de la communauté statistique. Enfin, nous tentons de combattre le problème de sédentarité de l’algorithme MTM revisité, ce qui donne lieu à un tout nouvel algorithme. Ce nouvel algorithme performe bien lorsque le nombre de candidats générés à chaque itérations est petit, mais sa performance se dégrade à mesure que ce nombre de candidats croît.
Resumo:
Les territoires et les relations sociospatiales liés au vivre-ensemble entre Autochtones et non-Autochtones au Québec sont en transformation. Ces bouleversements prennent place dans de nouveaux lieux de rencontre où s’ancrent des expériences de subjectivation politique et de citoyenneté. Le Wapikoni mobile, un atelier de création audiovisuelle qui visite les communautés des Premières Nations du Québec pour offrir une formation aux jeunes de 15 à 30 ans, semble s’inscrire dans ces processus. Depuis 2004, le Wapikoni mobile dénombre 2400 participants, 500 courts-métrages réalisés et une soixantaine de prix remportés. Ces vidéos de jeunes des Premières Nations sont projetées dans différents évènements au Québec et à l’étranger ; des lieux où les réalisateurs sont parfois invités à prendre la parole. Cette recherche étudie les pratiques, les relations et les lieux liés à ces actes de parole en personne, afin de dégager les transformations sociopolitiques auxquelles ils participent. Elle montre que les parcours de ces personnes sont limités par les contextes politicoéconomiques locaux, nationaux et mondiaux, mais qu’ils permettent néanmoins l’appropriation de lieux et l’apparition de relations qui reterritorialisent les espaces de représentation(s) et de visibilité. Ces mutations sont provoquées par la mise en place de dialogues aux voix et aux voies multiples qui participent à la formation de territoires émergents de citoyenneté.
Resumo:
Au Québec, les personnes âgées hospitalisées nécessitant un hébergement dans le secteur public peuvent être déplacées plusieurs fois au sein d’un hôpital et de différents établissements jusqu’à ce qu’une place permanente soit disponible. Cette pratique peut avoir des conséquences sur leur santé. Les significations qu’accordent les personnes âgées à cette expérience sont peu connues alors qu’elles peuvent influencer leur processus transitionnel et les conséquences sur leur santé et leur bien-être. Basée sur la théorie de transitions de Meleis (2010), une micro ethnographie critique ayant pour but de comprendre les significations du processus transitionnel de personnes âgées hospitalisées nécessitant un hébergement et vivant de multiples relocalisations a été conçue. L’échantillon était composé de huit personnes âgées ayant vécu au moins deux relocalisations durant leur attente d’hébergement. Des entrevues semi-dirigées et des conversations informelles ont été utilisées. L’analyse des données a respecté la méthode décrite par Braun et Clarke (2006). Les résultats de cette analyse thématique ont démontré que les personnes âgées vivent, durant leur expérience transitionnelle, des discontinuités spatio-temporelles auxquelles elles attribuent différentes significations. Ces significations correspondent à la perception de vivre de longues périodes d’attente dans des milieux temporaires, des déménagements rapides et impromptus et des coupures affectives. L’incertitude et l’impuissance ressenties à divers degrés d’intensité par les personnes âgées sont également des significations qui ressortent du processus transitionnel. Une autre signification accordée par les personnes âgées à leur expérience de transitions est l’importance des « petites choses » de la vie quotidienne. Les connaissances issues de cette étude ont des implications pour les différents champs d’activités des infirmières. Notamment, elles offrent des pistes pour favoriser la santé et le bien-être des personnes âgées vivant un processus transitionnel.
Resumo:
Ce mémoire décrit et évalue la manière dont trois directions d’école, reconnues pour leur intérêt pour la justice sociale par le programme Une école montréalaise pour tous (MÉLS), exercent un leadership transformatif dans trois écoles primaires de milieux défavorisés à Montréal. Pour ce faire, nous décrivons les connaissances des directions d’école sur le concept de justice sociale, leurs actions rapportées et observées en lien avec l’exercice d’un leadership transformatif, en précisant dans quelles situations se produisent ces actions, puis nous décrivons les différences et similitudes entre les directions concernant l’exercice d’un leadership transformatif. L’étude de cas multiples a été privilégiée dans le cadre de cette recherche. Nous avons récolté des données d’observations, d’entrevues, d’un questionnaire et de documents internes obtenus auprès des directions d’école participantes. Nous avons ensuite analysé ces données en utilisant le modèle conceptuel d’Archambault et Garon (2011a). Peu de comportements ont été observés dans la pratique des directions d’école qui témoignaient d’un leadership transformatif. Cependant, cette recherche nous a permis de constater que la conscientisation des directions d’école a une grande influence sur l’exercice d’un leadership transformatif qui se traduit dans les attitudes, les comportements rapportés ou observés et les connaissances des participants. C’est pourquoi nous discutons de la pertinence de mieux comprendre le processus d’apprentissage et de réflexion des directions d’école pour l’exercice d’un tel leadership. Nous souhaitons ainsi mieux soutenir les directions d’école afin qu’elles exercent un leadership transformatif.
Resumo:
L’utilisation accrue des nanomatériaux manufacturés (NM) fait en sorte que les différents acteurs de réglementation se questionnent de plus en plus par rapport à leur destin et leurs impacts sur les écosystèmes et la santé humaine suite à leur rejet dans l’environnement. Le développement de techniques analytiques permettant de détecter et de caractériser les NM en matrice environnementale est impératif étant donné la nécessité d’évaluer le risque relié à ces polluants émergents. Une des approches de plus en plus favorisée est d’utiliser une technique chromatographique et un ou plusieurs détecteurs sensibles dans les buts de réduire les effets de matrice, d’identifier des nanoparticules (NP) selon leurs temps de rétention et de les quantifier à des concentrations représentatives de la réalité environnementale. Une technique analytique utilisant la chromatographie hydrodynamique (HDC) et des détecteurs en ligne ou hors ligne (détecteurs de diffusion statique ou dynamique de la lumière, spectromètre de masse par torche à plasma en mode particule unique (SP-ICPMS), l’ultracentrifugation analytique) a donc été développée. Le couplage de la colonne HDC avec ces détecteurs a permis de caractériser des NP standards et l’optimisation des conditions de séparation de ces nanoparticules de polystyrène, d’or et d’argent a permis de confirmer que les NP y sont bel et bien séparées seulement selon leur taille, tel que la théorie le prédit. De plus, l’utilisation de la colonne HDC couplée au SP-ICPMS a permis de séparer un mélange de nanoparticules d’argent (nAg) et de les détecter à des concentrations représentatives de celles rencontrées dans l’environnement, soit de l’ordre du μg L-1 au ng L-1. Par exemple, dans un échantillon d’eau usée (effluent), un mélange de nAg de 80 et de 40 nm a été séparé et les nAg ont été détectées à l’aide du SP-ICPMS connecté à la colonne HDC (temps de rétention de 25.2 et 25.6 minutes et diamètres déterminés de 71.4 nm et 52.0 nm). Finalement, pour plusieurs échantillons environnementaux auxquels aucun ajout de nanoparticules n’a été fait, les analyses HDC-SP-ICPMS effectuées ont permis de déterminer qu’ils ne contenaient initialement pas de nAg.
Resumo:
La prévalence des allergies alimentaires IgE-médiées aurait triplé au cours de la dernière décennie avec des études Nord-Américaines atteignant les 8% chez les enfants. Quoiqu’il n’y ait à ce jour aucun traitement curatif pour les allergies alimentaires, l’immunothérapie oral (OIT) constitue une nouvelle approche expérimentale prometteuse. Cette dernière consiste en l’administration de doses progressive d’allergènes par voie orale sur une période prolongée dans le but d’instaurer un état de désensibilisation et possiblement une tolérance orale soutenue. Cette approche a été démontrée sécuritaire et permettrait la désensibilisation à haute dose de plus de 80% des participants allergiques aux arachides, lait ou œufs. Dans cette thèse, nous présentons 2 études de phase 1 portant sur des protocoles d’OIT, destinés à optimiser l’efficience du traitement chez les sujets avec allergies alimentaires multiples. Près de 30% des enfants avec allergie alimentaire sont allergiques à plus d’un aliment, une proportion qui augmente à 70% lorsqu’on considère les cas les plus sévères. Ces enfants sont à risque augmenté de réactions accidentelles et souffrent d’un impact plus grand sur leur qualité de vie. Dans la première étude, en créant un mélange individualisé avec un ratio stochiométrique 1:1 entre les protéines des aliments allergiques de l’enfant, nous démontrons qu’il est possible de désensibiliser jusqu’à 5 aliments simultanément avec un profil d’innocuité similaire à une monothérapie. Dans la seconde étude, nous utilisons un traitement à l’omalizumab, un anticorps monoclonal anti-IgE, pour permettre une désensibilisation orale multi-allergénique fortement accélérée. Lorsque comparé à l’approche sans omalizumab, ce protocole s’associe à une nette diminution du temps requis pour atteindre les doses d’entretien, passant d’une médiane de 21 à 4 mois, sans affecter le profil d’innocuité. Alors que ces études fournissent des approches cliniques raisonnables pour désensibiliser la population multi-allergique, plusieurs questions persistent, notamment en ce qui a trait à l’induction de tolérance permanente. Une barrière majeure à cet égard réside dans notre piètre compréhension des mécanismes sous-jacents à l’immunothérapie. Prenant avantage d’échantillons cliniques bien caractérisés provenant des essais cliniques ci-haut mentionnés, nous utilisons les nouvelles technologies de séquençage TCR pour suivre la distribution clonale des lymphocytes T spécifiques aux arachides durant une immunothérapie orale. Nous démontrons que l’OIT s’associe à des changements significatifs dans les fréquences des clones spécifiques, suggérant un processus d’épuisement clonal et de remplacement. Nous démontrons par ailleurs que le test de prolifération lymphocytaire, traditionnellement utilisé pour évaluer la réponse cellulaire allergique, est dominé par une distribution polyclonale hautement non-spécifique. Cette observation a des implications majeures considérant que la plupart de la littérature actuelle sur la réponse T se base sur cette technique. En somme, cette thèse jette les bases pour des programmes de recherche translationnelle pour optimiser et personnaliser les protocoles cliniques actuels et développer de nouvelles avenues d’investigation et de traitement pour améliorer la prise en charge des sujets avec allergies alimentaires.
Resumo:
Dans le débat sur l’unicité ou la multiplicité de l’intelligence, Gardner prend nettement position en faveur des intelligences multiples (IM). Son approche soulève toutefois au moins neuf critiques : la confusion entre l’intelligence et le talent, une rigueur scientifique insuffisante, l’absence de réelles nouveautés, le caractère arbitraire des critères utilisés, les problèmes de l’interdépendance des IM, du réel statut des IM, l’ignorance des résultats des approches factorielles et le refus de considérer les différences entre les groupes, de la mesure des IM. La validité des applications des IM dans le milieu scolaire peut également être mise en doute. En conclusion, nous nous interrogeons sur la raison du succès de la théorie des IM.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.