1000 resultados para Dimensions dans un problème éthique


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Faute de droits d'auteurs pour les captures d'écrans, mon document ne contient pas d'images. Si vous voudriez consulter ma thèse avec les images, veuillez me contacter.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire porte sur la perception des acteurs multisectoriels de la petite enfance concernant le développement langagier des tout-petits et les interventions qu’ils proposent pour le soutenir. L’origine de cette question vient de l’Enquête sur la maturité scolaire des enfants montréalais. En route pour l'école! (DSPM, 2008a) qui révélait que les tout-petits montréalais étaient plus vulnérables dans les domaines du développement cognitif et langagier et des habiletés de communication et connaissances générales que ceux de l’échantillon normatif canadien, jumelée à la préoccupation des acteurs eux-mêmes relativement à cette problématique. Les objectifs sont de décrire le portrait qu’ont ces acteurs du développement langagier des enfants de leur milieu et analyser ces représentations sur le plan de leur articulation problème – solution. Pour y répondre, un cadre conceptuel écologique mettant en relation quatre niveaux d’influence (enfant, famille, voisinage, environnement général) et cinq axes d’intervention a été conçu. La méthodologie adoptée fut une étude de cas qualitative à base d’analyses documentaires et d’entrevues (n=10) auprès des six secteurs engagés dans l’intervention intersectorielle en petite enfance dans un CSSS montréalais. Les résultats montrent que ces acteurs connaissent les facteurs influençant le développement langagier des tout-petits. Les interventions actuelles ou souhaitées sont cohérentes avec les écrits scientifiques et partiellement stratégiques par rapport aux facteurs de risques identifiés. Des actions doivent toutefois être posées pour soutenir davantage les jeunes familles, dont celles visant à hausser la qualité du voisinage ou encore, l’accès à des services publics de qualité.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le modèle GARCH à changement de régimes est le fondement de cette thèse. Ce modèle offre de riches dynamiques pour modéliser les données financières en combinant une structure GARCH avec des paramètres qui varient dans le temps. Cette flexibilité donne malheureusement lieu à un problème de path dependence, qui a empêché l'estimation du modèle par le maximum de vraisemblance depuis son introduction, il y a déjà près de 20 ans. La première moitié de cette thèse procure une solution à ce problème en développant deux méthodologies permettant de calculer l'estimateur du maximum de vraisemblance du modèle GARCH à changement de régimes. La première technique d'estimation proposée est basée sur l'algorithme Monte Carlo EM et sur l'échantillonnage préférentiel, tandis que la deuxième consiste en la généralisation des approximations du modèle introduites dans les deux dernières décennies, connues sous le nom de collapsing procedures. Cette généralisation permet d'établir un lien méthodologique entre ces approximations et le filtre particulaire. La découverte de cette relation est importante, car elle permet de justifier la validité de l'approche dite par collapsing pour estimer le modèle GARCH à changement de régimes. La deuxième moitié de cette thèse tire sa motivation de la crise financière de la fin des années 2000 pendant laquelle une mauvaise évaluation des risques au sein de plusieurs compagnies financières a entraîné de nombreux échecs institutionnels. À l'aide d'un large éventail de 78 modèles économétriques, dont plusieurs généralisations du modèle GARCH à changement de régimes, il est démontré que le risque de modèle joue un rôle très important dans l'évaluation et la gestion du risque d'investissement à long terme dans le cadre des fonds distincts. Bien que la littérature financière a dévoué beaucoup de recherche pour faire progresser les modèles économétriques dans le but d'améliorer la tarification et la couverture des produits financiers, les approches permettant de mesurer l'efficacité d'une stratégie de couverture dynamique ont peu évolué. Cette thèse offre une contribution méthodologique dans ce domaine en proposant un cadre statistique, basé sur la régression, permettant de mieux mesurer cette efficacité.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nous étudions la gestion de centres d'appels multi-compétences, ayant plusieurs types d'appels et groupes d'agents. Un centre d'appels est un système de files d'attente très complexe, où il faut généralement utiliser un simulateur pour évaluer ses performances. Tout d'abord, nous développons un simulateur de centres d'appels basé sur la simulation d'une chaîne de Markov en temps continu (CMTC), qui est plus rapide que la simulation conventionnelle par événements discrets. À l'aide d'une méthode d'uniformisation de la CMTC, le simulateur simule la chaîne de Markov en temps discret imbriquée de la CMTC. Nous proposons des stratégies pour utiliser efficacement ce simulateur dans l'optimisation de l'affectation des agents. En particulier, nous étudions l'utilisation des variables aléatoires communes. Deuxièmement, nous optimisons les horaires des agents sur plusieurs périodes en proposant un algorithme basé sur des coupes de sous-gradients et la simulation. Ce problème est généralement trop grand pour être optimisé par la programmation en nombres entiers. Alors, nous relaxons l'intégralité des variables et nous proposons des méthodes pour arrondir les solutions. Nous présentons une recherche locale pour améliorer la solution finale. Ensuite, nous étudions l'optimisation du routage des appels aux agents. Nous proposons une nouvelle politique de routage basé sur des poids, les temps d'attente des appels, et les temps d'inoccupation des agents ou le nombre d'agents libres. Nous développons un algorithme génétique modifié pour optimiser les paramètres de routage. Au lieu d'effectuer des mutations ou des croisements, cet algorithme optimise les paramètres des lois de probabilité qui génèrent la population de solutions. Par la suite, nous développons un algorithme d'affectation des agents basé sur l'agrégation, la théorie des files d'attente et la probabilité de délai. Cet algorithme heuristique est rapide, car il n'emploie pas la simulation. La contrainte sur le niveau de service est convertie en une contrainte sur la probabilité de délai. Par après, nous proposons une variante d'un modèle de CMTC basé sur le temps d'attente du client à la tête de la file. Et finalement, nous présentons une extension d'un algorithme de coupe pour l'optimisation stochastique avec recours de l'affectation des agents dans un centre d'appels multi-compétences.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pour information, contactez Mark Bédard au mark.bedard@umontréal.ca

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les deux premiers romans de Michel Folco, Dieu et nous seuls pouvons (1991) et Un loup est un loup (1995), ont reçu un très bon accueil du public et de la presse, mais ont été pratiquement ignorés par la critique universitaire. Ces romans historiques méritent pourtant qu’on les étudie. Cet admirateur de Dumas propose des romans d’aventures d’inspiration historique, qui en apparence sont construits dans la plus pure tradition du genre. Or, les textes sont plus complexes qu’il n’y paraît : ils ont absorbé un intertexte fort et multiple, incorporé des fantasmatiques sociales inquiétantes, offrent une représentation originale du rapport entre l’être humain et la nature. Centrés autour des figures du bourreau et du loup, ils présentent un traitement singulier de ces symboles du mal et remettent en question la haine ancestrale dont ils sont l’objet. Dans un univers romanesque hanté par le motif de la vengeance, c’est l’ensemble de la société qui est représentée comme violente, intolérante et cruelle. La notion de mal est questionnée, redéfinie, déplacée. C’est ce déplacement qui est l’objet de ce mémoire, lequel se donne pour but de montrer comment les textes travaillent des récits historiques ainsi que des représentations mythiques et religieuses.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’objet de la présente thèse est la lutte contre la pauvreté. Elle cherche à identifier les conditions favorisant la sortie de la pauvreté dans un territoire urbain, ici le quartier de la Petite-Patrie. par une approche territoriale intégrée. S’inscrivant dans la mouvance des multiples initiatives de lutte contre la pauvreté et l’exclusion au Québec, le postulat qui fonde cette recherche est le suivant : la lutte contre la pauvreté par l’approche territoriale intégrée permet : 1) d’instaurer des conditions favorisant la sortie de la pauvreté et 2) de renverser les processus qui mènent à l’appauvrissement des personnes et, du même coup, d’améliorer les conditions et la qualité de vie de celles-ci dans un territoire particulier. Les résultats de cette recherche permettent : 1) de contribuer à la compréhension des dynamiques de lutte contre la pauvreté grâce à une approche considérant les acteurs agissant dans un territoire et, 2) d’éclairer les différents niveaux de conception et de mise en œuvre des politiques et des stratégies d’action, tant au niveau de l’État que de la société civile, sachant que les dispositifs d’intervention intégrés se créent à l’interface des initiatives locales ou régionales et des nouvelles formes de politiques publiques en matière de lutte contre la pauvreté. Les grandes conclusions qui émergent de cette recherche sont au nombre de trois : 1) Si la multidimentionnalité de la pauvreté est acceptée par plusieurs auteurs, on ne peut pas parler d’une seule pauvreté, mais de diverses pauvretés. Les visages de la pauvreté dans le territoire de La Petite-Patrie témoignent de cette diversité des pauvretés, et appellent une variété de stratégies d’action ; 2) Les personnes en situation de pauvreté, en fonction de leurs capacités d’agir, peuvent être appréhendées selon un double profil qui structure de façon importante leur processus de sortie de la pauvreté : le premier groupe rassemble les personnes en situation de pauvreté qui ont des initiatives découlant de leurs capacités d’agir, et le second groupe qui réunit les personnes en situation de pauvreté dont la capacité d’initiative est altérée, apparemment de façon durable, par leurs conditions de vie. Toute stratégie publique de sortie de la pauvreté dans un espace donné devrait alors considérer cette dimension relative aux capacités de rapprochement des individus et des ressources pour soutenir le développement d’une stratégie territoriale intégrée de lutte à la pauvreté plus efficace pour les personnes dont le processus de désaffiliation est plus avancé; 3) Les acteurs de lutte contre la pauvreté dans un territoire, pour réunir les conditions d’une action intégrée et mettre en place des conditions favorables de lutte contre la pauvreté, doivent s’appuyer sur la concertation, les alliances intersectorielles, le leadership inclusif et concerté, les passerelles formelles et fonctionnelles entre acteurs institutionnels, et sur une démarche hybride (emploi et défense des droits) qui constituent des ingrédients fondamentaux pour toute action ou intervention en faveur des personnes en situation de pauvreté vivant dans un cadre territorial défini et accepté par l’ensemble des acteurs locaux. Ce caractère hybride de la démarche permet d’agir de façon différenciée sur les deux groupes de la population. L’intégration est donc avant tout stratégique, c’est-à-dire fondée sur l’articulation d’une pluralité de logique d’action.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le neuroblastome (NB) est une tumeur fréquente et agressive du jeune enfant. Les tumeurs de haut grade de forme métastatique, généralement développées chez l'enfant de plus de 1 an, sont associées à une importante mortalité malgré un traitement lourd incluant une chimiothérapie à haute dose. La chimiorésistance est donc un problème majeur qui caractérise ces NB de haut grade. Une des hypothèses pour expliquer cette chimiorésistance est celle de l’activation de l’autophagie, un mécanisme auquel recourent les cellules afin de faire face aux situations de stress. D’ailleurs, plusieurs études ont démontré que l'autophagie était activée à la suite des thérapies anticancéreuses. Son inhibition pourrait donc représenter une stratégie thérapeutique très intéressante pour le traitement de cancers. Le but de ce projet de recherche a été de mettre en évidence l'importance de l'autophagie dans les cellules du NB ainsi que l'effet de son inhibition sur la sensibilité des cellules du NB à la chimiothérapie conventionnelle. La présence d'autophagie dans les cellules de NB et sa valeur pronostic ont été évaluées par une étude immunohistochimique et par western blot sur 184 tumeurs patient. Ensuite, dans le but de déterminer l'effet de la chimiothérapie conventionnelle sur le niveau d'autophagie, des études in vitro sur 6 lignées cellulaires ont été effectuées utilisant des tests de mesure d'autophagie (MDC, monodanylcadaverine), de viabilité cellulaire (MTT) et de western blot. Celles ci ont été suivies par des tests d'inhibition de l'autophagie par deux méthodes: l’inactivation du gène ATG5 par un lentivirus contenant un shRNA ciblant ATG5 ou de l'hydroxychloroquine (HCQ), un inhibiteur pharmacologique de l’autophagie. Cette inhibition a été testée seule ou en combinaison avec une chimiothérapie conventionnelle dans le but de déterminer le rôle de l'autophagie dans la sensibilisation des cellules de NB à la chimiothérapie. Ensuite, l’intérêt de l’inhibition de l’autophagie a été évalué sur des modèles murins. Enfin, le niveau d'autophagie a été testé dans des cellules souches de NB. Notre étude a démonté que l'autophagie est présente à un niveau basal dans une majorité des NB mais qu'elle ne représentait pas un facteur pronostic dans ce type de tumeur. Les différentes chimiothérapies testées induisent une augmentation de l'autophagie dans les cellules du NB. Les deux tests d'inhibition ont démontré in vitro que l'autophagie participe à la résistance des cellules aux traitements chimiothérapeutiques classiques du NB. Le blocage de l’autophagie in vivo augmente l’efficacité de la chimiothérapie, cependant certaines données associées au traitement par HCQ devront être complétées. Cette étude démontre que l'inhibition de l'autophagie en combinaison avec la chimiothérapie classique représente une approche thérapeutique prometteuse dans le traitement du NB.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Rapport de stage présenté à la Faculté des Arts et des Sciences en vue de l'obtention du grade de Maîtrise (M.Sc.) en criminologie

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Réalisé en cotutelle avec l'Université Paris-Diderot.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le développement de la nutrigénétique/nutrigénomique (NGx) a suscité de nombreuses attentes puisque les retombées qui lui sont associées s’avèrent potentiellement bénéfiques autant pour les individus en santé que pour les individus malades. De grandes attentes avaient également été associées au Projet de décryptage du Génome Humain (PGH). Aujourd’hui, seules quelques attentes de celles envisagées se sont concrétisées. Le PGH a donc évolué dans un contexte marqué par du biohype, soit la promotion d’attentes exagérées, voir irréalistes. Étant donné l’importance des attentes associées avec le développement de la NGx et des limites méthodologiques auxquelles fait encore face la recherche clinique conduite dans ce domaine, l’objectif principal de cette thèse est de déterminer si les publications scientifiques rapportant des résultats de recherches cliniques effectuées en NGx contribuent à l’émergence d’un phénomène de biohype. Plus spécifiquement, il s’agira également de documenter la perception des chercheurs oeuvrant dans le domaine de la NGx du phénomène de biohype, d’identifier certains facteurs qui pourraient expliquer son émergence dans la littérature scientifique propre à ce domaine et de proposer des pistes d’actions pour limiter les risques associés à ce phénomène. Nous avons tout d’abord procédé à une analyse documentaire d’articles scientifiques rapportant des résultats issus de recherches cliniques en NGx. Celle-ci nous a révélé que plusieurs bénéfices étaient promus dans cette littérature alors même que les limites méthodologiques n’étaient pas d’emblée présentées et discutées. Cette observation nous portait à croire que ces bénéfices étant potentiellement prématurés. Nous avons ensuite voulu valider notre constat auprès des chercheurs œuvrant principalement dans le domaine de la NGx. Cette enquête nous a permis de constater que les chercheurs étaient généralement en accord avec les bénéfices que nous avons recensés dans les articles scientifiques. Toutefois, ils n’envisageaient pas leur concrétisation à moyen terme. Par ailleurs, cette enquête nous a également révélé que les limitations méthodologiques actuellement rencontrées dans la conduite de recherches cliniques soulevaient des doutes quant à la faisabilité des bénéfices promut dans les articles scientifiques. Ces données viennent confirmer notre observation à savoir qu’un phénomène de biohype serait réellement en émergence dans les articles scientifiques rapportant des résultats de recherches cliniques en NGx. Outre des informations concernant les publics ciblés par les chercheurs et les éléments que doivent contenir un article scientifique, cette enquête nous a également aidés à mieux comprendre les avantages associés à la promotion de bénéfices. Selon la majorité des chercheurs interrogés, la promotion de bénéfices dans un article scientifique augmenterait les chances d’un manuscrit d’être publié et favoriserait la continuité du financement du domaine de recherche. Cette activité étant caractérisée par un environnement compétitif, la promotion de bénéfices semble être une avenue à envisager pour se démarquer. Quoique la promotion de bénéfices prématurés ou exagérés ne soit pas considérée comme de l’inconduite scientifique, elle peut causer entre autres un affaiblissement du sentiment de confiance entre le public et les chercheurs et ultimement, contrevenir à la continuité d’une saine activité de recherche. À la lumière de ces données, nous croyons qu’une des stratégies qui permettrait de prévenir l’apparition des risques associés au phénomène de biohype serait de sensibiliser les chercheurs et les éditeurs de journaux scientifiques à ces derniers. Plus particulièrement, nous encourageons l’intégration de lignes directrices portant sur la gestion du biohype dans les codes de conduites qui ont été mis en place pour favoriser les bonnes pratiques en recherche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mémoire de recherche et création, incluant une partie essai et un texte de création.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Inspiré par la réflexion épistémologique de l'anthropologue Michel Verdon, ce mémoire propose un cadre conceptuel pour l'étude de l'organisation sociale des castes en Inde. L'ethnographie de Jonathan Parry, Caste and Kinship in Kangra, est analysée et réinterprétée dans un langage dit « opérationnel ». Les différentes approches des castes oscillent entre deux pôles théoriques opposés : l'idéalisme, représenté notamment par la démarche structuraliste de Louis Dumont, et le substantialisme, jadis adopté par les dirigeants coloniaux et incarné plus récemment dans les travaux de Dipankar Gupta. Toutes deux holistes, ces options conduisent pourtant à une impasse dans l'étude comparative de l'organisation sociale, car elles rendent les groupes « ontologiquement variables » et, par conséquent, incomparables. En repensant les prémisses sur lesquelles repose la conception générale de l'organisation sociale, un cadre opérationnel confère à la notion de groupe une réalité binaire, discontinue, évitant ainsi la variabilité ontologique des groupes et favorisant le comparatisme. Il rend également possible l'étude des rapports entre groupes et réseaux. La relecture de l'ethnographie Caste and Kinship in Kangra montre la pertinence d'une telle approche dans l'étude des castes. Le caractère segmentaire de ces dernières est remis en cause et l'autonomie des foyers, qui forment des réseaux d'alliances en matière d'activités rituelles, est mise de l'avant. Cette nouvelle description incite enfin à de nouvelles comparaisons.