986 resultados para Problème de Snell
Resumo:
L’importance des produits naturels dans le développement de nouveaux médicaments est indéniable. Malheureusement, l’isolation et la purification de ces produits de leurs sources naturelles procure normalement de très faibles quantités de molécules biologiquement actives. Ce problème a grandement limité l’accès à des études biologiques approfondies et/ou à une distribution sur une grande échelle du composé actif. Par exemple, la famille des pipéridines contient plusieurs composés bioactifs isolés de sources naturelles en très faible quantité (de l’ordre du milligramme). Pour pallier à ce problème, nous avons développé trois nouvelles approches synthétiques divergentes vers des pipéridines polysubstituées contenant une séquence d’activation/désaromatisation d’un sel de pyridinium chiral et énantioenrichi. La première approche vise la synthèse de pipéridines 2,5-disubstituées par l’utilisation d’une réaction d’arylation intermoléculaire sur des 1,2,3,4-tétrahydropyridines 2-substituées. Nous avons ensuite développé une méthode de synthèse d’indolizidines et de quinolizidines par l’utilisation d’amides secondaires. Cette deuxième approche permet ainsi la synthèse formelle d’alcaloïdes non-naturels à la suite d’une addition/cyclisation diastéréosélective et régiosélective sur un intermédiaire pyridinium commun. Finalement, nous avons développé une nouvelle approche pour la synthèse de pipéridines 2,6-disubstituées par l’utilisation d’une réaction de lithiation dirigée suivie d’un couplage croisé de Negishi ou d’un parachèvement avec un réactif électrophile. Le développement de transformations chimiosélectives et versatiles est un enjeu crucial et actuel pour les chimistes organiciens. Nous avons émis l’hypothèse qu’il serait possible d’appliquer le concept de chimiosélectivité à la fonctionnalisation d’amides, un des groupements le plus souvent rencontrés dans la structure des molécules naturelles. Dans le cadre précis de cette thèse, des transformations chimiosélectives ont été réalisées sur des amides secondaires fonctionnalisés. La méthode repose sur l’activation de la fonction carbonyle par l’anhydride triflique en présence d’une base faible. Dans un premier temps, l’amide ainsi activé a été réduit sélectivement en fonction imine, aldéhyde ou amine en présence d’hydrures peu nucléophiles. Alternativement, un nucléophile carboné a été employé afin de permettre la synthèse de cétones ou des cétimines. D’autre part, en combinant un amide et un dérivé de pyridine, une réaction de cyclisation/déshydratation permet d’obtenir les d’imidazo[1,5-a]pyridines polysubstituées. De plus, nous avons brièvement appliqué ces conditions d’activation au réarrangement interrompu de type Beckmann sur des cétoximes. Une nouvelle voie synthétique pour la synthèse d’iodures d’alcyne a finalement été développée en utilisant une réaction d’homologation/élimination en un seul pot à partir de bromures benzyliques et allyliques commercialement disponibles. La présente méthode se distincte des autres méthodes disponibles dans la littérature par la simplicité des procédures réactionnelles qui ont été optimisées afin d’être applicable sur grande échelle.
Resumo:
Les centres d’appels sont des éléments clés de presque n’importe quelle grande organisation. Le problème de gestion du travail a reçu beaucoup d’attention dans la littérature. Une formulation typique se base sur des mesures de performance sur un horizon infini, et le problème d’affectation d’agents est habituellement résolu en combinant des méthodes d’optimisation et de simulation. Dans cette thèse, nous considérons un problème d’affection d’agents pour des centres d’appels soumis a des contraintes en probabilité. Nous introduisons une formulation qui exige que les contraintes de qualité de service (QoS) soient satisfaites avec une forte probabilité, et définissons une approximation de ce problème par moyenne échantillonnale dans un cadre de compétences multiples. Nous établissons la convergence de la solution du problème approximatif vers celle du problème initial quand la taille de l’échantillon croit. Pour le cas particulier où tous les agents ont toutes les compétences (un seul groupe d’agents), nous concevons trois méthodes d’optimisation basées sur la simulation pour le problème de moyenne échantillonnale. Étant donné un niveau initial de personnel, nous augmentons le nombre d’agents pour les périodes où les contraintes sont violées, et nous diminuons le nombre d’agents pour les périodes telles que les contraintes soient toujours satisfaites après cette réduction. Des expériences numériques sont menées sur plusieurs modèles de centre d’appels à faible occupation, au cours desquelles les algorithmes donnent de bonnes solutions, i.e. la plupart des contraintes en probabilité sont satisfaites, et nous ne pouvons pas réduire le personnel dans une période donnée sont introduire de violation de contraintes. Un avantage de ces algorithmes, par rapport à d’autres méthodes, est la facilité d’implémentation.
Resumo:
Cette thèse de doctorat, qui s’inscrit dans un programme de doctorat en sciences humaines appliquées, s’est d’abord construite en réponse à un problème concret, celui du roulement des infirmières et des infirmières auxiliaires dans le réseau de la santé et des services sociaux. En cours de route, il est toutefois apparu nécessaire d’élargir le questionnement à la question du rapport au travail des jeunes infirmières pour être en mesure de saisir les dynamiques sociales plus larges qui conditionnent certains choix professionnels, dont la décision de quitter son emploi. Cette thèse poursuit donc deux grands objectifs. D’une part, elle s’attarde à cerner l’ensemble des processus qui conduisent les jeunes infirmières à faire le choix de quitter leur emploi. D’autre part, elle vise à mieux comprendre comment a évolué leur rapport au travail dans le temps. La perspective théorique retenue s’appuie sur deux approches complémentaires, soit celles de la perspective des parcours de vie et de divers courants en sociologie de l’individu qui ont comme point commun d’accorder une place importante au contexte social, aux contraintes structurelles, de même qu’à l’autonomie des acteurs et à leur capacité d’agir sur leur parcours de vie. Ces approches s’avèrent particulièrement pertinentes dans le cadre de notre étude puisqu’elles permettent de rendre compte des liens complexes entre le contexte social plus global, les différents contextes de vie d’un individu et ses comportements en emploi. Elles invitent à conceptualiser le rapport au travail comme un processus qui évolue dans le temps à travers lequel plusieurs éléments de la vie d’un individu et de ses proches se combinent pour donner une orientation particulière aux trajectoires professionnelles. Vu sous cet angle, la décision de quitter se présente également comme un processus qui se construit dans un laps de temps plus ou moins long où entrent en jeu plusieurs dimensions de la vie d’un individu. La perspective adoptée dans le cadre de cette thèse permet de combler des lacunes dans ce champ de recherche où peu d’études se sont attardées à comprendre les différents processus qui façonnent le rapport au travail dans le temps et qui conduisent les infirmières à la décision de quitter leur emploi. Pour répondre aux objectifs de recherche, une étude qualitative a été menée. Des entrevues individuelles de type récit de vie ont été effectuées pour comprendre, du point de vue des participantes, comment a évolué leur rapport au travail et les processus qui les ont amenées à quitter leur emploi. Une étude de cas a été effectuée dans un centre de santé et de services sociaux de la province de Québec qui affichait un taux de roulement particulièrement élevé. L’étude visait les infirmières et les infirmières auxiliaires, groupe professionnel fortement touché par le roulement de la main-d’œuvre. Des entretiens en profondeur, d’une durée de 2h30 à 3 heures, ont été réalisées auprès de 42 infirmières et infirmières auxiliaires. Les résultats de la recherche sont présentés à travers la production de trois articles scientifiques. Le premier article, Pour une compréhension dynamique du rapport au travail: la valeur heuristique de la perspective des parcours de vie, a pour objectif de faire ressortir l’intérêt que présentent les principes analytiques associés à cette perspective dans l’étude du rapport au travail. Dans cet article, nous démontrons que le rapport au travail est le résultat d’un processus complexe où les aspirations des individus, leurs conditions concrètes d’emploi et les événements qui surviennent dans leur vie personnelle et familiale entretiennent des liens dynamiques et interdépendants qui façonnent le rapport au travail tout au long de la vie. Cet article apporte des éléments de réflexion à la question posée par plusieurs chercheurs : par quel moyen saisir ce qu’il en est du rapport au travail des jeunes? Le deuxième article, Rencontre entre l’idéaltype de travailleur et l’idéal de travail : le cas de jeunes infirmières en début de vie professionnelle, vise à rendre compte de la manière dont s’est faite la rencontre entre les attentes que les infirmières nourrissent à l’égard du travail et leur réalité concrète de travail à une période précise de leur trajectoire professionnelle, soit celle de leur insertion en emploi et des premières années de pratique. L’article démontre que trois dimensions du rapport au travail sont affectées par les nouvelles normes managériales qui prévalent dans le réseau de la santé et des services sociaux : 1) la place souhaitée du travail dans la vie, 2) la réalisation de soi par le travail et 3) le sens au travail. Cet article apporte une contribution dans la compréhension du rapport au travail de jeunes professionnelles qui exercent un métier de relation d’aide dans le contexte spécifique du réseau québécois de la santé et des services sociaux. Le troisième article, Comprendre le roulement comme un processus lié au cycle de la vie : le cas des infirmières, traite plus spécifiquement de la question du roulement de la main d’œuvre infirmière. Quatre parcours de départs sont présentés qui possèdent des caractéristiques distinctes relatives à la rencontre entre les attentes et la réalité concrète de travail, l’interaction entre le travail et la vie hors travail et la manière dont s’est construite dans le temps la décision de quitter son emploi. Les résultats démontrent que la décision de quitter se présente comme un processus qui se construit dans un laps de temps plus ou moins long, qui implique différentes dimensions de la vie d’un individu et qui est intimement lié à la quête de réalisation de soi au travail et dans les autres domaines de la vie. Cet article propose une façon d’appréhender le phénomène du roulement qui se distingue des modèles dominants qui abordent cette question à partir d’une lecture essentiellement individualisante et psychologisante des départs. La contribution de cette thèse à l’avancement des connaissances réside principalement dans le fait qu’elle appréhende autrement la question du rapport au travail et celle du roulement de la main-d’œuvre en recourant à la perspective des parcours de vie et à la sociologie de l’individu. L’approche que nous avons préconisée permet de saisir les processus sociaux et la multiplicité des éléments à prendre en considération dans l’étude du rapport au travail des jeunes infirmières et de la décision de quitter son emploi. Elle met en exergue l’importance de considérer le contexte social plus global dans lequel s’inscrit tout individu qui, dans les sociétés contemporaines, doit s’engager dans un travail de construction identitaire tout au long de la vie.
Resumo:
Si la manière de produire une image depuis la reproductibilité technique a toujours été profondément déterminée par la captation d’une réalité physique, le numérique (qui constitue une méthode d’inscription visuelle distincte) devrait, en théorie, modifier la relation du spectateur à ces « nouvelles images ». Toutefois, en pratique, le spectateur fait-il l’expérience des images numériques d’une manière différente de celles issues de la captation? Afin de répondre à cette question, ce mémoire analyse, à l’aide de l’approche sémio-pragmatique, comment le spectateur a conditionné son regard à travers les techniques de la captation (photographie, cinéma et vidéo). Ensuite, cette étude compare les habitudes et les attentes visuelles engendrées par ces techniques aux images numériques. Enfin, cette étude situe le problème de la rupture dans une perspective plus large que celle des techniques afin de poser le questionnement dans toute une tradition de la représentation artistique.
Resumo:
Les dinoflagellés sont des eucaryotes unicellulaires que l’on retrouve autant en eau douce qu’en milieu marin. Ils sont particulièrement connus pour causer des fleurs d’algues toxiques nommées ‘marée-rouge’, ainsi que pour leur symbiose avec les coraux et pour leur importante contribution à la fixation du carbone dans les océans. Au point de vue moléculaire, ils sont aussi connus pour leur caractéristiques nucléaires uniques, car on retrouve généralement une quantité immense d’ADN dans leurs chromosomes et ceux-ci sont empaquetés et condensés sous une forme cristalline liquide au lieu de nucléosomes. Les gènes encodés par le noyau sont souvent présents en multiples copies et arrangés en tandem et aucun élément de régulation transcriptionnelle, y compris la boite TATA, n’a encore été observé. L’organisation unique de la chromatine des dinoflagellés suggère que différentes stratégies sont nécessaires pour contrôler l’expression des gènes de ces organismes. Dans cette étude, j’ai abordé ce problème en utilisant le dinoflagellé photosynthétique Lingulodinium polyedrum comme modèle. L. polyedrum est d’un intérêt particulier, car il a plusieurs rythmes circadiens (journalier). À ce jour, toutes les études sur l’expression des gènes lors des changements circadiens ont démontrées une régulation à un niveau traductionnel. Pour mes recherches, j’ai utilisé les approches transcriptomique, protéomique et phosphoprotéomique ainsi que des études biochimiques pour donner un aperçu de la mécanique de la régulation des gènes des dinoflagellés, ceci en mettant l’accent sur l’importance de la phosphorylation du système circadien de L. polyedrum. L’absence des protéines histones et des nucléosomes est une particularité des dinoflagellés. En utilisant la technologie RNA-Seq, j’ai trouvé des séquences complètes encodant des histones et des enzymes modifiant les histones. L polyedrum exprime donc des séquences conservées codantes pour les histones, mais le niveau d’expression protéique est plus faible que les limites de détection par immunodétection de type Western. Les données de séquençage RNA-Seq ont également été utilisées pour générer un transcriptome, qui est une liste des gènes exprimés par L. polyedrum. Une recherche par homologie de séquences a d’abord été effectuée pour classifier les transcrits en diverses catégories (Gene Ontology; GO). Cette analyse a révélé une faible abondance des facteurs de transcription et une surprenante prédominance, parmi ceux-ci, des séquences à domaine Cold Shock. Chez L. polyedrum, plusieurs gènes sont répétés en tandem. Un alignement des séquences obtenues par RNA-Seq avec les copies génomiques de gènes organisés en tandem a été réalisé pour examiner la présence de transcrits polycistroniques, une hypothèse formulée pour expliquer le manque d’élément promoteur dans la région intergénique de la séquence de ces gènes. Cette analyse a également démontré une très haute conservation des séquences codantes des gènes organisés en tandem. Le transcriptome a également été utilisé pour aider à l’identification de protéines après leur séquençage par spectrométrie de masse, et une fraction enrichie en phosphoprotéines a été déterminée comme particulièrement bien adapté aux approches d’analyse à haut débit. La comparaison des phosphoprotéomes provenant de deux périodes différentes de la journée a révélée qu’une grande partie des protéines pour lesquelles l’état de phosphorylation varie avec le temps est reliées aux catégories de liaison à l’ARN et de la traduction. Le transcriptome a aussi été utilisé pour définir le spectre des kinases présentes chez L. polyedrum, qui a ensuite été utilisé pour classifier les différents peptides phosphorylés qui sont potentiellement les cibles de ces kinases. Plusieurs peptides identifiés comme étant phosphorylés par la Casein Kinase 2 (CK2), une kinase connue pour être impliquée dans l’horloge circadienne des eucaryotes, proviennent de diverses protéines de liaison à l’ARN. Pour évaluer la possibilité que quelques-unes des multiples protéines à domaine Cold Shock identifiées dans le transcriptome puissent moduler l’expression des gènes de L. polyedrum, tel qu’observé chez plusieurs autres systèmes procaryotiques et eucaryotiques, la réponse des cellules à des températures froides a été examinée. Les températures froides ont permis d’induire rapidement un enkystement, condition dans laquelle ces cellules deviennent métaboliquement inactives afin de résister aux conditions environnementales défavorables. Les changements dans le profil des phosphoprotéines seraient le facteur majeur causant la formation de kystes. Les phosphosites prédits pour être phosphorylés par la CK2 sont la classe la plus fortement réduite dans les kystes, une découverte intéressante, car le rythme de la bioluminescence confirme que l’horloge a été arrêtée dans le kyste.
Resumo:
Les analyses effectuées dans le cadre de ce mémoire ont été réalisées à l'aide du module MatchIt disponible sous l’environnent d'analyse statistique R. / Statistical analyzes of this thesis were performed using the MatchIt package available in the statistical analysis environment R.
Resumo:
Ce projet de recherche est consacré à l’analyse des politiques sociales qui entourent les violences sexuelles envers les femmes. La visibilité de la violence sexuelle est récente. En dénonçant à la fin des années 1960, les violences sexuelles comme symbole de l'oppression des femmes, le mouvement féministe a été à l'origine de la reconnaissance par les politiques de ce « phénomène » comme une problématique sociale importante et d’intérêt public. L'étude est centrée sur le cas de la France depuis les années 1960 ; de l’émergence du problème social de la violence sexuelle à la formulation des plans gouvernementaux depuis 2005. Il s'agit d'analyser l'évolution du discours public sur les violences sexuelles au fil du temps et les réponses sociales offertes. Cette étude s’articule autour de deux préoccupations : la première est de comprendre comment s’est construite la question de la violence sexuelle, la seconde concerne l’analyse des politiques actuelles qui émanent de cette évolution. Pour comprendre ces questionnements, nous avons utilisé une méthode qualitative s’inspirant principalement de la méthode d’analyse documentaire. Nous avons procédé à l’analyse des différents plans d’actions gouvernementaux mis en place depuis 2005 et des écrits ministériels et scientifiques portant sur la problématique des violences sexuelles. Partant de ce matériel, d’autres documents sont utilisés afin de cerner le contexte historique et actuel. On retrouve par exemple les auteurs qui ont retracés l’histoire de cette problématique à travers les siècles mais aussi les enquêtes sociologiques, qui ont contribué à évaluer l’ampleur du phénomène, ou la revue de presse, qui aide à mieux comprendre les enjeux d’aujourd’hui. Cette recherche s’inscrit principalement dans le courant théorique constructiviste développé par Spector et Kitsuse (1977), repris et explicité par Loseke dans son livre Thinking about social problem (2003). Enfin, un recours à la comparaison internationale par l’exemple du Québec nous a permis d’éclairer certaines particularités françaises.
Resumo:
Les travaux effectués dans le cadre de cette thèse de doctorat avaient pour but de mettre au point des nouvelles formulations d’antifongiques sous forme de nanoparticules polymériques (NP) en vue d’améliorer l’efficacité et la spécificité des traitements antifongiques sur des souches sensibles ou résistantes de Candida spp, d’Aspergillus spp et des souches de Candida albicans formant du biofilm. Dans la première partie de ce travail, nous avons synthétisé et caractérisé un polymère à base de polyester-co-polyéther branché avec du poly(éthylène glycol) (PEG-g-PLA). En plus d’être original et innovant, ce co-polymère a l’avantage d’être non-toxique et de posséder des caractéristiques de libération prolongée. Trois antifongiques couramment utilisés en clinique et présentant une biodisponibilité non optimale ont été choisis, soient deux azolés, le voriconazole (VRZ) et l’itraconazole (ITZ) et un polyène, l’amphotéricine B (AMB). Ces principes actifs (PA), en plus des problèmes d’administration, présentent aussi d’importants problèmes de toxicité. Des NP polymériques encapsulant ces PA ont été préparées par une technique d’émulsion huile-dans-l’eau (H/E) suivie d’évaporation de solvant. Une fois fabriquées, les NP ont été caractérisées et des particules de d’environ 200 nm de diamètre ont été obtenues. Les NP ont été conçues pour avoir une structure coeur/couronne avec un coeur constitué de polymère hydrophobe (PLA) et une couronne hydrophile de PEG. Une faible efficacité de chargement (1,3% m/m) a été obtenue pour la formulation VRZ encapsulé dans des NP (NP/VRZ). Toutefois, la formulation AMB encapsulée dans des NP (NP/AMB) a montré des taux de chargement satisfaisants (25,3% m/m). En effet, le caractère hydrophobe du PLA a assuré une bonne affinité avec les PA hydrophobes, particulièrement l’AMB qui est le plus hydrophobe des agents sélectionnés. Les études de libération contrôlée ont montré un relargage des PA sur plusieurs jours. La formulation NP/AMB a été testée sur un impacteur en cascade, un modèle in vitro de poumon et a permis de démontrer le potentiel de cette formulation à être administrée efficacement par voie pulmonaire. En effet, les résultats sur l’impacteur en cascade ont montré que la majorité de la formulation s’est retrouvée à l’étage de collecte correspondant au niveau bronchique, endroit où se situent majoritairement les infections fongiques pulmonaires. Dans la deuxième partie de ces travaux, nous avons testé les nouvelles formulations d’antifongiques sur des souches planctoniques de Candida spp., d’Aspergillus spp. et des souches de Candida albicans formant du biofilm selon les procédures standardisées du National Committee for Clinical Laboratory Standards (NCCLS). Les souches choisies ont démontré des résistances aux azolés et aux polyènes. Les études d’efficacité in vitro ont permis de prouver hors de tout doute que les nouvelles formulations offrent une efficacité nettement améliorée comparée à l’agent antifongique libre. Pour mettre en lumière si l’amélioration de l’efficacité antifongique était due à une internalisation des NP, nous avons évalué le comportement des NP avec les cellules de champignons. Nous avons procédé à des études qualitatives de microscopie de fluorescence sur des NP marquées avec de la rhodamine (Rh). Tel qu’attendu, les NP ont montré une localisation intracellulaire. Pour exclure la possibilité d’une simple adhésion des NP à la surface des levures, nous avons aussi confirmé leur internalisation en microscopie confocale de fluorescence. Il est important de noter que peu d’études à ce jour ont mis l’accent sur l’élaboration de nouvelles formulations d’antifongiques à base de polymères non toxiques destinées aux traitements des mycoses, donnant ainsi une grande valeur et originalité aux travaux effectués dans cette thèse. Les résultats probants obtenus ouvrent la voie vers une nouvelle approche pour contourner les problèmes de résistances fongiques, un problème de plus en plus important dans le domaine de l’infectiologie.
Resumo:
Le contrôle psychologique parental est un facteur de risque réputé pour les problèmes intériorisés des enfants (p. ex., Affrunti & Ginsburg, 2011; McLeod, Wood & Weisz, 2007). Selon la Théorie de l'auto-détermination, le contrôle psychologique mène aux problèmes intériorisés (Ryan, Deci, Grolnick, & La Guardia, 2006) car il brime le besoin fondamental d'autonomie. En effet, recevoir de la pression afin de penser, se comporter et se sentir d’une certaine façon (Ryan, 1982) semble favoriser une régulation trop rigide et surcontrôlée (Ryan et al., 2006). Suite aux travaux de Soenens et Vansteenkiste (2010), la distinction conceptuelle entre deux formes de contrôle psychologique, soit manifestes (p. ex., les menaces, forcer physiquement) et dissimulées (p. ex., la surprotection, le marchandage), ont été utilisées pour évaluer le style parental (Étude 1) et les pratiques disciplinaires (Étude 2). Le contrôle psychologique parental et le soutien de l'autonomie (Étude 2) ont été mesurés durant la petite enfance puisque (1) les problèmes intériorisés émergent tôt, (2) le développement du sentiment d'autonomie est central au cours de cette période, et (3) attire probablement plus de contrôle psychologique parental. Avec ses deux articles, la présente thèse vise à clarifier la façon dont le contrôle psychologique manifeste et dissimulé est lié au développement précoce de problèmes intériorisés. L'étude 1 est une étude populationnelle examinant l'impact relatif du style parental sur des trajectoires développementales d'anxiété (N = 2 120 enfants; de 2,5 à 8 ans) avec de nombreux facteurs de risque potentiels provenant de l'enfant, de la mère et de la famille, tous mesurés au cours de la petite enfance. Les résultats ont montré qu'en plus de la timidité des enfants, de la dépression maternelle et du dysfonctionnement familial, le contrôle psychologique manifeste (c.-à-d., coercitif) et dissimulé (c.-à-d., la surprotection) augmentent le risque, pour les enfants, de suivre une trajectoire d'anxiété élevée. Une interaction entre la dépression maternelle et le contrôle dissimulé a été trouvée, ce qui indique que la surprotection augmente l'anxiété des enfants seulement lorsque la dépression maternelle est élevée. Enfin, le contrôle dissimulé prédit également l'anxiété telle que rapportée par les enseignants de deuxième année. Le deuxième article est une étude observationnelle qui examine comment l'autorégulation (AR) des bambins est liée au développement précoce des symptômes intériorisés, tout en explorant comment les pratiques disciplinaires parentales (contrôle et soutien de l'autonomie) y sont associées. Les pratiques parentales ont été codifiées lors d'une requête de rangement à 2 ans (contexte "Do", N = 102), tandis que l'AR des bambins a été codifiée à la fois durant la tâche de rangement ("Do") et durant une tâche d'interdiction (ne pas toucher à des jouets attrayants; contexte «Don't » ), à 2 ans puis à 3 ans. Les symptômes d'anxiété / dépression des enfants ont été évalués par leurs parents à 4,5 ans. Les résultats ont révélé que l'AR aux interdictions à 3 ans diminue la probabilité des enfants à manifester des taux élevés de symptômes d'anxiété / dépression. Les analyses ont aussi révélé que le parentage soutenant l'autonomie était lié à l'AR des enfants aux requêtes, un an plus tard. En revanche, le contrôle psychologique manifeste et dissimulé ont eu des effets délétères sur l'AR. Enfin, seul le contrôle dissimulé a augmenté les probabilités de présenter des niveaux plus élevés de problèmes intériorisés et ce, au-delà de l’effet protecteur de l'AR des bambins. Des résultats mitigés sont issus de cette thèse concernant les effets respectifs des deux formes de contrôle sur les problèmes intériorisés, dépendamment de l'informateur (mère c. enseignant) et de la méthodologie (questionnaires c. données observationnelles). Toutefois, le contrôle psychologique dissimulé était lié à ce problème affectif dans les deux études. Enfin, le soutien à l'autonomie s’est révélé être un facteur de protection potentiel et mériterait d'être étudié davantage.
Resumo:
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.
Resumo:
Les méthodes de Monte Carlo par chaînes de Markov (MCCM) sont des méthodes servant à échantillonner à partir de distributions de probabilité. Ces techniques se basent sur le parcours de chaînes de Markov ayant pour lois stationnaires les distributions à échantillonner. Étant donné leur facilité d’application, elles constituent une des approches les plus utilisées dans la communauté statistique, et tout particulièrement en analyse bayésienne. Ce sont des outils très populaires pour l’échantillonnage de lois de probabilité complexes et/ou en grandes dimensions. Depuis l’apparition de la première méthode MCCM en 1953 (la méthode de Metropolis, voir [10]), l’intérêt pour ces méthodes, ainsi que l’éventail d’algorithmes disponibles ne cessent de s’accroître d’une année à l’autre. Bien que l’algorithme Metropolis-Hastings (voir [8]) puisse être considéré comme l’un des algorithmes de Monte Carlo par chaînes de Markov les plus généraux, il est aussi l’un des plus simples à comprendre et à expliquer, ce qui en fait un algorithme idéal pour débuter. Il a été sujet de développement par plusieurs chercheurs. L’algorithme Metropolis à essais multiples (MTM), introduit dans la littérature statistique par [9], est considéré comme un développement intéressant dans ce domaine, mais malheureusement son implémentation est très coûteuse (en termes de temps). Récemment, un nouvel algorithme a été développé par [1]. Il s’agit de l’algorithme Metropolis à essais multiples revisité (MTM revisité), qui définit la méthode MTM standard mentionnée précédemment dans le cadre de l’algorithme Metropolis-Hastings sur un espace étendu. L’objectif de ce travail est, en premier lieu, de présenter les méthodes MCCM, et par la suite d’étudier et d’analyser les algorithmes Metropolis-Hastings ainsi que le MTM standard afin de permettre aux lecteurs une meilleure compréhension de l’implémentation de ces méthodes. Un deuxième objectif est d’étudier les perspectives ainsi que les inconvénients de l’algorithme MTM revisité afin de voir s’il répond aux attentes de la communauté statistique. Enfin, nous tentons de combattre le problème de sédentarité de l’algorithme MTM revisité, ce qui donne lieu à un tout nouvel algorithme. Ce nouvel algorithme performe bien lorsque le nombre de candidats générés à chaque itérations est petit, mais sa performance se dégrade à mesure que ce nombre de candidats croît.
Resumo:
L’existence d’un sous-type dissociatif de schizophrénie a été suggérée par plusieurs auteurs pour rendre compte des présentations symptomatologiques d’un groupe de personnes dont le diagnostic principal est dans le spectre de la schizophrénie mais qui présentent aussi des symptômes dissociatifs (Ross, 2004; Şar et al., 2010; Van der Hart, Witztum, & Friedman, 1993). D’origine traumatique, ce type de portrait clinique où symptômes psychotiques et dissociatifs s’entremêlent aurait été décrit il y a déjà plus d’un siècle (Janet & Raymond, 1898) mais serait disparu dans les années ’30, assimilé au concept de « schizophrénie » (Rosenbaum, 1980). C’est dans un nouveau contexte nosographique que le concept de schizophrénie dissociative refait surface. En effet, la nosographie psychiatrique a pris un tournant en 1980 lorsque l’approche préconisée par le DSM est devenue descriptive plutôt que basée sur des conceptualisations psychanalytiques. Du coup, les affections d’alors ont été divisées en troubles dont les symptômes ont tendance à se manifester ensemble (Cooper, 2004) et la comorbidité entre les troubles a augmenté. Étant donné la comorbidité fréquemment rapportée entre les troubles psychotiques et dissociatifs, la similarité phénoménologique de leurs symptômes, ainsi que leur possible étiologie traumatique, Ross (2004) a proposé une série de critères permettant de diagnostiquer une schizophrénie dissociative. L’objectif principal de cette thèse est donc d’établir si la schizophrénie dissociative, telle que définie par Ross (2004), existe. Le premier article porte sur la problématique et le contexte théorique ayant mené à la question de recherche. Il vise à faire un survol des enjeux entourant la question de la schizophrénie dissociative et rend compte des écrits scientifiques sur la symptomatologie similaire entre les troubles psychotiques et dissociatifs, sur leur étiologie traumatique et sur les études sur la dissociation et la schizophrénie. Le deuxième article est quant à lui un article empirique rendant compte de la méthodologie utilisée pour répondre à la question de recherche. En effet, aucune étude jusqu’ici n’a testé systématiquement les critères de la schizophrénie dissociative. Nos résultats démontrent que 24% de notre échantillon (N=50) pourrait recevoir le diagnostic de schizophrénie dissociative avec les critères proposés par Ross (2004). Toutefois, ces critères posant problème, une modification a été proposée et une prévalence de 14% a alors été trouvée. Des vignettes cliniques sont présentées afin de comparer nos participants avec ceux rapportés ailleurs. Les liens entre symptômes psychotiques et dissociatifs sont discutés en essayant de conceptualiser la schizophrénie dissociative de différentes manières, soit comme une nouvelle entité clinique, comme un trouble comorbide ou dans un contexte nosographique psychodynamique.
Resumo:
Le déroulement du commerce électronique sur un marché global suscite de nombreux questionnements juridiques. D'une part, le droit est conçu à l'échelle nationale en fonction d'un milieu social tributaire de son histoire et de sa culture et d'autre part, le commerce électronique global présente des caractéristiques très singulières : dématérialisation, ubiquité et dimension transfrontalière. Or, une telle confrontation est susceptible de menacer la sécurité juridique des parties dans leurs transactions commerciales en ligne mais aussi la confiance nécessaire à leur développement. Les territoires nationaux, en limitant le pouvoir d’action effectif des États, pose un problème d’échelle : réglementer un phénomène global confronté à des souverainetés territoriales multiples. L’encadrement normatif du commerce électronique global se développe désormais, en partie, à un niveau extra étatique, confirmant l’érosion du monopole des États dans la régulation des rapports juridiques globalisés. La normativité devient le résultat d’un jeu normatif ouvert non seulement quant aux acteurs de la régulation, mais également quant à la qualification des normes impliquées dans cette régulation. Prenant la mesure de la complexité croissante de la normativité, les États interviennent pour tenter de concilier les pratiques nouvelles avec la règle de droit dans une logique de définition des règles du jeu et d’harmonisation du comportement des acteurs économiques. Les systèmes de droit nationaux apprennent à interagir avec des normes multiples de sources différentes. Cette évolution reflète l’articulation des dynamiques de mutation de la normativité avec le phénomène de globalisation du commerce électronique.
Resumo:
Les calculs numériques ont été effectués à l'aide du logiciel SAGE.
Resumo:
L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.