990 resultados para expériences


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L‟utilité de la théorie de la dissuasion est régulièrement remise en question pour expliquer la relation entre les peines et la criminalité puisque les propriétés objectives de la peine ne semblent pas affecter les taux de criminalité, les perceptions que s‟en font les individus et la récidive des délinquants. Trois limites conceptuelles des auteurs qui remettent en question la dissuasion sont soulevées. Premièrement, les unités spatiales utilisées sont des territoires sur lesquels plusieurs corps policiers sont en fonction. Il y a donc peu de chances que tous les citoyens présents soient exposés au même message pénal. Deuxièmement, les chercheurs ont mesuré le risque objectif d‟être arrêté à l‟aide d‟un ratio entre le nombre d‟arrestations et le nombre de crimes rapportés. Cette conceptualisation est problématique puisque les résultats d‟autres études suggèrent que les citoyens ont peu de connaissances des propriétés objectives et qu‟il serait, ainsi, intéressant de se référer aux stimuli dissuasifs pour conceptualiser la notion de risques. Troisièmement, pour plusieurs chercheurs, la délinquance est considérée comme une activité pour laquelle les délits impunis découlent du hasard. Pourtant, les délinquants utilisent fréquemment des stratégies pour éviter les autorités policières. Ils sont donc proactifs dans leur impunité. De ces limites découlent quatre propositions : 1) afin de détecter les réels effets des propriétés de la peine sur la criminalité, les territoires utilisés dans les études doivent représenter des juridictions sur lesquelles un seul corps policier opère; 2) afin de détecter les réels effets des propriétés de la peine sur la criminalité, les études doivent être effectuées avec des données provenant d‟une juridiction dans laquelle les activités de répression sont augmentées significativement par rapport à leur seuil antérieur et maintenue sur une période de temps suffisamment longue; 3) les stimuli dissuasifs observés doivent être considérés comme des expériences vicariantes ; 4) l‟impunité doit être définie comme étant une expérience recherchée par les délinquants. Deux études ont été réalisées dans le cadre de cette thèse. D‟abord, une étude a été réalisée à l‟aide de données issues des rapports policiers de collisions et des constats d‟infraction rendus. Les résultats montrent que l‟augmentation de la répression policière ii sur le territoire du Service de Police de la Ville de Montréal a fait diminuer le nombre de collisions. Au même moment, les collisions sont demeurées stables sur le territoire desservis par le Service de police de la Ville de Québec. Dans un deuxième temps, une étude perceptuelle a été réalisée avec un échantillon d‟étudiants universitaires. Les résultats démontrent des effets mitigés des stimuli dissuasifs sur les perceptions que se font les individus de leurs risques d‟être arrêté et sur leurs comportements délinquants. Chez les moins délinquants, les stimuli dissuasifs font augmenter la perception que les délinquants se font de leurs risques. Par contre, les plus motivés à commettre des délits de la route développent des stratégies en réaction aux opérations policières plutôt que d‟en craindre les représailles. Ces tactiques d‟évitement n‟assurent pas une impunité totale, ni une perception moins élevée des risques de recevoir une contravention, mais elles retardent le moment où le délinquant sera confronté à la punition.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Afin d’adresser la variabilité interindividuelle observée dans la réponse pharmacocinétique à de nombreux médicaments, nous avons créé un panel de génotypage personnalisée en utilisant des méthodes de conception et d’élaboration d’essais uniques. Celles-ci ont pour but premier de capturer les variations génétiques présentent dans les gènes clés impliqués dans les processus d'absorption, de distribution, de métabolisme et d’excrétion (ADME) de nombreux agents thérapeutiques. Bien que ces gènes et voies de signalement sont impliqués dans plusieurs mécanismes pharmacocinétiques qui sont bien connues, il y a eu jusqu’à présent peu d'efforts envers l’évaluation simultanée d’un grand nombre de ces gènes moyennant un seul outil expérimental. La recherche pharmacogénomique peut être réalisée en utilisant deux approches: 1) les marqueurs fonctionnels peuvent être utilisés pour présélectionner ou stratifier les populations de patients en se basant sur des états métaboliques connus; 2) les marqueurs Tag peuvent être utilisés pour découvrir de nouvelles corrélations génotype-phénotype. Présentement, il existe un besoin pour un outil de recherche qui englobe un grand nombre de gènes ADME et variantes et dont le contenu est applicable à ces deux modèles d'étude. Dans le cadre de cette thèse, nous avons développé un panel d’essais de génotypage de 3,000 marqueurs génétiques ADME qui peuvent satisfaire ce besoin. Dans le cadre de ce projet, les gènes et marqueurs associés avec la famille ADME ont été sélectionnés en collaboration avec plusieurs groupes du milieu universitaire et de l'industrie pharmaceutique. Pendant trois phases de développement de cet essai de génotypage, le taux de conversion pour 3,000 marqueurs a été amélioré de 83% à 97,4% grâce à l'incorporation de nouvelles stratégies ayant pour but de surmonter les zones d'interférence génomiques comprenant entre autres les régions homologues et les polymorphismes sous-jacent les régions d’intérêt. La précision du panel de génotypage a été validée par l’évaluation de plus de 200 échantillons pour lesquelles les génotypes sont connus pour lesquels nous avons obtenu une concordance > 98%. De plus, une comparaison croisée entre nos données provenant de cet essai et des données obtenues par différentes plateformes technologiques déjà disponibles sur le marché a révélé une concordance globale de > 99,5%. L'efficacité de notre stratégie de conception ont été démontrées par l'utilisation réussie de cet essai dans le cadre de plusieurs projets de recherche où plus de 1,000 échantillons ont été testés. Nous avons entre autre évalué avec succès 150 échantillons hépatiques qui ont été largement caractérisés pour plusieurs phénotypes. Dans ces échantillons, nous avons pu valider 13 gènes ADME avec cis-eQTL précédemment rapportés et de découvrir et de 13 autres gènes ADME avec cis eQTLs qui n'avaient pas été observés en utilisant des méthodes standard. Enfin, à l'appui de ce travail, un outil logiciel a été développé, Opitimus Primer, pour aider pour aider au développement du test. Le logiciel a également été utilisé pour aider à l'enrichissement de cibles génomiques pour d'expériences séquençage. Le contenu ainsi que la conception, l’optimisation et la validation de notre panel le distingue largement de l’ensemble des essais commerciaux couramment disponibles sur le marché qui comprennent soit des marqueurs fonctionnels pour seulement un petit nombre de gènes, ou alors n’offre pas une couverture adéquate pour les gènes connus d’ADME. Nous pouvons ainsi conclure que l’essai que nous avons développé est et continuera certainement d’être un outil d’une grande utilité pour les futures études et essais cliniques dans le domaine de la pharmacocinétique, qui bénéficieraient de l'évaluation d'une longue liste complète de gènes d’ADME.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Réalisé en association avec le Centre interuniversitaire de recherche sur la science et la technologie (CIRST).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La perméabilité vasculaire est une caractéristique cruciale de l’angiogenèse. Les acteurs principaux sont les cellules endothéliales qui la régulent en réponse à divers facteurs perméabilisant, tels que le « Vascular Endothelial Growth Factor » (VEGF). Dans le contexte pathologique du cancer, les cellules tumorales produisent de grandes quantités de VEGF qui stimulent la perméabilité, ce qui leur permet d’infiltrer le réseau vasculaire. Il est connu que la tyrosine kinase Src contrôle cette modulation de la perméabilité. Puisque notre laboratoire a préalablement démontré que la phosphatase de type récepteur (PTP) DEP-1 est impliquée dans l’activation de Src en réponse au VEGF, nous avons émis l'hypothèse que DEP-1 pourrait aussi jouer un rôle dans la perméabilité des cellules endothéliales. Grâce à des expériences de transfections d’ARN interférant, nous démontrons que DEP-1 est important pour la régulation de la phosphorylation de la VE-Cadhérine, un médiateur critique de la perméabilité. L’impact de DEP-1 sur la dissociation de jonctions intercellulaires est également démontré par microscopie à immunofluorescence de cellules endothéliales. DEP-1 est également nécessaire à l’augmentation de la perméabilité induite par VEGF in vitro. Deux résidus tyrosine retrouvés dans la queue carboxy-terminale de DEP-1 sont essentiels à l’activation de Src en réponse au VEGF. Suite à la transfection d’un plasmide encodant DEP-1 muté pour ces deux résidus, nous démontrons aussi leur implication dans la régulation de la perméabilité in vitro par DEP-1. Ces travaux permettent ainsi d’approfondir nos connaissances sur un nouveau régulateur potentiel de la perméabilité vasculaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les études qui portent sur l’intégration professionnelle des travailleurs immigrants s’intéressent majoritairement aux résultats des acteurs sur le marché du travail ou à leur parcours d’intégration en mettant l’accent sur les barrières à l’intégration, plus rarement sur les stratégies des acteurs. Peu d’études s’intéressent aux trajectoires des travailleurs qualifiés qui ont réussi leur intégration socioprofessionnelle depuis une perspective centrée sur leur expérience subjective. Notre étude se situe résolument dans une approche micro-individuelle, donc, centrée sur les acteurs, ici, de nouveaux immigrants, travailleurs qualifiés, en processus d’intégration. Elle porte sur le déroulement de leur processus d’intégration, depuis leur décision d’immigrer jusqu’à la situation actuelle, après 5 à 10 ans passés au Québec. Notre perspective, axée sur l’expérience individuelle de l’immigrant, visait en même temps à relier les facteurs micro, macro et meso sociaux interagissant continuellement pour produire des trajectoires d’intégration uniques. Cette recherche qualitative, inspirée par le courant de la sociologie clinique, analyse les trajectoires socioprofessionnelles de sujets qui occupaient au moment de l’entrevue des emplois qualifiés, situés minimalement au niveau de leur diplôme. Elle portait sur la situation pré-migratoire : les motifs de départ, le choix de la destination; puis le parcours d’intégration socioprofessionnelle au Québec et finalement la situation actuelle du point de vue des objectifs et de la satisfaction personnelle des sujets. Il nous importait de mettre en lumière l’expérience personnelle d’intégration vue depuis la perspective subjective des acteurs. Ce faisant, nous avons étudié l’agentivité des travailleurs qualifiés qui se sont posés en tant qu’acteurs actifs et réflexifs face aux déterminant sociaux et limitations qui pesaient sur eux. Une deuxième question de recherche reliée à celle des trajectoires portait sur le regard subjectif des sujets sur l’intégration. Nous avons voulu savoir ce que c’est pour chacun que l’« intégration réussie » (au Québec) et l’intégration professionnelle « réussie ». De cette façon, il devient possible de révéler la diversité des positions et des perceptions individuelles des sujets quant à la question de l’intégration sans présumer du ou des résultats possibles de leur cheminement. Nos résultats révèlent la diversité des attentes individuelles face à l’immigration et à l’intégration dans le pays de destination et donc, ils nous invitent à tenir compte de la particularité de chaque sujet. L’immigration et l’intégration s’inscrivent pour les sujets dans une démarche individuelle plus large, celle de la réalisation de leurs projets de vie. Ces projets se situent à plusieurs niveaux et leur réalisation agit comme un guide des démarches individuelles qui visent à atteindre une vie qui s’avère satisfaisante, réussie, pleine ou complète, selon les acteurs. Il nous a été possible de rendre visibles les efforts que les acteurs ont déployés et déploient pour accomplir leurs projets et poursuivre leur chemin vers la réalisation de soi. Notre recherche a démontré qu’il est nécessaire de tenir compte tant de la subjectivité et des différences entre les acteurs au moment d’analyser leurs parcours que des résultats de leur intégration afin de concevoir des programmes qui intègrent davantage la complexité des processus en marche. Au final, il s’agit de contribuer plus efficacement à ce que les diverses expériences d’immigration et d’intégration soient « réussies ».

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un intérêt grandissant pour le rôle du citoyen dans la prise de décision concernant la vie publique se développe depuis les dernières années. Le développement et la mise en oeuvre de divers mécanismes de participation citoyenne, comme les conférences citoyennes, témoignent de cet intérêt. Nombre de ces expériences ont fait l'objet d'une évaluation, mais essentiellement au niveau de l'efficacité ou du succès de l'exercice. Peut-on les évaluer sur le plan de l’éthique? Quels sont les défis éthiques posés par les mécanismes de participation citoyenne? Ce mémoire évalue une expérience de conférence citoyenne portant sur les avancées de la biologie humaine à l’ère de la génomique mise sur pied par le Groupe de recherche en bioéthique (GREB) de l’Université de Montréal en 2005. À l’aide du concept de l’éthique de la discussion, telle que proposée par quatre auteurs québécois, une analyse qualitative est effectuée sur six documents rédigés dans le cadre de la conférence. Deux catégories de résultats sont discutées. D’abord, les divers éléments relatifs à la conférence citoyenne qui ont soulevé notre attention. Ensuite, les préoccupations des participants en lien avec la science, la société et la participation. Une meilleure compréhension des aspects éthiques auxquels on devrait accorder une attention particulière contribuera à l’amélioration du mécanisme de conférence citoyenne et à son utilisation à long terme.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La chromatine est plus qu’un système d’empaquetage de l’ADN ; elle est le support de toutes les réactions liées à l’ADN dans le noyau des cellules eucaryotes et participe au contrôle de l’accès de l’ARN polymérase II (ARNPolII) à l’ADN. Responsable de la transcription de tous les ARNm des cellules eucaryotes, l’ARNPolII doit, suivant son recrutement aux promoteurs des gènes, transcrire l’ADN en traversant la matrice chromatinienne. Grâce au domaine C-terminal (CTD) de sa sous-unité Rpb1, elle coordonne la maturation de l’ARNm en cours de synthèse ainsi que les modifications de la chromatine, concomitantes à la transcription. Cette thèse s’intéresse à deux aspects de la transcription : la matrice, avec la localisation de la variante d’histone H2A.Z, et la machinerie de transcription avec le cycle de phosphorylation du CTD de l’ARNPolII. Suivant l’introduction, le chapitre 2 de cette thèse constitue un protocole détaillé et annoté de la technique de ChIP-chip, chez la levure Saccharomyces cerevisiae. Cette technique phare dans l’étude in vivo des phénomènes liés à l’ADN a grandement facilité l’étude du rôle de la chromatine dans les phénomènes nucléaires, en permettant de localiser sur le génome les marques et les variantes d’histones. Ce chapitre souligne l’importance de contrôles adéquats, spécifiques à l’étude de la chromatine. Au chapitre 3, grâce à la méthode de ChIP-chip, la variante d’histone H2A.Z est cartographiée au génome de la levure Saccharomyces cerevisiae avec une résolution d’environ 300 paires de bases. Nos résultats montrent que H2A.Z orne un à deux nucléosomes au promoteur de la majorité des gènes. L’enrichissement de H2A.Z est anticorrélé à la transcription et nos résultats suggèrent qu’elle prépare la chromatine pour l’activation des gènes. De plus H2A.Z semble réguler la localisation des nucléosomes. Le chapitre suivant s’intéresse à la transcription sous l’angle de la machinerie de transcription en se focalisant sur le cycle de phosphorylation de l’ARN polymérase II. Le domaine C-terminal de sa plus large sous-unité est formé de répétitions d’un heptapeptide YSPTSPS dont les résidus peuvent être modifiés au cours de la transcription. Cette étude localise les marques de phosphorylation des trois résidus sérine de manière systématique dans des souches mutantes des kinases et phosphatases. Nos travaux confirment le profil universel des marques de phosphorylations aux gènes transcrits. Appuyés par des essais in vitro, ils révèlent l’interaction complexe des enzymes impliqués dans la phosphorylation, et identifient Ssu72 comme la phosphatase de la sérine 7. Cet article appuie également la notion de « variantes » des marques de phosphorylation bien que leur étude spécifique s’avère encore difficile. La discussion fait le point sur les travaux qui ont suivi ces articles, et sur les expériences excitantes en cours dans notre laboratoire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La thèse comporte trois essais en microéconomie appliquée. En utilisant des modèles d’apprentissage (learning) et d’externalité de réseau, elle étudie le comportement des agents économiques dans différentes situations. Le premier essai de la thèse se penche sur la question de l’utilisation des ressources naturelles en situation d’incertitude et d’apprentissage (learning). Plusieurs auteurs ont abordé le sujet, mais ici, nous étudions un modèle d’apprentissage dans lequel les agents qui consomment la ressource ne formulent pas les mêmes croyances a priori. Le deuxième essai aborde le problème générique auquel fait face, par exemple, un fonds de recherche désirant choisir les meilleurs parmi plusieurs chercheurs de différentes générations et de différentes expériences. Le troisième essai étudie un modèle particulier d’organisation d’entreprise dénommé le marketing multiniveau (multi-level marketing). Le premier chapitre est intitulé "Renewable Resource Consumption in a Learning Environment with Heterogeneous beliefs". Nous y avons utilisé un modèle d’apprentissage avec croyances hétérogènes pour étudier l’exploitation d’une ressource naturelle en situation d’incertitude. Il faut distinguer ici deux types d’apprentissage : le adaptive learning et le learning proprement dit. Ces deux termes ont été empruntés à Koulovatianos et al (2009). Nous avons montré que, en comparaison avec le adaptive learning, le learning a un impact négatif sur la consommation totale par tous les exploitants de la ressource. Mais individuellement certains exploitants peuvent consommer plus la ressource en learning qu’en adaptive learning. En effet, en learning, les consommateurs font face à deux types d’incitations à ne pas consommer la ressource (et donc à investir) : l’incitation propre qui a toujours un effet négatif sur la consommation de la ressource et l’incitation hétérogène dont l’effet peut être positif ou négatif. L’effet global du learning sur la consommation individuelle dépend donc du signe et de l’ampleur de l’incitation hétérogène. Par ailleurs, en utilisant les variations absolues et relatives de la consommation suite à un changement des croyances, il ressort que les exploitants ont tendance à converger vers une décision commune. Le second chapitre est intitulé "A Perpetual Search for Talent across Overlapping Generations". Avec un modèle dynamique à générations imbriquées, nous avons étudié iv comment un Fonds de recherche devra procéder pour sélectionner les meilleurs chercheurs à financer. Les chercheurs n’ont pas la même "ancienneté" dans l’activité de recherche. Pour une décision optimale, le Fonds de recherche doit se baser à la fois sur l’ancienneté et les travaux passés des chercheurs ayant soumis une demande de subvention de recherche. Il doit être plus favorable aux jeunes chercheurs quant aux exigences à satisfaire pour être financé. Ce travail est également une contribution à l’analyse des Bandit Problems. Ici, au lieu de tenter de calculer un indice, nous proposons de classer et d’éliminer progressivement les chercheurs en les comparant deux à deux. Le troisième chapitre est intitulé "Paradox about the Multi-Level Marketing (MLM)". Depuis quelques décennies, on rencontre de plus en plus une forme particulière d’entreprises dans lesquelles le produit est commercialisé par le biais de distributeurs. Chaque distributeur peut vendre le produit et/ou recruter d’autres distributeurs pour l’entreprise. Il réalise des profits sur ses propres ventes et reçoit aussi des commissions sur la vente des distributeurs qu’il aura recrutés. Il s’agit du marketing multi-niveau (multi-level marketing, MLM). La structure de ces types d’entreprise est souvent qualifiée par certaines critiques de système pyramidal, d’escroquerie et donc insoutenable. Mais les promoteurs des marketing multi-niveau rejettent ces allégations en avançant que le but des MLMs est de vendre et non de recruter. Les gains et les règles de jeu sont tels que les distributeurs ont plus incitation à vendre le produit qu’à recruter. Toutefois, si cette argumentation des promoteurs de MLMs est valide, un paradoxe apparaît. Pourquoi un distributeur qui désire vraiment vendre le produit et réaliser un gain recruterait-il d’autres individus qui viendront opérer sur le même marché que lui? Comment comprendre le fait qu’un agent puisse recruter des personnes qui pourraient devenir ses concurrents, alors qu’il est déjà établi que tout entrepreneur évite et même combat la concurrence. C’est à ce type de question que s’intéresse ce chapitre. Pour expliquer ce paradoxe, nous avons utilisé la structure intrinsèque des organisations MLM. En réalité, pour être capable de bien vendre, le distributeur devra recruter. Les commissions perçues avec le recrutement donnent un pouvoir de vente en ce sens qu’elles permettent au recruteur d’être capable de proposer un prix compétitif pour le produit qu’il désire vendre. Par ailleurs, les MLMs ont une structure semblable à celle des multi-sided markets au sens de Rochet et Tirole (2003, 2006) et Weyl (2010). Le recrutement a un effet externe sur la vente et la vente a un effet externe sur le recrutement, et tout cela est géré par le promoteur de l’organisation. Ainsi, si le promoteur ne tient pas compte de ces externalités dans la fixation des différentes commissions, les agents peuvent se tourner plus ou moins vers le recrutement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les observations astronomiques et cosmologiques suggèrent fortement la présence d’une matière exotique, non-relativiste et non-baryonique qui représenterait 26% du contenu de masse-énergie de l’Univers actuel. Cette matière dite sombre et froide serait compo- sée de particules neutres, massives et interagissant faiblement avec la matière ordinaire (WIMP : Weakly Interactive Massive Particles). Le projet PICASSO (Projet d’Identification des CAndidats Supersymétriques de la matière SOmbre) est une des expériences installées dans le site souterrain de SNOLAB à Sudbury en Ontario, qui tente de détecter directement un des candidats de la matière sombre, proposé dans le cadre des extensions supersymétriques du modèle standard : le neutralino. Pour cela, PICASSO utilise des détecteurs à gouttelettes surchauffées de C4F10, basés sur le principe de la chambre à bulles. Les transitions de phase dans les liquides surchauffés peuvent être déclenchées par le recul du 19 F, causé par une collision élastique avec les neutralinos. La nucléation de la gouttelette génère une onde sonore enregistrée par des senseurs piézo-électriques. Cette thèse présentera les récents progrès de l’expérience PICASSO qui ont conduit à une augmentation substantielle de sa sensibilité dans la recherche du neutralino. En effet, de nouvelles procédures de fabrication et de purification ont permis de réduire à un facteur de 10, la contamination majeure des détecteurs, causée par les émetteurs alpha. L’étude de cette contamination dans les détecteurs a permis de localiser la source de ces émetteurs. Les efforts effectués dans le cadre de l’analyse des données, ont permis d’améliorer l’effet de discrimination entre des évènements engendrés par les particules alpha et par les reculs nucléaires. De nouveaux outils d’analyse ont également été implémentés dans le but de discriminer les évènements générés par des particules de ceux générés par des bruits de fond électroniques ou acoustiques. De plus, un mécanisme important de suppression de bruit de fond indésirable à haute température, a permis à l’expérience PICASSO d’être maintenant sensible aux WIMPs de faibles masses.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette conférence (en espagnol) présente quelques expériences interreligieuses et féministes sur la scène mondiale et les analyse comme des pratiques de libération en solidarité dans ce temps de mondialisation néolibérale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

À ce jour, 80% des aînés restent à domicile grâce au soutien d’une proche-soignante(Ducharme, Lebel et Bergman, 2001; Colinet, Clepkens et Meire, 2003; Laporthe, 2005). Dans une large proportion des cas, la condition de l’aîné requiert des soins spécifiques et le recours aux services formels s’impose. Lorsque tel est le cas, les acteurs formels et informels se côtoient. Cette recherche aborde la relation entre les intervenantes et les proches-soignantes d’un aîné dont la condition requiert des services formels, sous l’angle de la négociation des services. Plus précisément, elle vise à vérifier la présence de négociation dans les échanges entre les acteurs, à comprendre comment les proches-soignantes tentent de négocier les services et à découvrir l’objet de cette négociation ainsi que la forme de son expression, implicite ou explicite. Enfin, elle cherche à explorer par l’analyse des échanges, les techniques de négociations utilisées par les acteurs informels du soutien à l’aîné. Dans le cadre de cette étude qualitative, quatre entrevues semi-dirigées ont été réalisées auprès de proches-soignantes d’aînés atteints de la maladie d’Alzheimer. Les résultats indiquent qu’il y a présence de négociation et que celle-ci émerge du processus de réception des services. Elle résulte d’apprentissages tirés des expériences vécues avec les intervenantes et les services. Elle est utilisée par les proches-soignantes pour négocier plusieurs dimensions des services et s’actualise dans l’usage de diverses techniques de négociation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.