209 resultados para Dépendance


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire a comme objectif d’analyser le vécu des justiciables placés en détention avant jugement. Plus précisément, cette étude se veut préciser ce vécu sur les volets judiciaire et carcéral impliqués dans une mise en détention provisoire. Nous voulons de plus dégager les sentiments issus d’un tel placement. Enfin, nous souhaitions réfléchir sur le recours à la détention avant jugement à travers la perspective d’un modèle de justice basé sur la gestion des risques et sur une logique d’efficience, d’efficacité et de responsabilisation. Pour ce faire, nous avons utilisé l’approche qualitative pour mener vingt-trois entrevues auprès d’hommes et de femmes incarcérés en attente de leur jugement dans quatre établissements de détention du Québec. De ces entretiens, deux thèmes centraux sont ressortis, soit le Vécus carcéral et judiciaire du prévenu, marqué par l’incertitude, l’incompréhension, l’impuissance, la dépendance, les conditions difficiles de détention, les pertes ainsi que l’attente et les Sentiments issus d’une mise en détention provisoire, marqué par la souffrance, l’injustice et l’urgence de sortir de cette situation provisoire. Il ressort de nos analyses que la façon dont est administré le système de justice, l’opinion du public ainsi que les politiques en vigueur ont un impact sur la façon de gérer le recours à la détention provisoire en favorisant tout le contraire de sa mission initiale. Ainsi, la mesure s’en trouve conduite au détriment de l’acteur principal : le prévenu.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le défi face aux changements climatiques ne consiste pas seulement à gérer les conséquences déjà existantes, mais aussi celles à venir. Les déplacements de population représentent sans aucun doute l’une de ces conséquences, pour laquelle nous devons réfléchir sans délai puisque les déplacements ont déjà débuté. Le Bangladesh est le symbole des déplacements de population reliés aux changements climatiques. Une configuration géographique propice aux désastres naturels, une densité de population élevée, une forte dépendance aux ressources naturelles et d’autres facteurs socio-économiques, constituent les raisons sous-jacentes à la vulnérabilité du Bangladesh. Les médias ont tôt fait d’alarmer la communauté sur les répercussions des changements climatiques sur la société civile et le droit international s’y attarde de façon plus sérieuse. De quelles protections bénéficient ces déplacés climatiques? Cette question fait d’ailleurs surgir de nouvelles problématiques juridiques. Nous nous rendrons vite à l’évidence que les déplacements, qu’ils soient à l’intérieur ou l’extérieur des frontières, ne sont susceptibles d’aucune protection internationale. Face à ce vide juridique, plusieurs propositions ont été envisagées et analysées par les chercheurs. Fuir ou rester : voici les deux choix de la population. Nous verrons que ces choix peuvent être largement influencés par les décisions gouvernementales. Cela nous amènera à nous questionner sur la perception du Bangladesh face à la migration climatique. Ce pays considère-t-il la migration comme une stratégie ou plutôt comme un échec à l’adaptation?

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pour décrire les vibrations à l'intérieur des molécules diatomiques, le potentiel de Morse est une meilleure approximation que le système de l'oscillateur harmonique. Ainsi, en se basant sur la définition des états cohérents et comprimés donnée dans le cadre du problème de l'oscillateur harmonique, la première partie de ce travail suggère une construction des états cohérents et comprimés pour le potentiel de Morse. Deux types d’états seront construits et leurs différentes propriétés seront étudiées en portant une attention particulière aux trajectoires et aux dispersions afin de confirmer la quasi-classicité de ces états. La deuxième partie de ce travail propose d'insérer ces deux types d’états cohérents et comprimés de Morse dans un miroir semi-transparent afin d'introduire un nouveau moyen de créer de l'intrication. Cette intrication sera mesurée à l’aide de l’entropie linéaire et nous étudierons la dépendance par rapport aux paramètres de cohérence et de compression.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Comme une grande partie des îles de la Caraïbe, pour des raisons économiques basées sur le mercantilisme, justifiées par une législation, la Martinique, née il y a trois siècles, a connu un emmêlement massif de diverses ethnies. Suite à l’abolition de l’esclavage en 1848 et à la crise agricole qui en découla, c’est un brassage de coutumes qui s’opéra avec l’immigration des Hindous, des Africains, des Chinois et des Indochinois. Ce faisant, ces coutumes ont conservé leurs traditions et croyances propres, expliquant ainsi la fusion d'éléments de ces cultures, encore présente aujourd’hui. En abolissant l’esclavage, la « Loi » abolit également la réification, rétablissant ainsi l’humanité de l’homme, puisque l’esclave noir était considéré comme un bien meuble . Il en résulte la création d’un nouveau monde, modifiant la vie culturelle, déployant des habitus, ainsi qu’une manière de penser et d’agir. Aussi, un nouveau langage se structure progressivement. En 1946, la Martinique est reconnue département français d’Amérique. Aujourd’hui, elle se trouve dans une dépendance économique et sociale. De cet état de fait, un conflit s’impose à l’Afro-Martiniquais quant à la question de l’identité. Il se trouve partagé entre le contexte franco-européen et le milieu afro-antillais. Cette contradiction émane aussi de situations de confrontation, d’où se dégage souvent un ressenti de « fatalité » voire de « malédiction » entraînant « un sentiment de culpabilité collective » d’oser défier l’ordre social en place. Notre recherche vise à analyser ce dilemme de la dépendance à partir de l’énoncé des malédictions puis des considérations historiques suivies d'une perspective psychanalytique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous développons dans cette thèse, des méthodes de bootstrap pour les données financières de hautes fréquences. Les deux premiers essais focalisent sur les méthodes de bootstrap appliquées à l’approche de "pré-moyennement" et robustes à la présence d’erreurs de microstructure. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. En se basant sur cette ap- proche d’estimation de la volatilité intégrée en présence d’erreurs de microstructure, nous développons plusieurs méthodes de bootstrap qui préservent la structure de dépendance et l’hétérogénéité dans la moyenne des données originelles. Le troisième essai développe une méthode de bootstrap sous l’hypothèse de Gaussianité locale des données financières de hautes fréquences. Le premier chapitre est intitulé: "Bootstrap inference for pre-averaged realized volatility based on non-overlapping returns". Nous proposons dans ce chapitre, des méthodes de bootstrap robustes à la présence d’erreurs de microstructure. Particulièrement nous nous sommes focalisés sur la volatilité réalisée utilisant des rendements "pré-moyennés" proposés par Podolskij et Vetter (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à hautes fréquences consécutifs qui ne se chevauchent pas. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. Le non-chevauchement des blocs fait que les rendements "pré-moyennés" sont asymptotiquement indépendants, mais possiblement hétéroscédastiques. Ce qui motive l’application du wild bootstrap dans ce contexte. Nous montrons la validité théorique du bootstrap pour construire des intervalles de type percentile et percentile-t. Les simulations Monte Carlo montrent que le bootstrap peut améliorer les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques, pourvu que le choix de la variable externe soit fait de façon appropriée. Nous illustrons ces méthodes en utilisant des données financières réelles. Le deuxième chapitre est intitulé : "Bootstrapping pre-averaged realized volatility under market microstructure noise". Nous développons dans ce chapitre une méthode de bootstrap par bloc basée sur l’approche "pré-moyennement" de Jacod et al. (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à haute fréquences consécutifs qui se chevauchent. Le chevauchement des blocs induit une forte dépendance dans la structure des rendements "pré-moyennés". En effet les rendements "pré-moyennés" sont m-dépendant avec m qui croît à une vitesse plus faible que la taille d’échantillon n. Ceci motive l’application d’un bootstrap par bloc spécifique. Nous montrons que le bloc bootstrap suggéré par Bühlmann et Künsch (1995) n’est valide que lorsque la volatilité est constante. Ceci est dû à l’hétérogénéité dans la moyenne des rendements "pré-moyennés" au carré lorsque la volatilité est stochastique. Nous proposons donc une nouvelle procédure de bootstrap qui combine le wild bootstrap et le bootstrap par bloc, de telle sorte que la dépendance sérielle des rendements "pré-moyennés" est préservée à l’intérieur des blocs et la condition d’homogénéité nécessaire pour la validité du bootstrap est respectée. Sous des conditions de taille de bloc, nous montrons que cette méthode est convergente. Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques. Nous illustrons cette méthode en utilisant des données financières réelles. Le troisième chapitre est intitulé: "Bootstrapping realized covolatility measures under local Gaussianity assumption". Dans ce chapitre nous montrons, comment et dans quelle mesure on peut approximer les distributions des estimateurs de mesures de co-volatilité sous l’hypothèse de Gaussianité locale des rendements. En particulier nous proposons une nouvelle méthode de bootstrap sous ces hypothèses. Nous nous sommes focalisés sur la volatilité réalisée et sur le beta réalisé. Nous montrons que la nouvelle méthode de bootstrap appliquée au beta réalisé était capable de répliquer les cummulants au deuxième ordre, tandis qu’il procurait une amélioration au troisième degré lorsqu’elle est appliquée à la volatilité réalisée. Ces résultats améliorent donc les résultats existants dans cette littérature, notamment ceux de Gonçalves et Meddahi (2009) et de Dovonon, Gonçalves et Meddahi (2013). Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques et les résultats de bootstrap existants. Nous illustrons cette méthode en utilisant des données financières réelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les interactions entre les squelettes sucre-phosphate de nucléotides jouent un rôle important dans la stabilisation des structures tertiaires de larges molécules d’ARN. Elles sont régies par des règles particulières qui gouverne leur formation mais qui jusque là demeure quasiment inconnues. Un élément structural d’ARN pour lequel les interactions sucre-phosphate sont importantes est le motif d’empaquetage de deux doubles hélices d’ARN le long du sillon mineur. Ce motif se trouve à divers endroits dans la structure du ribosome. Il consiste en deux doubles hélices interagissant de manière à ce que le squelette sucre-phosphate de l’une se niche dans le sillon mineur de l’autre et vice versa. La surface de contact entre les deux hélices est majoritairement formée par les riboses et implique au total douze nucléotides. La présente thèse a pour but d’analyser la structure interne de ce motif et sa dépendance de stabilité résultant de l’association optimale ou non des hélices, selon leurs séquences nucléotidiques. Il est démontré dans cette thèse qu’un positionnement approprié des riboses leur permet de former des contacts inter-hélices, par l’entremise d’un choix particulier de l’identité des pairs de bases impliquées. Pour différentes pairs de bases participant à ce contact inter-hélices, l’identité optimale peut être du type Watson-Crick, GC/CG, or certaines pairs de bases non Watson-Crick. Le choix adéquat de paires de bases fournit une interaction inter-hélice stable. Dans quelques cas du motif, l’identité de certaines paires de bases ne correspond pas à la structure la plus stable, ce qui pourrait refléter le fait que ces motifs devraient avoir une liberté de formation et de déformation lors du fonctionnement du ribosome.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse fait la lumière sur les différentes manières dont, historiquement, a été perçu, conçu et vécu le territoire, à travers l’expérience et l’essor de la mobilité. Cette étude montre le rôle crucial de l’automobilité dans le développement touristique du Québec et de l’Ontario et les manières dont elle a façonné certains de leurs territoires. La thèse reconstitue ces processus en examinant les différentes mesures adoptées pour mettre en tourisme ces territoires et les transformer sur le plan matériel comme symbolique, entre 1920 et 1967. Elle répond à la question suivante : en quoi et comment la mobilité associée à l’automobile transforme et crée les territoires touristiques? La période étudiée s’ouvre au moment où débute l’intervention gouvernementale en matière de tourisme et s’amorce l’aménagement d’infrastructures favorisant une plus grande automobilité. Elle se clôt sur les célébrations entourant le Centenaire du Canada et la tenue de l’Expo 1967 à Montréal, qui donnent lieu à un aménagement intense du territoire afin d’accommoder un nombre sans précédent de touristes motorisés en provenance des autres provinces canadiennes et des États-Unis. La thèse reconstitue d’abord le processus de mise en tourisme des territoires par la conception, la construction et la promotion du système routier, l’élaboration d’itinéraires et de circuits touristiques et le développement d’outils accompagnant le touriste dans sa mobilité. L’embellissement en tant qu’élément structurant de la transformation des territoires est ensuite examiné. Enfin, la publicité, les récits et les pratiques touristiques sont étudiés de manière détaillée afin d’identifier les mécanismes par lesquels se construisent les représentations des territoires par l’apport de différents acteurs. Cette thèse révèle ainsi les liens étroits et complexes qui se développent à partir des années 1920 entre l’automobilité, le tourisme et la modification des territoires. Elle contribue à mettre au jour l’historicité de certains réflexes et orientations qui ont encore cours dans l’industrie touristique canadienne soit ceux d’aborder son développement en fonction de l’accessibilité du territoire à l’automobile et du regard à travers le pare-brise. En montrant le rôle du système automobile dans l’expérience touristique, l’étude ajoute un élément nouveau à la compréhension de la démocratisation des loisirs. Souvent expliquée par la hausse du niveau de vie, du temps libre et de la généralisation des congés payés, cette démocratisation se trouve aussi favorisée par l’accessibilité à l’automobile qui, à son tour, rend accessible des territoires de plus en plus éloignés à des fins de loisirs. La dimension récréative de l’automobile permet d’expliquer son adoption rapide par les Nord-Américains et les Canadiens ainsi que la dépendance qu’ils ont progressivement développée à son égard.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude analyse l’impact du processus libéral de paix en République Démocratique du Congo sur la poursuite des violences dans les provinces du Nord et du Sud Kivu. Elle soutient que les dynamiques conflictuelles dans ces deux régions sont entretenues par l’établissement d’un programme de partage de pouvoir (power sharing), inclusif, jumelé à l’application des réformes économiques libérales. En se concentrant sur la réforme du secteur de sécurité et l’harmonisation de la politique nationale (en vue des élections post-conflictuelles de 2006), le processus de paix néglige les enjeux politiques et socio-économiques locaux. Le désengagement de l’État et la libéralisation du secteur minier accentuent le taux de corruption du gouvernement de transition et renforcent l’exploitation illégale des ressources par les groupes armés. Cette recherche soutient que l’implantation massive d’entreprises minières multinationales dans les provinces du Nord et du Sud Kivu aggrave la déformation des tissus socio-économiques locaux, accentue la dépendance des populations aux réseaux de gouvernance informelle et renforce les divers groupes armés présents sur le terrain. Par conséquent, les réformes structurelles menées dans le cadre du processus libéral de paix font perdurer les violences et occasionnent de nouvelles dynamiques conflictuelles localisées autour du contrôle des ressources locales, qu’elles soient d’ordre économique ou politique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'être humain utilise trois systèmes sensoriels distincts pour réguler le maintien de la station debout: la somesthésie, le système vestibulaire, et le système visuel. Le rôle de la vision dans la régulation posturale demeure peu connu, notamment sa variabilité en fonction de l'âge, du type développemental, et des atteintes neurologiques. Dans notre travail, la régulation posturale induite visuellement a été évaluée chez des participants au développement et vieillissement normaux âgés de 5-85 ans, chez des individus autistes (développement atypique) âgés de 12-33 ans, ainsi que chez des enfants entre 9-18 ans ayant subi un TCC léger. À cet effet, la réactivité posturale des participants en réponse à un tunnel virtuel entièrement immersif, se mouvant à trois niveaux de vélocité, a été mesurée; des conditions contrôles, où le tunnel était statique ou absent, ont été incluses. Les résultats montrent que la réactivité (i.e. instabilité) posturale induite visuellement est plus élevée chez les jeunes enfants; ensuite, elle s'atténue pour rejoindre des valeurs adultes vers 16-19 ans et augmente de façon linéaire en fonction de l'âge après 45 ans jusqu'à redevenir élevée vers 60 ans. De plus, à la plus haute vélocité du tunnel, les plus jeunes participants autistes ont manifesté significativement moins de réactivité posturale comparativement à leurs contrôles; cette différence n'était pas présente chez des participants plus âgés (16-33 ans). Enfin, les enfants ayant subi un TCC léger, et qui étaient initialement modérément symptomatiques, ont montré un niveau plus élevé d'instabilité posturale induite visuellement que les contrôles, et ce jusqu'à 12 semaines post-trauma malgré le fait que la majorité d'entre eux (89%) n'étaient plus symptomatiques à ce stade. En somme, cela suggère la présence d'une importante période de transition dans la maturation des systèmes sous-tendant l'intégration sensorimotrice impliquée dans le contrôle postural vers l'âge de 16 ans, et d'autres changements sensorimoteurs vers l'âge de 60 ans; cette sur-dépendance visuelle pour la régulation posturale chez les enfants et les aînés pourrait guider l'aménagement d'espaces et l'élaboration d'activités ajustés à l'âge des individus. De plus, le fait que l'hypo-réactivité posturale aux informations visuelles chez les autistes dépende des caractéristiques de l'environnement visuel et de l'âge chronologique, affine notre compréhension des anomalies sensorielles propres à l'autisme. Par ailleurs, le fait que les enfants ayant subi un TCC léger montrent des anomalies posturales jusqu'à 3 mois post-trauma, malgré une diminution significative des symptômes rapportés, pourrait être relié à une altération du traitement de l'information visuelle dynamique et pourrait avoir des implications quant à la gestion clinique des patients aux prises avec un TCC léger, puisque la résolution des symptômes est actuellement le principal critère utilisé pour la prise de décision quant au retour aux activités. Enfin, les résultats obtenus chez une population à développement atypique (autisme) et une population avec atteinte neurologique dite transitoire (TCC léger), contribuent non seulement à une meilleure compréhension des mécanismes d'intégration sensorimotrice sous-tendant le contrôle postural mais pourraient aussi servir comme marqueurs sensibles et spécifiques de dysfonction chez ces populations. Mots-clés : posture, équilibre, vision, développement/vieillissement sensorimoteur, autisme, TCC léger symptomatique, réalité virtuelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En mai 2009, l’Ontario a adopté la Loi sur l’énergie verte et devint ainsi la première juridiction en Amérique du Nord à promouvoir l’énergie renouvelable par le biais de tarifs de rachat garantis. En novembre 2010, dans son Plan énergétique à long terme, la province s’est engagée à déployer 10,700 MW en capacité de production d’énergie renouvelable non-hydroélectrique par 2018. Il s’agit de la cible de déploiement la plus élevée dans ce secteur au Canada. Les infrastructures de production et de distribution d’électricité comprennent des coûts d’installation élevés, une faible rotation des investissements et de longs cycles de vie, facteurs qui servent habituellement à ancrer les politiques énergétiques dans une dynamique de dépendance au sentier. Depuis le début des années 2000, cependant, l’Ontario a commencé à diverger de sa traditionnelle dépendance aux grandes centrales hydroélectriques, aux centrales à charbon et aux centrales nucléaires par une série de petits changements graduels qui feront grimper la part d’énergie renouvelable dans le mix énergétique provincial à 15% par 2018. Le but de ce mémoire est d’élucider le mécanisme de causalité qui a sous-tendu l’évolution graduelle de l’Ontario vers la promotion de l’énergie renouvelable par le biais de tarifs de rachat garantis et d’une cible de déploiement élevée. Ce mémoire applique la théorie du changement institutionnel graduel de Mahoney et Thelen au cas du développement de politiques d’énergie renouvelable en Ontario afin de mieux comprendre les causes, les modes et les effets du changement institutionnel. Nous découvrons que le contexte canadien de la politique énergétique favorise la sédimentation institutionnelle, c’est-à-dire un mode changement caractérisé par de petits gains favorisant l’énergie renouvelable. Ces gains s’accumulent pourtant en transformation politique importante. En Ontario, la mise sur pied d’une vaste coalition pour l’énergie renouvelable fut à l’origine du changement. Les premiers revendicateurs de politiques favorisant l’énergie renouvelable – les environnementalistes et les premières entreprises d’approvisionnement et de service en technologies d’énergie renouvelable – ont dû mettre sur pied un vaste réseau d’appui, représentant la quasi-totalité de la société ontarienne, pour faire avancer leur cause. Ce réseau a fait pression sur le gouvernement provincial et, en tant que front commun, a revendiqué l’énergie renouvelable non seulement comme solution aux changements climatiques, mais aussi comme solution à maints autres défis pressants de santé publique et de développement économique. La convergence favorable d’un nombre de facteurs contextuels a certes contribué à la réussite du réseau ontarien pour l’énergie renouvelable. Cependant, le fait que ce réseau ait trouvé des alliés au sein de l’exécutif du gouvernement provincial s’est révélé d’importance cruciale quant à l’obtention de politiques favorisant l’énergie renouvelable. Au Canada, les gouvernements provinciaux détiennent l’ultime droit de veto sur la politique énergétique. Ce n’est qu’en trouvant des alliés aux plus hauts échelons du gouvernement que le réseau ontarien pour l’énergie renouvelable a pu réussir.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le guide et les vidéos se veulent des outils de sensibilisation et d'information à l'usage des délégués sociaux et autres intervenants dans divers milieux de travail à travers le Québec.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’acide γ-aminobutyrique (GABA) est le principal neurotransmetteur inhibiteur du système nerveux central et est impliqué dans diverses pathologies incluant l’épilepsie, l’anxiété, la dépression et la dépendance aux drogues. Le GABA agit sur l’activité neuronale par l’activation de deux types de récepteurs; le canal chlorique pentamérique GABAA et l’hétérodimère obligatoire de récepteurs couplés aux protéines G (RCPG) GABAB. Chacun des récepteurs est responsable de phases distinctes de la réponse cellulaire au GABA. Lors d’une stimulation par le GABA, il est essentiel pour la cellule de pouvoir contrôler le niveau d’activité des récepteurs et au besoin, de limiter leur activation par des mécanismes de désensibilisation et de régulation négative. La désensibilisation nécessite le découplage du récepteur de ses effecteurs, ainsi que sa compartimentation hors de la membrane plasmique dans le but de diminuer la réponse cellulaire à l’agoniste. Les mécanismes de contrôle de l’activité de GABAB semblent anormaux pour un RCPG et sont encore mal moléculairement caractérisés. L’objet de cette thèse est d’étudier la régulation du récepteur GABAB et de sa signalisation par la caractérisation de nouvelles protéines d’interactions étant impliquées dans la désensibilisation, l’internalisation et la dégradation du récepteur. Une première étude nous a permis d’identifier la protéine NSF (N-ethylmaleimide sensitive factor) comme interagissant avec le récepteur hétérodimérique. Nous avons caractérisé le site d’interaction au niveau du domaine coiled-coil de chacune des deux sous-unités de GABAB et constaté la dépendance de cette interaction au statut de l’activité ATPasique de NSF. Nous avons observé que cette interaction pouvait être dissociée par l’activation de GABAB, induisant la phosphorylation du récepteur par la protéine kinase C (PKC) parallèlement à la désensibilisation du récepteur. L’activation de PKC par le récepteur est dépendante de l’interaction NSF-GABAB, ce qui suggère une boucle de rétroaction entre NSF et PKC. Nous proposons donc un modèle où, à l’état basal, le récepteur interagit avec NSF, lui permettant d’activer PKC en réponse à la stimulation par un agoniste, et où cette activation permet à PKC de phosphoryler le récepteur, induisant sa dissociation de NSF et sa désensibilisation. Nous avons par la suite étudié la dégradation et l’ubiquitination constitutive de GABAB et la régulation de celles-ci par PKC et l’enzyme de déubiquitination USP14 (ubiquitin-specific protease 14). Au niveau basal, le récepteur est ubiquitiné, et présente une internalisation et une dégradation rapide. L’activation de PKC augmente l’ubiquitination à la surface cellulaire et l’internalisation, et accélère la dégradation du récepteur. USP14 est en mesure de déubiquitiner le récepteur suite à l’internalisation, mais accélère aussi la dégradation par un mécanisme indépendant de son activité enzymatique. Nos résultats suggèrent un mécanisme où l’ubiquitination promeut l’internalisation et où USP14 cible le récepteur ubiquitiné vers un processus de dégradation lysosomale. La troisième étude porte sur la régulation de la densité de récepteurs à la membrane plasmique par la protéine Grb2 (growth factor receptor-bound protein 2). Nous avons déterminé que Grb2 interagit avec GABAB1 au niveau de la séquence PEST (riche en proline, glutamate, sérine et thréonine) du domaine carboxyl-terminal, et que cette interaction module l’expression à la surface du récepteur hétérodimérique en diminuant l’internalisation constitutive par un mécanisme encore inconnu. Cette inhibition de l’internalisation pourrait provenir d’une compétition pour le site de liaison de Grb2 à GABAB1, ce site étant dans une région interagissant avec plusieurs protéines impliquées dans le trafic du récepteur, tels le complexe COPI et la sous-unité γ2S du récepteur GABAA (1, 2). En proposant de nouveaux mécanismes moléculaires contrôlant l’activité et l’expression à la membrane du récepteur GABAB par les protéines NSF, PKC, USP14 et Grb2, les études présentées dans cette thèse permettent de mieux comprendre les processus d’internalisation et de dégradation, ainsi que du contrôle de l’activité de GABAB par la désensibilisation, ouvrant la porte à une meilleure compréhension de la signalisation GABAergique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'objectif du présent mémoire vise à présenter des modèles de séries chronologiques multivariés impliquant des vecteurs aléatoires dont chaque composante est non-négative. Nous considérons les modèles vMEM (modèles vectoriels et multiplicatifs avec erreurs non-négatives) présentés par Cipollini, Engle et Gallo (2006) et Cipollini et Gallo (2010). Ces modèles représentent une généralisation au cas multivarié des modèles MEM introduits par Engle (2002). Ces modèles trouvent notamment des applications avec les séries chronologiques financières. Les modèles vMEM permettent de modéliser des séries chronologiques impliquant des volumes d'actif, des durées, des variances conditionnelles, pour ne citer que ces applications. Il est également possible de faire une modélisation conjointe et d'étudier les dynamiques présentes entre les séries chronologiques formant le système étudié. Afin de modéliser des séries chronologiques multivariées à composantes non-négatives, plusieurs spécifications du terme d'erreur vectoriel ont été proposées dans la littérature. Une première approche consiste à considérer l'utilisation de vecteurs aléatoires dont la distribution du terme d'erreur est telle que chaque composante est non-négative. Cependant, trouver une distribution multivariée suffisamment souple définie sur le support positif est plutôt difficile, au moins avec les applications citées précédemment. Comme indiqué par Cipollini, Engle et Gallo (2006), un candidat possible est une distribution gamma multivariée, qui impose cependant des restrictions sévères sur les corrélations contemporaines entre les variables. Compte tenu que les possibilités sont limitées, une approche possible est d'utiliser la théorie des copules. Ainsi, selon cette approche, des distributions marginales (ou marges) peuvent être spécifiées, dont les distributions en cause ont des supports non-négatifs, et une fonction de copule permet de tenir compte de la dépendance entre les composantes. Une technique d'estimation possible est la méthode du maximum de vraisemblance. Une approche alternative est la méthode des moments généralisés (GMM). Cette dernière méthode présente l'avantage d'être semi-paramétrique dans le sens que contrairement à l'approche imposant une loi multivariée, il n'est pas nécessaire de spécifier une distribution multivariée pour le terme d'erreur. De manière générale, l'estimation des modèles vMEM est compliquée. Les algorithmes existants doivent tenir compte du grand nombre de paramètres et de la nature élaborée de la fonction de vraisemblance. Dans le cas de l'estimation par la méthode GMM, le système à résoudre nécessite également l'utilisation de solveurs pour systèmes non-linéaires. Dans ce mémoire, beaucoup d'énergies ont été consacrées à l'élaboration de code informatique (dans le langage R) pour estimer les différents paramètres du modèle. Dans le premier chapitre, nous définissons les processus stationnaires, les processus autorégressifs, les processus autorégressifs conditionnellement hétéroscédastiques (ARCH) et les processus ARCH généralisés (GARCH). Nous présentons aussi les modèles de durées ACD et les modèles MEM. Dans le deuxième chapitre, nous présentons la théorie des copules nécessaire pour notre travail, dans le cadre des modèles vectoriels et multiplicatifs avec erreurs non-négatives vMEM. Nous discutons également des méthodes possibles d'estimation. Dans le troisième chapitre, nous discutons les résultats des simulations pour plusieurs méthodes d'estimation. Dans le dernier chapitre, des applications sur des séries financières sont présentées. Le code R est fourni dans une annexe. Une conclusion complète ce mémoire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au cours de la dernière décennie, les nanoparticules ont connu un essor sans précédent dans plusieurs domaines. On peut retrouver ces nanoparticules dans des secteurs aussi variés tels que la médecine, l’électronique, les écrans solaires, les cosmétiques et les plastiques, pour ne nommer que ceux-là. Cette utilisation massive a eu un effet pervers sur l’environnement, sachant qu’une grande partie de ces produits se sont retrouvés inévitablement dans les milieux naturels. Plusieurs études révèlent qu’autant la présence des nanoparticules que leurs produits de dissolution sont à prendre en considération lorsque des travaux toxicologiques ou le devenir de ces matériaux sont étudiés. Il est désormais clair que les propriétés de surface de ces nanoparticules jouent un rôle central sur leur comportement dans les solutions aqueuses; que ce soit les interactions avec des organismes ou entre les particules elles-mêmes. Afin d’évaluer le devenir de nZnO, une étude sur la dissolution ainsi que la bioaccumulation a été réalisée avec l’algue modèle Chlamydomonas reinhardtii en présence de nanoparticules ayant différents enrobages. Les nanoparticules d’oxyde de zinc suivantes ont été étudiées : (i) nZnO sans enrobage (nZnO); (ii) nZnO avec enrobage d’acide polyacrylique (nZnO-PAA) et (iii) nZnO avec enrobage d’hexamétaphosphate de sodium (nZnO-HMP). La dissolution était mesurée à l’aide de trois techniques : ultrafiltration par centrifugation (CU); technique potentiométrique (scanned stripping chronopotentiometry, SSCP) et spectrométrie de masse – plasma à couplage inductif couplé à une résine échangeuse d’ions (resin-based inductively coupled plasma-mass spectrometry, resin-based ICP-MS). Les résultats obtenus démontrent une grande tendance à la dissolution pour le nZnO (presque totale) tandis que pour le nZnO-PAA et le nZnO-HMP, la dissolution est dépendante de la nature de l’enrobage le composant. Pour la bioaccumulation sur l’algue testée, les données montrent une grande dépendance au zinc libre issu de la dissolution pour nZnO et nZnO-PAA. À l’inverse, le nZnO-HMP démontre une bioaccumulation plus élevée par comparaison aux mêmes concentrations d’expositions du zinc libre, expliquée par la stimulation de l’internalisation du zinc provoqué par la présence de phosphate constituant l’enrobage de nZnO-HMP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les domaines de transactivation (TAD) acides sont présents dans plusieurs protéines oncogéniques, virales et dans des facteurs de différenciation de cellules souches. Ces domaines acides contrôlent la transcription à travers une myriade d’interactions avec divers partenaires ce qui provoque l’activation de la transcription ou leur propre élimination. Cependant, dans la dernière décennie, de plus en plus de recherches ont démontré que les TAD possédaient un sous-domaine activation/dégradation (DAD) responsable pour une fonction d'activation de la transcription dépendante de la dégradation de la protéine. Un tel phénomène peut être accompli par plusieurs moyens tels que des modifications post-traductionnelles, l’association à des cofacteurs ou la formation d’un réseau d’interaction complexe en chaînes. Or, aucune preuve concrète n’a pu clairement démontrer le fonctionnement de la dépendance paradoxale entre ces deux fonctions sur un activateur de transcription. Le DAD, a été observé dans plusieurs facteurs de transcription incluant la protéine suppresseur de tumeur p53 et le facteur de différenciation érythrocyte EKLF. Un aspect particulier des DAD est que la composition de leur séquence d’acide aminé est fortement similaire à celle des domaines de liaison à l’ubiquitine (UBD) qui jouent un rôle clé dans le contrôle de la transcription à travers leur interaction non-covalente avec l’ubiquitine. Ainsi, dans ce mémoire, nous avons étudié la possibilité que les TAD acides soient capables d’agir comme UBD pour réguler leur fonction paradoxale à travers des interactions non-covalentes avec l’ubiquitine. L’analyse est faite en utilisant la résonnance magnétique nucléaire (RMN) ainsi qu’avec des essais fonctionnels de dégradation. En somme, cette étude amène une plus grande compréhension des protéines impliquées dans le contrôle des TAD et caractérise le tout premier exemple de TAD capable d’interagir avec l’ubiquitine.