262 resultados para efficacité des marchés
Resumo:
L’insécurité routière chez les conducteurs âgés est attribuable en partie, aux effets délétères du vieillissement normal sur le fonctionnement cognitif. Les méthodes d’évaluation neuropsychologique par les tests ayant montré une certaine efficacité dans le cas du dépistage des habiletés de conduite chez les conducteurs âgés atteints d’affections neurologiques pathologiques, la présente thèse vise à évaluer la pertinence de cette approche chez les conducteurs vieillissants de la population générale. Le principal objectif de cette thèse est ainsi d’obtenir une vue d’ensemble sur le rôle et la sensibilité des mesures neuropsychologiques dans la prédiction des habiletés et habitudes de conduite automobile sécuritaire chez les conducteurs âgés. Dans la même perspective, la thèse explore d’autre part le rôle de variables sociodémographiques et psychologiques. L’article 1 évalue la validité prédictive de sept tests des fonctions visuo-attentionnelles et de la mémoire de travail en regard des habiletés de détection périphérique chez 50 conducteurs âgés de 62 à 83 ans. L’étude sur simulateur de conduite comprend une condition de conduite simple et une condition plus soutenue incluant une distraction téléphonique de type « mains-libres ». Selon les résultats, certains tests cognitifs prédisent bien les temps de détection. En outre, la validité prédictive des tests est plus importante dans la situation de conduite plus exigeante. Cela dit, les résultats de l’article 2 révèlent que le recours aux stratégies d’évitement des situations exigeantes est plus prononcé chez les individus qui présentent des faiblesses à certains des tests neuropsychologiques proposés. Les résultats indiquent en outre que l’utilisation des stratégies d’évitement routier est plus fréquente chez les conducteurs ayant tendance à déprécier leurs habiletés de conduite générales, à exprimer une moindre perception de contrôle ainsi qu’une attitude défavorable à l’endroit des situations de conduite complexes ou risquées. Les stratégies d’évitement se révèlent donc comme des réponses autorégulatrices proportionnelles aux limitations cognitives et aux perceptions individuelles. Dans les deux études, l’âge ne permet pas d’expliquer les différences individuelles, ceci ni en termes d’habiletés de détection périphérique ni de tendances autorégulatrices. Le rôle du genre est cependant plus nuancé. Ainsi, le principal apport de la présente thèse réside dans la constatation que si d’une part, certaines limitations neuropsychologiques sont associées à une réduction des habiletés de détection périphérique, ces mêmes limitations s’accompagnent aussi de mesures autorégulatrices qui peuvent contribuer à réduire le risque routier. Il appert conséquemment que les méthodes de dépistage de l’insécurité routière chez les conducteurs âgés se basant sur l’évaluation des limitations cognitives et attentionnelles doivent également rechercher et évaluer la teneur de leurs comportements routiers autorégulateurs. Dans le contexte de vieillissement de la population, des interventions pourront également miser sur le renforcement de ces comportements.
Resumo:
L’Amérique centrale, théâtre des dernières batailles rangées de la guerre froide, est aujourd’hui la région la plus violente au monde, selon les Nations unies. Notre étude s’intéresse à la forme de guerre irrégulière livrée par l’État guatémaltèque contre sa propre population pendant la deuxième moitié du vingtième siècle. À la lumière de rares témoignages d’exécutants et d’archives militaires et policières, nous examinons un mécanisme clandestin de répression dont les trois principales composantes – les enlèvements, la torture et les exécutions sommaires – pouvaient s’abattre sur toute personne soupçonnée, à tort ou à raison, de conspirer contre un statu quo d’exclusion. Au moment de leur articulation, ces moyens répressifs ont constitué un dispositif qui, à partir de 1966, s’est avéré d’une redoutable efficacité. Arme de prédilection des adeptes de la guerre antisubversive pendant plus de vingt ans, le dispositif permettait, telle une chaîne de production, l’accumulation des renseignements jugés indispensables à cette forme de guerre, ainsi que les cadavres dont l’absence éternelle ou la présence outrageuse sur la place publique servaient d’avertissement funeste à l’ensemble du corps social. Où chercher les origines d’un tel dispositif? À partir des ouvrages de référence cités dans le manuel de guerre contre-subversive de l’armée guatémaltèque, la réponse à cette question nous fera découvrir des parachutistes français pour qui la défaite militaire en Indochine et en Algérie pendant les années 1950 n’était pas une option et pour qui la victoire justifiait absolument tous les moyens. Le penchant de ces pionniers de la guerre hors-norme pour les cours magistraux, les entrevues et les articles, nous a permis d’étudier les méthodes qu’ils préconisaient et de repérer leurs traces au Guatemala. Alors que la guerre qui avait servi de prétexte au maintien du dispositif est terminée, sa très réputée efficacité assure encore aujourd’hui sa pérennité auprès de ceux qui peuvent s’offrir le service. En ce sens, la contre-insurrection se poursuit, et ce, malgré l’absence depuis une quinzaine d’années d’un conflit armé. Cette thèse aborde l’histoire de la guerre irrégulière et son déroulement au Guatemala. Les archives et les témoignages à notre disposition contredisent le déni des crimes commis dans les villes et les campagnes guatémaltèques, dont le génocide de 1982. Finalement, certains signes avant-coureurs indiquent que la violence et l’impunité actuelles au pays pourraient mener à la répétition de tels crimes à l’avenir.
Resumo:
Les collisions proton-proton produites par le LHC imposent un environnement radiatif hostile au détecteur ATLAS. Afin de quantifier les effets de cet environnement sur la performance du détecteur et la sécurité du personnel, plusieurs simulations Monte Carlo ont été réalisées. Toutefois, la mesure directe est indispensable pour suivre les taux de radiation dans ATLAS et aussi pour vérifier les prédictions des simulations. À cette fin, seize détecteurs ATLAS-MPX ont été installés à différents endroits dans les zones expérimentale et technique d'ATLAS. Ils sont composés d'un détecteur au silicium à pixels appelé MPX dont la surface active est partiellement recouverte de convertisseurs de neutrons thermiques, lents et rapides. Les détecteurs ATLAS-MPX mesurent en temps réel les champs de radiation en enregistrant les traces des particules détectées sous forme d'images matricielles. L'analyse des images acquises permet d'identifier les types des particules détectées à partir des formes de leurs traces. Dans ce but, un logiciel de reconnaissance de formes appelé MAFalda a été conçu. Étant donné que les traces des particules fortement ionisantes sont influencées par le partage de charge entre pixels adjacents, un modèle semi-empirique décrivant cet effet a été développé. Grâce à ce modèle, l'énergie des particules fortement ionisantes peut être estimée à partir de la taille de leurs traces. Les convertisseurs de neutrons qui couvrent chaque détecteur ATLAS-MPX forment six régions différentes. L'efficacité de chaque région à détecter les neutrons thermiques, lents et rapides a été déterminée par des mesures d'étalonnage avec des sources connues. L'étude de la réponse des détecteurs ATLAS-MPX à la radiation produite par les collisions frontales de protons à 7TeV dans le centre de masse a montré que le nombre de traces enregistrées est proportionnel à la luminosité du LHC. Ce résultat permet d'utiliser les détecteurs ATLAS-MPX comme moniteurs de luminosité. La méthode proposée pour mesurer et étalonner la luminosité absolue avec ces détecteurs est celle de van der Meer qui est basée sur les paramètres des faisceaux du LHC. Vu la corrélation entre la réponse des détecteurs ATLAS-MPX et la luminosité, les taux de radiation mesurés sont exprimés en termes de fluences de différents types de particules par unité de luminosité intégrée. Un écart significatif a été obtenu en comparant ces fluences avec celles prédites par GCALOR qui est l'une des simulations Monte Carlo du détecteur ATLAS. Par ailleurs, les mesures effectuées après l'arrêt des collisions proton-proton ont montré que les détecteurs ATLAS-MPX permettent d'observer la désintégration des isotopes radioactifs générés au cours des collisions. L'activation résiduelle des matériaux d'ATLAS peut être mesurée avec ces détecteurs grâce à un étalonnage en équivalent de dose ambiant.
Resumo:
Les nanomatériaux sont de plus en plus présents dans les produits consommables du quotidien. L’argent est le métal le plus utilisé en nanotechnologie pour ses propriétés antimicrobiennes. Par différentes voies d’entrée, les nanoparticules d’argent (nAg) se retrouvent dans l’environnement en quantité significative, notamment dans les sols suite à la valorisation agricole des biosolides municipaux. Il est prévu qu’une interaction négative sur la communauté microbienne terrestre ait des répercussions sur la fertilité du sol et les processus biogéochimiques. Les mesures de l’activité enzymatique ont déjà montré leur efficacité et leur sensibilité dans la détection d’une perturbation physique et chimique du sol. Les effets potentiels des nAg sur l’écosystème terrestre ont été évalués en mesurant l’activité des enzymes β-D-glucosidase (EC 3.2.1.21), leucine-aminopeptidase (EC 3.4.11.1), phosphomonoesterase (EC 3.1.3) et arylsulfatase (EC 3.1.6.1) intervenant dans les cycles des éléments essentiels C, N, P et S, respectivement. L’activité enzymatique est mesurée à l’aide d’une technique basée sur la fluorescence qui requière des substrats synthétiques liés à un fluorophore. Un sol de type sableux a été échantillonné au Campus Macdonald de l’Université McGill (Sainte-Anne-de-Bellevue, Qc) puis exposé aux nAg (taille ~20 nm) ou à la forme ionique Ag+ (Ag-acetate) à des concentrations nominales de 1,25 × 10-3, 1,25 × 10-2, 0,125, 1,25, 6,25 et 31,25 mg Ag kg-1 sol. De plus, le rôle de la matière organique (MO) a été évalué en effectuant un amendement du sol avec un compost de feuilles. Pour mieux comprendre les effets observés, des analyses de spéciation de l’Ag ont été réalisées. Les concentrations en Ag dissous ont été déterminées après filtration à travers des membranes de 0,45 µm ou de 3 kDa (~1 nm, ultrafiltration) pour séparer la phase particulaire des ions dissous. De façon générale, une inhibition de l’activité enzymatique a été observée pour les 4 enzymes en fonction de l’augmentation de la concentration en Ag (totale et dissoute) mais elle est significativement moins importante avec l’ajout de la MO. Les résultats suggèrent que l’inhibition de l’activité des enzymes aux faibles expositions aux nAg est due aux nanoparticules puisqu’une très faible fraction des nAg est réellement dissoute et aucun effet significatif n’a été observé pour les sols traités à des concentrations similaires en Ag+. Par contre, les effets mesurés aux concentrations plus élevées en nAg sont semblables aux expositions à l’Ag+ et suggèrent un rôle de l’Ag colloïdale dans l’inhibition du processus enzymatique des sols.
Resumo:
Réalisé en cotutelle avec l'Université Paris 1 Panthéon-Sorbonne.
Resumo:
L’élaboration de normes vouées à encadrer une activité technologique pose, au-delà du défi de la simplicité, celui de construire un cadre juridique durable, dont la pertinence ne saurait être remise en cause par de nouveaux développements techniques. Le principe de neutralité technologique, qui incarne cette volonté de pérennité du droit, emporte une formulation particulière des lois relatives aux technologies de l’information. Davantage tourné vers des objectifs que vers des technologies prédéterminées, ce style rédactionnel perd cependant en précision : au risque d’interprétations erronées, les destinataires doivent eux-mêmes identifier les technologies susceptibles de correspondre aux exigences juridiques. Relevant ainsi le dilemme cornélien entre le besoin de pérennité technique du droit et le souci d’un encadrement juridique précis, l’auteur constate qu’il caractérise l’intégration de plus en plus courante du concept d’efficacité technique en droit. S’agissant d’un critère pour le moins imprécis, son intégration juridique implique l’utilisation de stratégies normatives originales visant à concilier le principe de neutralité technologique et le besoin de prévisibilité du droit.
Resumo:
Le but de cette étude est de déterminer qui paie pour le risque de pollution et par conséquent de vérifier si le principe du pollueur-payeur est effectivement mis en œuvre dans le domaine de la gestion du risque environnemental. Il s’agit d’examiner le degré de mutualisation de la gestion du risque dans différentes législations particulière. Les payeurs peuvent a priori se classer dans quatre catégories : les personnes dont l’activité contribue au risque de pollution, les compagnies d’assurance qui acceptent d’assurer ces personnes, les organismes ou autorités publics et les tiers. Divers exemples issus de la législation belge ou européenne seront examinés afin de déterminer s’ils sont conformes à la lettre et/ou à l’esprit du principe pollueur-payeur. Il s’agit notamment de la responsabilité civile, de la responsabilité environnementale, de la gestion des déchets et du marché de quotas d’émissions de gaz à effet de serre. Les techniques de responsabilité qui interviennent après que le dommage ait lieu et requièrent la démonstration de l’existence d’un lien de causalité ne permettent pas toujours d’assurer pleinement la fonction préventive du principe du pollueur-payeur. Elles ne constituent pas des instruments adéquats de gestion de la pollution diffuse ou chronique. En conséquence, des techniques de mutualisation de la gestion du risque environnemental se sont développées. Le recours à ces techniques de mutualisation (par le recours à l’assurance, aux fonds publics financés par la fiscalité environnementale ou aux marchés de droit d’émissions) est-il conforme au principe pollueur-payeur et permet-il d’atteindre l’objectif d’un niveau élevé de protection de l’environnement ? L’effet dissuasif du principe pollueur-payeur n’est-il pas amoindri par la mutualisation ? L’article montre que la définition du principe pollueur-payeur par la Cour de Justice de l’Union européenne est centrée sur la contribution au risque de pollution ce qui permet de recourir aux techniques de mutualisation de la gestion du risque tout en respectant le Traité sur le fonctionnement de l’Union européenne.
Resumo:
Le Conseil de l'Europe a publié le 27 avril 2000 un Projet de convention sur la cybercriminalité dans le cadre d’un appel public à contribution de ses pays membres. Le texte doit être finalisé par un groupe d’experts avant décembre 2000 pour être adopté et ouvert à la signature par le comité des ministres du Conseil de l’Europe à l’automne 2001. Ce projet constitue le futur traité international contre la criminalité dans le cyberespace dans l’espace européen. Le Projet de convention sur la cybercriminalité poursuit deux objectifs. Premièrement, il vise la prévention des actes portant atteinte à la confidentialité, à l’intégrité et à la disponibilité des systèmes informatiques, des réseaux et des données. En second lieu, il prône l’adoption de pouvoirs suffisants pour permettre une lutte efficace contre les infractions pénales de haute technologie. Le cadre de mise en œuvre est possible, d'une part, en facilitant la détection, la recherche et la poursuite, tant au plan du droit de la procédure interne, qu’au niveau international. D'autre part, en prévoyant la création de dispositions matérielles appropriées en vue d’une coopération internationale alliant rapidité et efficacité. Finalement, en garantissant un équilibre adéquat entre les nécessités d’une répression démocratique et le respect des droits fondamentaux. L’objet de cet article est d’examiner le Projet de convention en ses dispositions organisant l’exercice des poursuites à un niveau interne, afin de pouvoir en percevoir autant les avantages que les faiblesses éventuelles au plan de la protection des droits et libertés de la personne.
Resumo:
Introduction : Le bruxisme du sommeil est un désordre du mouvement décrit comme un mouvement involontaire de la mastication durant le sommeil. Cette parafonction est observée dans 14-38% de la population pédiatrique. Un lien a été trouvé entre les événements respiratoires et les épisodes de bruxisme. L’expansion palatine rapide (EPR) est un traitement orthopédique effectué chez les enfants en croissance pour régler un manque transverse squelettique du maxillaire supérieur. Quelques études ont observé que l’apnée obstructive du sommeil a été diminuée par un traitement d’expansion palatine rapide. Objectifs : Étant donné que le bruxisme est en lien avec des événements respiratoires et que l’expansion palatine rapide augmente la dimension des cavités nasales, l’objectif de la présente étude est d’évaluer la possible réduction du bruxisme après le traitement d’expansion rapide. Méthodes : Ce projet pilote est une étude clinique randomisée contrôlée de patients consécutifs qui a inclus 27 enfants (8-14 ans, 8 garçons et 19 filles) avec ou sans bruxisme du sommeil. Tous ces patients sont venus à la clinique d’orthodontie de l’Université de Montréal et présentaient un manque transverse du maxillaire supérieur (au moins 5 mm). Dans le cadre de l’étude, les patients devaient passer un enregistrement polysomnographique ambulatoire avant le traitement d’expansion palatine (T0) et après l’activation de l’appareil d’expansion (T1). Résultats : Les résultats démontrent une diminution du bruxisme chez 60% (9 patients) de nos patients bruxeurs. L’interaction entre le traitement et les groupes (Br et Ctl) s’est avérée significative (p=0,05 ANOVA mesures répétées), et démontre une diminution du bruxisme chez les bruxeurs (p=0,04, t-test paire). Les médianes (min, max) du groupe avec bruxisme sont passées de 3,11 (2,06; 7,68) à 2,85 (0,00; 9,51). Les paramètres de sommeil sont restés stables (Stade N1/N2/N3, REM, efficacité du sommeil), ainsi que les paramètres respiratoires et le ronflement. Conclusion : Une réduction du bruxisme a été observée lors de cette étude, mais un échantillonnage plus grand est nécessaire pour conclure.
Resumo:
La leucémie myéloïde aigue (LMA), cancer du sang causé par une prolifération excessive des précurseurs myéloïdes à un stade précoce de maturation, est associée à une survie variant entre 20 et 30% à cinq ans en dépit des traitements de chimiothérapie les plus intensifs. L’antigène CD33 est exprimé chez les cellules malignes dans 90% des LMA ce qui en fait une cible de choix pour le développement d’immunoconjugué (IC). Trois IC composés d’un anticorps monoclonal anti-CD33 couplé à la maytansine, une toxine s’attaquant aux fuseaux mitotiques, ont été créés. Nous avons étudié l’effet de ces IC sur des cellules primaires et des lignées cellulaires LMA et étudier les mécanismes pouvant expliquer différents niveaux de sensibilité. Les études effectuées ont permis de déterminer que le niveau d’expression du CD33 n’explique pas la variation de sensibilité face aux IC. Il a été démontré que les IC anti-CD33 sont internalisés rapidement par la cellule et que le conjugué est retrouvé au niveau de l’endosome en premier lieu. Il a été confirmé que le lysosome est essentiel à l’effet anti-mitotique induit par le conjugué. Aussi, il est proposé que la protéine SOCS3 pourrait jouer un rôle dans la résistance aux IC anti-CD33 en dirigeant le complexe IC-CD33-SOCS3 vers le protéasome et ainsi empêcher la libération du composé toxique par le lysosome. Nous avons aussi conclu que les variations d’agent de liaison et l’augmentation du nombre de molécules toxiques entre les 3 IC n’ont pas été suffisantes pour augmenter leur efficacité à éliminer les cellules LMA. L’évaluation de ces IC ainsi que l’identification des mécanismes de résistance permettra de cibler les patients les plus susceptibles de bénéficier de ce type de traitement et potentiellement d’identifier de nouvelles voies pour améliorer l’efficacité des traitements.
Resumo:
Travail d'intégration présenté à la Faculté de médecine en vue de l’obtention du grade de maîtrise professionnelle en physiothérapie
Resumo:
Travail d'intégration présenté à Dorothy Barthélemy en vue de l’obtention du grade de Maîtrise professionnelle en physiothérapie
Resumo:
Travail d'intégration présenté à France Piotte dans le cadre du cours PHT-6113.
Resumo:
Hypothèse : Le nanobroyage d'une suspension de nystatine augmentera son efficacité antifongique in vitro et in vivo. Méthode : Une nanosupension de nystatine a été obtenue en utilisant le broyage humide. Elle a été caractérisée pour sa distribution de taille des particules et pour sa teneur en principe actif. L'activité in vitro a été évaluée contre les souches de C. albicans SC5314 et LAM-1 aux concentrations 12.5 μg/mL jusqu'à 5000 μg/mL. L'efficacité in vivo a été évaluée en utilisant un modèle murin de candidose oropharyngée. Résultats : La taille médiane des particules de la nanosuspension de nystatine a été réduite de 6577 nm à 137 nm. L'analyse CLHP a demontré une teneur de 98.7 ± 0.8%. L'activité in vitro de la nanosuspension était supérieure à la suspension aux concentrations 100 μg/mL à 5000 μg/mL. La charge fongique orale était inférieure dans le groupe traité par la nanosuspension comparativement aux autres groupes. La survie des souris était aussi supérieure.
Resumo:
Les récepteurs couplés aux protéines G (RCPG) constituent la plus grande famille de protéines membranaires du génome humain. Ils transmettent les signaux extracellulaires provenant de plusieurs stimuli comme les odeurs, les ions, les hormones et les neurotransmetteurs, à l'intérieur des cellules. En se liant aux RCPGs, ces molécules contribuent à la stabilisation des changements conformationnels activateurs qui se propagent jusqu'au domaine intracellulaire des récepteurs. Ces derniers engagent ensuite un ou plusieurs effecteurs, comme les protéines G hétérotrimériques et les β-arrestines (βarrs), qui activent une cascade d'événements moléculaires menant à la réponse cellulaire.Récemment, la publication de structures cristallines de RCPGs liant des ligands diffusibles a offert une opportunité de raffiner à une résolution atomique les modèles des mécanismes de transduction des signaux. Dans la première partie de cette thèse, nous avons donc exploré les déterminants de la signalisation du récepteur prototypique β2-adrénergique (β2AR), induite par les β-bloqueurs. En ne tenant compte que de leur efficacités sur le β2AR dans les voies de l'adénylate cyclase (AC) et des protéines kinases activées par les facteurs mitogéniques (MAPK), les β-bloqueurs peuvent être classés en 3 groupes distincts (agoniste inverse AC / agoniste MAPK, antagoniste neutre AC / agoniste MAPK et agoniste inverse AC / agoniste inverse MAPK). Afin de déterminer le lien entre leur efficacité et leur mode de liaison, nous avons réalisé des expériences d'arrimages moléculaires in silico entre des β-bloqueurs de chacun des groupes et la structure cristalline du β2AR liée au carazolol. De manière intéressante, les ligands à l'intérieur d'un groupe partagent un mode de liaison, alors que ceux des ligands entre les groupes divergent, suggérant que le mode de liaison des β-bloqueurs pourrait être utilisé pour prédire leur l'efficacité. En accord avec cette hypothèse, nous avons prédit et confirmé l'efficacité agoniste MAPK du carazolol, un inverse agoniste AC du β2AR se liant au récepteur de manière similaire au groupe inverse agoniste AC / agoniste MAPK. De manière intéressante, le groupement aryl des ligands agonistes inverses agonistes AC / agoniste MAPK, le seul groupement chimique variable de ce groupe, est prédite pour lier la région des 3e et 5e hélices transmembranaires (TM3 et TM5). Nous avons donc émis l'hypothèse que cette région pourrait être un déterminant de l'efficacité de ces ligands. En accord avec cette dernière, la mutation de 2 résidus (T118I, S203A) localisés proches du site de liaison des groupements aryls des β-bloqueurs, prévient l'efficacité agoniste inverse de l'ICI-118551 sur la voie de l'AC sans affecter l'efficacité d'un agoniste, indiquant que cette région est importante pour la transmission de l'effet agoniste inverse, du moins sur la voie de l'AC. Les βarrs sont des protéines d'échafaudage qui coordonnent la formation de complexes avec plusieurs dizaines d'effecteurs de signalisation. Originalement identifiées pour leur rôle dans la désensibilisation et l'internalisation des RCPGs, elles sont aussi d'importants effecteurs de la signalisation des RCPGs indépendante des protéines G hétérotrimériques. Cependant, contrairement aux protéines G hétérotrimériques, il n'existe que peu d'outils pour les étudier. Ainsi, la deuxième partie de la thèse est dédiée au développement d'outils pour l'étude des βarrs. À cette fin, nous avons d'abord tenté de transposer une méthode de mesure de l'interaction entre 2 protéines par la technologie de transfert d'énergie de bioluminescence par résonance (BRET) en microscopie et chez des souris transgéniques afin de mesurer de manière subcellulaire et dans un contexte natif l'engagement de la βarr à des RCPGs. Ainsi, nous avons établi les preuves de principe que le BRET peut être utilisé pour localiser l'interaction entre la βarr et le récepteur de la vasopressine de type 2 (V2R) sur une cellule au microscope et pour détecter l'interaction entre la βarr et le β2AR sur des tissus de souris transgéniques exprimant ces protéines fusionnées avec des partenaires BRET. Finalement, il n'existe aucun inhibiteur pharmacologique ciblant les βarrs. Ainsi, grâce à la combinaison d'approches de criblage virtuel sur un modèle de la structure des βarrs et d'essais de validation cellulaire, nous avons développé un inhibiteur pharmacologique des βarrs. À l'aide de cet outil, nous avons confirmé l'implication des βarrs dans l'activation des MAPK par le V2R, mais aussi montré un nouveau rôle des βarrs dans le recyclage du β2AR. Les connaissances et outils développés dans cette thèse permettront de mieux comprendre les déterminants moléculaires de la signalisation des RCPGs et entre autres, grâce à des nouvelles approches pour étudier le rôle cellulaire et physiologique des βarrs.