107 resultados para OBSERVER

em Université de Montréal, Canada


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous Considerons Dans Cet Article un Modele de Duopole Avec Produits Differencies; Nous Montrons Que le Caractere Substituts Vs Complements de Ces Produits Est un Facteur Important Dans la Determination du Mode de Concurrence Strategique (Cournot-Bertrand, Nash Mixte, Stackelberg; En Prix Ou Quantites) Que L'on Est Susceptible D'observer. Si les Produits Sont Substituts (Complements), la Concurrence Sera du Type Cournot (Bertrand) Plutot Que du Type Nash Mixte a Moins Qu'une Firme Puisse Affirmer Son Leadership et Forcer une Concurrence a la Stackelberg Mais Quel Soit le Role Tenu Par une Firme, Il Sera Preferable Pour Elle Que la Concurrence S'exprime En Quantite (Prix). Par Ailleurs, la Concurrence a la Bertrand Est Toujours la Meilleure du Point de Vue des Consommateurs et du Point de Vue de L'efficacite Sociale, et Ce, Que les Produits Soient Susbtituts Ou Complements.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper develops a model of money demand where the opportunity cost of holding money is subject to regime changes. The regimes are fully characterized by the mean and variance of inflation and are assumed to be the result of alternative government policies. Agents are unable to directly observe whether government actions are indeed consistent with the inflation rate targeted as part of a stabilization program but can construct probability inferences on the basis of available observations of inflation and money growth. Government announcements are assumed to provide agents with additional, possibly truthful information regarding the regime. This specification is estimated and tested using data from the Israeli and Argentine high inflation periods. Results indicate the successful stabilization program implemented in Israel in July 1985 was more credible than either the earlier Israeli attempt in November 1984 or the Argentine programs. Government’s signaling might substantially simplify the inference problem and increase the speed of learning on the part of the agents. However, under certain conditions, it might increase the volatility of inflation. After the introduction of an inflation stabilization plan, the welfare gains from a temporary increase in real balances might be high enough to induce agents to raise their real balances in the short-term, even if they are uncertain about the nature of government policy and the eventual outcome of the stabilization attempt. Statistically, the model restrictions cannot be rejected at the 1% significance level.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper proposes a model of natural-resource exploitation when private ownership requires costly enforcement activities. For a given wage rate, it is shown how enforcement costs can increase with labor's average productivity on a resource site. As a result, it is never optimal for the site owner to produce at the point where marginal productivity equals the wage rate. It may even be optimal to exploit at a point exhibiting negative marginal returns. An important parameter in the analysis is the prevailing wage rate. When wages are low, further decreases in the wage rates can reduce the returns from resource exploitation. At sufficiently low wages, positive returns can be rendered impossible to achieve and the site is abandoned to a free-access exploitation. The analysis provides some clues as to why property rights may be more difficult to delineate in less developed countries. It proposes a different framework from which to address normative issues such as the desirability of free trade with endogenous enforcement costs, the optimality of private decisions to enforce property rights, the effect of income distribution on property rights enforceability, etc.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ecole polytechnique de Montréal, département de mathématiques, André Fortin, et Pierre Carreau du département de génie chimique

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche étudie l'évolution de l'appui à la souveraineté du Québec entre 1976 et aujourd'hui, en considérant les diverses formulations de la question utilisées par les acteurs politiques et par les sondeurs. Cette question est abordée en faisant une analyse longitudinale multiniveaux de plus de 800 sondages. Une telle approche suggère que les caractéristiques des sondages sont nichées à l'intérieur d'unités contextuelles plus larges, des unités de temps. Cela permet d'une part d'observer quels sont les facteurs liés à la mesure qui influencent l'appui à la souveraineté du Québec et ensuite de voir comment ces mêmes effets varient à travers le temps et comment ils sont influencés par certains événements jugés importants. Il ressort de ces analyses que les propositions séparation, indépendance, souveraineté et souveraineté-association/partenariat entraînent généralement des appuis moyens significativement différents les uns des autres. Il apparaît aussi que certains événements ont eu une influence significative sur l'évolution de l'appui à ces diverses propositions. Enfin, il a été tenté de voir si les appuis propres à ces diverses propositions évoluaient de manière parallèle, s'ils réagissaient similairement aux différents événements considérés dans les analyses ou si au contraire ces appuis pouvaient parfois évoluer de manière différente. Les résultats à cet égard sont intéressants mais non concluants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude a été commandée dans le cadre des travaux de la Table de concertation du Bureau du Mont-Royal, dans le contexte de la désignation du mont Royal comme arrondissement historique et naturel, par la Commission des biens culturels du Québec.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le présent mémoire de maîtrise renvoie à une analyse des situations de diffamation commise par l'avocat, dans le cadre d'une instance judiciaire, à l'égard de la partie adverse, de son représentant et du témoin. L'étude s'inscrit dans un double dessein de prévention et de sensibilisation auprès de la communauté juridique. L'interrogation inhérente à l'étude consiste à savoir si l'avocat est considéré à l'instar de tout particulier dans les poursuites pour diffamation civile. Doit-il conséquemment observer strictement ses devoirs de conduite professionnelle afin d'éviter toute situation potentiellement diffamatoire? Tout d'abord, nous cernerons le concept de diffamation civile en droit québécois en regard des sources législatives, des droits de la personnalité ou fondamentaux traités, ainsi que des éléments matériels juridiques constitutifs. À la lueur de cet exposé didactique, nous identifierons les devoirs de conduite professionnelle de l'avocat, dans le cadre d'une instance judiciaire, visant la proscription d'allégations diffamatoires. Il s'agit plus particulièrement des devoirs de modération et de courtoisie de l'avocat à l'égard des tiers. Enfin, nous examinerons la mise en oeuvre de la responsabilité civile de l'avocat en matière de diffamation. Plus spécifiquement, nous analyserons sa faute civile suivant les critères d'appréciation qui renvoient à la pertinence, à la véracité et à la bonne foi. Par ailleurs, nous critiquerons le recours, par la doctrine et la jurisprudence québécoises, à l'immunité relative de l'avocat. Nous référerons à la terminologie inadéquate d'«immunité relative» et à l'importation injustifiée de la common law en droit de la responsabilité civile québécois.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"Thèse présentée à la Faculté des études supérieures en vue de l'obtention du grade de Docteur en droit (LL.D.)"

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de Maîtrise en droit des affaires"

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"Thèse présentée à la Faculté des études supérieures en vue de l'obtention du grade de docteur en droit (LL.D.)". Cette thèse a été acceptée à l'unanimité et classée parmi les 10% des thèses de la discipline.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La thérapie de resynchronisation cardiaque (CRT) est un traitement qui diminue la mortalité et améliore la qualité de vie des patients atteints d’insuffisance cardiaque et présentant un dyssynchronisme de la contraction ventriculaire gauche. Malgré le succès de cette thérapie, plus de 30% des patients ne présentent pas l’amélioration désirée. Plusieurs études portant sur le synchronisme électrique ou mécanique de la contraction ont été effectuées mais peu d’entres elles se sont attardées sur le couplage électromécanique à l'échelle macroscopique. Ce projet a comme objectif d’observer le comportement électromécanique des ventricules canins en présence d’un resynchronisateur cardiaque. Un logiciel a été développé pour permettre l’analyse des informations provenant de la cartographie endocardique sans contact et de la ventriculographie isotopique tomographique chez 12 sujets canins insuffisants. Pour observer la réponse mécanique suite à l’activation électrique, nous avons premièrement recalé les surfaces issues des 2 modalités. Ensuite, nous avons défini les limites du cycle cardiaque, analysé les signaux électriques et les courbes de déplacement de la paroi endocardique. Le début de la contraction est défini par un déplacement radial de 10% vers le centre du ventricule. Les résultats démontrent que la durée d’activation du ventricule gauche et la largeur du QRS augmentent en présence d’une stimulation externe et que les délais électromécaniques sont indépendants dans les modes de stimulation étudiés (sinusal, LVbasal, RVapex ou BIV) avec une moyenne de 84,56±7,19 ms. Finalement, nous avons noté que la stimulation basolatérale procure une fonction cardiaque optimale malgré une durée prolongée du QRS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nombreuses études ont établi que la majorité des neurones libèrent plus qu’une substance chimique. Il est bien connu que les neurones peuvent co-exprimer et co-libérer des neuropeptides en plus de leur neurotransmetteur, mais des évidences de la co-libération de deux petits neurotransmetteurs à action rapide se sont accumulées récemment. Des enregistrements électrophysiologiques ont aussi montré que des neurones sérotoninergiques et dopaminergiques isolés peuvent libérer du glutamate quand ils sont placés en culture. De plus, la présence de glutamate et de glutaminase a été détectée dans des neurones sérotoninergiques, dopaminergiques et noradrénergiques par immunomarquage sur des tranches de cerveau. Malheureusement, en considérant le rôle métabolique du glutamate, sa détection immunologique n’est pas suffisante pour assurer le phénotype glutamatergique d’un neurone. Récemment, la découverte de trois transporteurs vésiculaires du glutamate (VGLUT1-3) a grandement facilité l’identification des neurones glutamatergiques. Ces transporteurs sont nécessaires pour la libération de glutamate et constituent les premiers marqueurs morphologiques du phénotype glutamatergique. Il a été démontré que des neurones noradrénergiques expriment VGLUT2 et que des neurones sérotoninergiques expriment VGLUT3. Mais aucune évidence d’expression d’un des sous-types de VGLUT n’a été reportée pour les neurones dopaminergiques. Le but de notre travail était d’identifier quel sous-type de VGLUT est exprimé par les neurones dopaminergiques mésencéphaliques, et de déterminer si le phénotype glutamatergique de ces neurones peut être modulé dans des conditions particulières. Premièrement, nous avons utilisé des microcultures pour isoler les neurones dopaminergiques et des doubles marquages immunocytochimiques pour observer l’expression de VGLUT dans les neurones positifs pour la tyrosine hydroxylase (TH). Nous avons montré que la majorité (80%) des neurones TH+ isolés exprime spécifiquement VGLUT2. Cette expression est précoce au cours du développement in vitro et limitée aux projections axonales des neurones dopaminergiques. Toutefois, cette forte expression in vitro contraste avec la non-détection de ce transporteur dans les rats adultes in vivo. Nous avons décidé ensuite de regarder si l’expression de VGLUT2 pouvait être régulée pendant le développement cérébral de jeunes rats et sous des conditions traumatiques, par double hybridation in situ. Entre 14 et 16 jours embryonnaires, les marquages de VGLUT2 et de TH montraient une superposition significative qui n’était pas retrouvée à des stades ultérieurs. Dans le mésencéphale de jeunes rats postnataux, nous avons détecté l’ARNm de VGLUT2 dans environs 1-2% des neurones exprimant l’ARNm de TH dans la substance noire et l’aire tegmentaire ventrale (ATV). Pour explorer la régulation de l’expression de VGLUT2 dans des conditions traumatiques, nous avons utilisé la 6-hydroxydopamine (6-OHDA) pour léser les neurones dopaminergiques dans les jeunes rats. Dix jours après la chirurgie, nous avons trouvé que 27% des neurones dopaminergiques survivants dans l’ATV exprimaient l’ARNm de VGLUT2 dans les rats 6-OHDA. Finalement, nous avons observé la colocalisation de la protéine VGLUT2 dans les terminaisons TH positives par microscopie électronique. Dans les rats normaux, la protéine VGLUT2 est retrouvée dans 28% des terminaisons axonales TH dans le noyau accumbens. Dans les rats lésés à la 6-OHDA, nous avons observé une diminution considérable des terminaisons TH positives, et une augmentation dans la proportion (37%) des terminaisons dopaminergiques présentant du VGLUT2. Nos résultats suggèrent que le phénotype glutamatergique des neurones dopaminergiques est régulé au cours du développement, peut être réactivé dans des états pathologiques, et que ces neurones peuvent libérer du glutamate dans conditions spécifiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En février, 2009 un rapport de PHRMA (Pharmaceutical Research and Manufacturers of America) confirmait que plus de 300 médicaments pour le traitement des maladies cardiaques étaient en phase d’essais cliniques ou en révision par les agences règlementaires. Malgré cette abondance de nouvelles thérapies cardiovasculaires, le nombre de nouveaux médicaments approuvés chaque année (toutes indications confondues) est en déclin avec seulement 17 et 24 nouveaux médicaments approuvés en 2007 et 2008, respectivement. Seulement 1 médicament sur 5000 sera approuvé après 10 à 15 ans de développement au coût moyen de 800 millions $. De nombreuses initiatives ont été lancées par les agences règlementaires afin d’augmenter le taux de succès lors du développement des nouveaux médicaments mais les résultats tardent. Cette stagnation est attribuée au manque d’efficacité du nouveau médicament dans bien des cas mais les évaluations d’innocuité remportent la palme des causes d’arrêt de développement. Primum non nocere, la maxime d’Hippocrate, père de la médecine, demeure d’actualité en développement préclinique et clinique des médicaments. Environ 3% des médicaments approuvés au cours des 20 dernières années ont, par la suite, été retirés du marché suite à l’identification d’effets adverses. Les effets adverses cardiovasculaires représentent la plus fréquente cause d’arrêt de développement ou de retrait de médicament (27%) suivi par les effets sur le système nerveux. Après avoir défini le contexte des évaluations de pharmacologie de sécurité et l’utilisation des bio-marqueurs, nous avons validé des modèles d’évaluation de l’innocuité des nouveaux médicaments sur les systèmes cardiovasculaires, respiratoires et nerveux. Évoluant parmi les contraintes et les défis des programmes de développements des médicaments, nous avons évalué l’efficacité et l’innocuité de l’oxytocine (OT), un peptide endogène à des fins thérapeutiques. L’OT, une hormone historiquement associée à la reproduction, a démontré la capacité d’induire la différentiation in vitro de lignées cellulaires (P19) mais aussi de cellules souches embryonnaires en cardiomyocytes battants. Ces observations nous ont amené à considérer l’utilisation de l’OT dans le traitement de l’infarctus du myocarde. Afin d’arriver à cet objectif ultime, nous avons d’abord évalué la pharmacocinétique de l’OT dans un modèle de rat anesthésié. Ces études ont mis en évidence des caractéristiques uniques de l’OT dont une courte demi-vie et un profil pharmacocinétique non-linéaire en relation avec la dose administrée. Ensuite, nous avons évalué les effets cardiovasculaires de l’OT sur des animaux sains de différentes espèces. En recherche préclinique, l’utilisation de plusieurs espèces ainsi que de différents états (conscients et anesthésiés) est reconnue comme étant une des meilleures approches afin d’accroître la valeur prédictive des résultats obtenus chez les animaux à la réponse chez l’humain. Des modèles de rats anesthésiés et éveillés, de chiens anesthésiés et éveillés et de singes éveillés avec suivi cardiovasculaire par télémétrie ont été utilisés. L’OT s’est avéré être un agent ayant d’importants effets hémodynamiques présentant une réponse variable selon l’état (anesthésié ou éveillé), la dose, le mode d’administration (bolus ou infusion) et l’espèce utilisée. Ces études nous ont permis d’établir les doses et régimes de traitement n’ayant pas d’effets cardiovasculaires adverses et pouvant être utilisées dans le cadre des études d’efficacité subséquentes. Un modèle porcin d’infarctus du myocarde avec reperfusion a été utilisé afin d’évaluer les effets de l’OT dans le traitement de l’infarctus du myocarde. Dans le cadre d’un projet pilote, l’infusion continue d’OT initiée immédiatement au moment de la reperfusion coronarienne a induit des effets cardiovasculaires adverses chez tous les animaux traités incluant une réduction de la fraction de raccourcissement ventriculaire gauche et une aggravation de la cardiomyopathie dilatée suite à l’infarctus. Considérant ces observations, l’approche thérapeutique fût révisée afin d’éviter le traitement pendant la période d’inflammation aigüe considérée maximale autour du 3ième jour suite à l’ischémie. Lorsqu’initié 8 jours après l’ischémie myocardique, l’infusion d’OT a engendré des effets adverses chez les animaux ayant des niveaux endogènes d’OT élevés. Par ailleurs, aucun effet adverse (amélioration non-significative) ne fût observé chez les animaux ayant un faible niveau endogène d’OT. Chez les animaux du groupe placebo, une tendance à observer une meilleure récupération chez ceux ayant des niveaux endogènes initiaux élevés fût notée. Bien que la taille de la zone ischémique à risque soit comparable à celle rencontrée chez les patients atteints d’infarctus, l’utilisation d’animaux juvéniles et l’absence de maladies coronariennes sont des limitations importantes du modèle porcin utilisé. Le potentiel de l’OT pour le traitement de l’infarctus du myocarde demeure mais nos résultats suggèrent qu’une administration systémique à titre de thérapie de remplacement de l’OT devrait être considérée en fonction du niveau endogène. De plus amples évaluations de la sécurité du traitement avec l’OT dans des modèles animaux d’infarctus du myocarde seront nécessaires avant de considérer l’utilisation d’OT dans une population de patients atteint d’un infarctus du myocarde. En contre partie, les niveaux endogènes d’OT pourraient posséder une valeur pronostique et des études cliniques à cet égard pourraient être d’intérêt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le canal calcique de type L, Cav1.2, joue un rôle clé dans le couplage excitation-contraction des myocytes ventriculaires. Il a été montré que la sous-unité Cavα1 était sujette à l’épissage alternatif et que ce phénomène pouvait mener à une protéine tronquée en C-terminal au niveau de l’exon 45 (Liao, Yong et al. 2005). D’autres groupes ont étudié différentes délétions au niveau de l’extrémité C-terminale (De Jongh, Warner et al. 1991; Gao, Cuadra et al. 2001). Les courants mesurés dans la configuration cellule entière, était significativement plus grands que le canal « pleine longueur ». Nous avons décidé de tester certaines de ces délétions (ΔC2030, ΔC1935, ΔC1856, ΔC1733, ΔC1700) en présence ou en absence de la sous-unité auxiliaire Cavβ3, susceptible d’interagir avec l’extrémité C-terminale de la sous-unité Cavα1 par l’intermédiaire de son domaine SH3 (Lao, Kobrinsky et al. 2008). Les résultats obtenus dans les ovocytes de Xénope ont mis en évidence que les sous-unités Cavα1.2 tronquées montraient des courants globaux plus élevés que le canal « pleine longueur » en présence de la sous-unité auxiliaire Cavβ3 et que les sous-unités Cavα1.2 tronquées donnaient des courants en absence de la sous-unité Cavβ3 contrairement à la sous-unité Cavα1.2 « pleine longueur ». Afin de vérifier si l’augmentation des courants macroscopiques était le résultat d’une augmentation du nombre de sous-unités Cavα1.2 à la membrane, nous avons choisi de quantifier la fluorescence spécifiquement due à cette sous-unité en utilisant la méthode de cytométrie de flux (FACS : « Fluorescence Activated Cell Sorting »). L’épitope HA a été inséré dans une région extracellulaire de la sous-unité Cavα1 du canal calcique Cav1.2 et un anticorps anti-HA couplé au FITC (« Fluorescein IsoThioCyanate ») a été utilisé pour observer la fluorescence. Nos résultats confirment que la sous-unité Cavα1-HA du canal calcique Cav1.2, s’exprime à la membrane plasmique en présence de la sous-unité auxiliaire Cavβ3, et qu’en absence de celle-ci, ne s’exprime que peu ou pas à la membrane. Les mêmes résultats ont été obtenus pour les trois délétions testées dans les mêmes conditions soit Cavα1.2-HA ΔC1935, Cavα1.2-HA ΔC1856 et Cavα1.2-HA ΔC1733. Ensemble, ces résultats suggèrent que l’augmentation des courants macroscopiques observés après une délétion partielle du C-terminal n’est pas causée par une augmentation du nombre de protéines Cavα1.2 à la membrane.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée.