974 resultados para Two-state Potts model
Resumo:
La fibrillation auriculaire (FA) est la forme d’arythmie la plus fréquente et représente environ un tiers des hospitalisations attribuables aux troubles du rythme cardiaque. Les mécanismes d’initiation et de maintenance de la FA sont complexes et multiples. Parmi ceux-ci, une contribution du système nerveux autonome a été identifiée mais son rôle exact demeure mal compris. Ce travail cible l’étude de la modulation induite par l’acétylcholine (ACh) sur l’initiation et le maintien de la FA, en utilisant un modèle de tissu bidimensionnel. La propagation de l’influx électrique sur ce tissu est décrite par une équation réaction-diffusion non-linéaire résolue sur un maillage rectangulaire avec une méthode de différences finies, et la cinétique d'ACh suit une évolution temporelle prédéfinie qui correspond à l’activation du système parasympathique. Plus de 4400 simulations ont été réalisées sur la base de 4 épisodes d’arythmies, 5 tailles différentes de région modulée par l’ACh, 10 concentrations d’ACh et 22 constantes de temps de libération et de dégradation d’ACh. La complexité de la dynamique des réentrées est décrite en fonction de la constante de temps qui représente le taux de variation d’ACh. Les résultats obtenus suggèrent que la stimulation vagale peut mener soit à une dynamique plus complexe des réentrées soit à l’arrêt de la FA en fonction des quatre paramètres étudiés. Ils démontrent qu’une décharge vagale rapide, représentée par des constantes de temps faibles combinées à une quantité suffisamment grande d’ACh, a une forte probabilité de briser la réentrée primaire provoquant une activité fibrillatoire. Cette activité est caractérisée par la création de plusieurs ondelettes à partir d’un rotor primaire sous l’effet de l’hétérogénéité du gradient de repolarisation causé par l’activité autonomique.
Resumo:
Le suivi thérapeutique est recommandé pour l’ajustement de la dose des agents immunosuppresseurs. La pertinence de l’utilisation de la surface sous la courbe (SSC) comme biomarqueur dans l’exercice du suivi thérapeutique de la cyclosporine (CsA) dans la transplantation des cellules souches hématopoïétiques est soutenue par un nombre croissant d’études. Cependant, pour des raisons intrinsèques à la méthode de calcul de la SSC, son utilisation en milieu clinique n’est pas pratique. Les stratégies d’échantillonnage limitées, basées sur des approches de régression (R-LSS) ou des approches Bayésiennes (B-LSS), représentent des alternatives pratiques pour une estimation satisfaisante de la SSC. Cependant, pour une application efficace de ces méthodologies, leur conception doit accommoder la réalité clinique, notamment en requérant un nombre minimal de concentrations échelonnées sur une courte durée d’échantillonnage. De plus, une attention particulière devrait être accordée à assurer leur développement et validation adéquates. Il est aussi important de mentionner que l’irrégularité dans le temps de la collecte des échantillons sanguins peut avoir un impact non-négligeable sur la performance prédictive des R-LSS. Or, à ce jour, cet impact n’a fait l’objet d’aucune étude. Cette thèse de doctorat se penche sur ces problématiques afin de permettre une estimation précise et pratique de la SSC. Ces études ont été effectuées dans le cadre de l’utilisation de la CsA chez des patients pédiatriques ayant subi une greffe de cellules souches hématopoïétiques. D’abord, des approches de régression multiple ainsi que d’analyse pharmacocinétique de population (Pop-PK) ont été utilisées de façon constructive afin de développer et de valider adéquatement des LSS. Ensuite, plusieurs modèles Pop-PK ont été évalués, tout en gardant à l’esprit leur utilisation prévue dans le contexte de l’estimation de la SSC. Aussi, la performance des B-LSS ciblant différentes versions de SSC a également été étudiée. Enfin, l’impact des écarts entre les temps d’échantillonnage sanguins réels et les temps nominaux planifiés, sur la performance de prédiction des R-LSS a été quantifié en utilisant une approche de simulation qui considère des scénarios diversifiés et réalistes représentant des erreurs potentielles dans la cédule des échantillons sanguins. Ainsi, cette étude a d’abord conduit au développement de R-LSS et B-LSS ayant une performance clinique satisfaisante, et qui sont pratiques puisqu’elles impliquent 4 points d’échantillonnage ou moins obtenus dans les 4 heures post-dose. Une fois l’analyse Pop-PK effectuée, un modèle structural à deux compartiments avec un temps de délai a été retenu. Cependant, le modèle final - notamment avec covariables - n’a pas amélioré la performance des B-LSS comparativement aux modèles structuraux (sans covariables). En outre, nous avons démontré que les B-LSS exhibent une meilleure performance pour la SSC dérivée des concentrations simulées qui excluent les erreurs résiduelles, que nous avons nommée « underlying AUC », comparée à la SSC observée qui est directement calculée à partir des concentrations mesurées. Enfin, nos résultats ont prouvé que l’irrégularité des temps de la collecte des échantillons sanguins a un impact important sur la performance prédictive des R-LSS; cet impact est en fonction du nombre des échantillons requis, mais encore davantage en fonction de la durée du processus d’échantillonnage impliqué. Nous avons aussi mis en évidence que les erreurs d’échantillonnage commises aux moments où la concentration change rapidement sont celles qui affectent le plus le pouvoir prédictif des R-LSS. Plus intéressant, nous avons mis en exergue que même si différentes R-LSS peuvent avoir des performances similaires lorsque basées sur des temps nominaux, leurs tolérances aux erreurs des temps d’échantillonnage peuvent largement différer. En fait, une considération adéquate de l'impact de ces erreurs peut conduire à une sélection et une utilisation plus fiables des R-LSS. Par une investigation approfondie de différents aspects sous-jacents aux stratégies d’échantillonnages limités, cette thèse a pu fournir des améliorations méthodologiques notables, et proposer de nouvelles voies pour assurer leur utilisation de façon fiable et informée, tout en favorisant leur adéquation à la pratique clinique.
Resumo:
La présente recherche porte sur « l’attribution de la responsabilité » auprès d’une population de 166 adolescents auteurs d’agression sexuelle âgés de 12 à 19 ans. Le but premier de cette investigation est de déterminer quels aspects psychologiques (âge, stress post-traumatique, distorsion cognitive, estime de soi, aliénation, immaturité) influencent trois types d’attributions de la responsabilité, soit la culpabilité, l’attribution externe et l’attribution interne, et ainsi sur quels niveaux focaliser le traitement. Les résultats des régressions multiples ont mis en avant deux modèles. Pour le modèle prédisant la culpabilité, une seule composante est retenue, le stress post-traumatique. Ce modèle explique 26% (ajusté) de la variance de la culpabilité (R2=0,29, F(6,120)=8,35, p<0,01). Le modèle prédisant l’attribution externe est composé de l’âge et des distorsions cognitives et permet d’expliquer 25% (ajusté) de la variance (R2=0,28, F(6,122)=8,03, p<0,01). L’attribution interne ne présente aucune corrélation avec les variables étudiées. Le deuxième objectif est d’estimer l’efficacité de la prise en charge du jeune pour modifier l’attribution de responsabilité, selon les différentes modalités qui sont le « milieu de prise en charge », la « durée du traitement » et « l’approche thérapeutique » afin de choisir le programme le plus adéquat. En utilisant l’analyse de la variance (ANOVA), il a été possible de déterminer qu’aucune de ces modalités n’influence l’attribution de la responsabilité. Cette étude présente des limites, notamment la puissance statistique. Comme piste pour de futures recherches, le lien entre l’attribution de la responsabilité et la récidive pourrait être examiné.
Resumo:
Les chimiokines sont des petites protéines secrétées dont la fonction principale est la stimulation de la migration de cellules immunitaires vers différents organes et tissus. Elles sont souvent impliquées lors des maladies inflammatoires, auto-immunes et des cancers. Ainsi, les chimiokines et leurs récepteurs couplés aux protéines G (RCPG) sont la cible pharmacologique de plusieurs molécules, actuellement testées en essais cliniques. Nous avons pris comme modèle, lors de notre étude, le récepteur atypique CXCR7. Ce récepteur est dit atypique, car il ne signalise pas via la voie classique des protéines G, mais plutôt via la voie de la β-arrestine. CXCR7 est impliqué dans de nombreux cancers, favorise la progression métastatique et est un co-récepteur pour le virus de l’immunodéficience humaine (VIH). Cependant, aucune donnée sur son mode de liaison avec ses ligands CXCL11/ITAC et CXCL12/SDF-1 n’existe à date. Nous pensons que cette information est essentielle pour le développement efficace d’agonistes et d’antagonistes, et nous nous sommes intéressés à identifier les résidus essentiels à la liaison des deux ligands de CXCR7 et à son activation par ces derniers. Pour cela, nous avons créé une série de mutants par substitution ou délétion d’acides aminés de la partie N-terminale, des boucles extracellulaires et des domaines transmembranaires du récepteur. Nous avons testé leur marquage en surface cellulaire par cytométrie en flux, leur liaison des deux ligands par expériences de radio-liaison, et leur capacité à recruter la β-arrestine en réponse aux ligands par essais BRET. Les résultats obtenus ont permis d’identifier des résidus importants à l’interaction des systèmes CXCR7/SDF-1 et CXCR7-ITAC et suggèrent des modes de liaison à CXCR7 différents entre ITAC et SDF-1. Tout comme la liaison d’ITAC à son autre récepteur CXCR3, sa liaison à CXCR7 suivrait le mode conventionnel de liaison en deux étapes des récepteurs de chimiokines. Cependant, la liaison de SDF-1 à CXCR7 suivrait un autre mode de liaison, contrairement à sa liaison à son autre récepteur, CXCR4.
Resumo:
Cette thèse comporte trois essais en économie des ressources naturelles. Le Chapitre 2 analyse les effets du stockage d’une ressource naturelle sur le bien-être et sur le stock de celle-ci, dans le contexte de la rizipisciculture. La rizipisciculture consiste à élever des poissons dans une rizière en même temps que la culture du riz. Je développe un modèle d’équilibre général, qui contient trois composantes principales : une ressource renouvelable à accès libre, deux secteurs de production et le stockage du bien produit à partir de la ressource. Les consommateurs stockent la ressource lorsqu’ils spéculent que le prix de cette ressource sera plus élevé dans le futur. Le stockage a un effet ambigu sur le bien-être, négatif sur le stock de ressource au moment où le stockage a lieu et positive sur le stock de ressource dans le futur. Le Chapitre 3 étudie les effects de la migration de travailleurs qualifiés dans un modèle de commerce international lorsqu’il y a présence de pollution. Je développe un modèle de commerce à deux secteurs dans lequel j’introduis les questions de pollution et de migration dans l’objectif de montrer que le commerce interrégional peut affecter le niveau de pollution dans un pays composé de régions qui ont des structures industrielles différentes. La mobilité des travailleurs amplifie les effets du commerce sur le capital environnemental. Le capital environnemental de la région qui a la technologie la moins (plus) polluante est positivement (négativement) affecté par le commerce. De plus, je montre que le commerce interrégional est toujours bénéfique pour la région avec la technologie la moins polluante, ce qui n’est pas toujours le cas pour la région qui a la technologie la plus polluante. Finalement, le Chapitre 4 est coécrit avec Yves Richelle. Dans ce chapitre, nous étudions l’allocation efficace de l’eau d’un lac entre différents utilisateurs. Nous considérons dans le modèle deux types d’irréversibilités : l’irréversibilité d’un investissement qui crée un dommage à l’écosystème et l’irréversibilité dans l’allocation des droits d’usage de l’eau qui provient de la loi sur l’eau (irréversibilité légale). Nous déterminons d’abord la valeur de l’eau pour chacun des utilisateurs. Par la suite, nous caractérisons l’allocation optimale de l’eau entre les utilisateurs. Nous montrons que l’irréversibilité légale entraîne qu’il est parfois optimal de réduire la quantité d’eau allouée à la firme, même s’il n’y a pas de rivalité d’usage. De plus, nous montrons qu’il n’est pas toujours optimal de prévenir le dommage créé par un investissement. Dans l’ensemble, nous prouvons que les irréversibilités entraînent que l’égalité de la valeur entre les utilisateurs ne tient plus à l’allocation optimale. Nous montrons que lorsqu’il n’y a pas de rivalité d’usage, l’eau non utilisée ne doit pas être considérée comme une ressource sans limite qui doit être utilisée de n’importe quelle façon.
Resumo:
During recent years, quantum information processing and the study of N−qubit quantum systems have attracted a lot of interest, both in theory and experiment. Apart from the promise of performing efficient quantum information protocols, such as quantum key distribution, teleportation or quantum computation, however, these investigations also revealed a great deal of difficulties which still need to be resolved in practise. Quantum information protocols rely on the application of unitary and non–unitary quantum operations that act on a given set of quantum mechanical two-state systems (qubits) to form (entangled) states, in which the information is encoded. The overall system of qubits is often referred to as a quantum register. Today the entanglement in a quantum register is known as the key resource for many protocols of quantum computation and quantum information theory. However, despite the successful demonstration of several protocols, such as teleportation or quantum key distribution, there are still many open questions of how entanglement affects the efficiency of quantum algorithms or how it can be protected against noisy environments. To facilitate the simulation of such N−qubit quantum systems and the analysis of their entanglement properties, we have developed the Feynman program. The program package provides all necessary tools in order to define and to deal with quantum registers, quantum gates and quantum operations. Using an interactive and easily extendible design within the framework of the computer algebra system Maple, the Feynman program is a powerful toolbox not only for teaching the basic and more advanced concepts of quantum information but also for studying their physical realization in the future. To this end, the Feynman program implements a selection of algebraic separability criteria for bipartite and multipartite mixed states as well as the most frequently used entanglement measures from the literature. Additionally, the program supports the work with quantum operations and their associated (Jamiolkowski) dual states. Based on the implementation of several popular decoherence models, we provide tools especially for the quantitative analysis of quantum operations. As an application of the developed tools we further present two case studies in which the entanglement of two atomic processes is investigated. In particular, we have studied the change of the electron-ion spin entanglement in atomic photoionization and the photon-photon polarization entanglement in the two-photon decay of hydrogen. The results show that both processes are, in principle, suitable for the creation and control of entanglement. Apart from process-specific parameters like initial atom polarization, it is mainly the process geometry which offers a simple and effective instrument to adjust the final state entanglement. Finally, for the case of the two-photon decay of hydrogenlike systems, we study the difference between nonlocal quantum correlations, as given by the violation of the Bell inequality and the concurrence as a true entanglement measure.
Resumo:
Two formulations of model-based object recognition are described. MAP Model Matching evaluates joint hypotheses of match and pose, while Posterior Marginal Pose Estimation evaluates the pose only. Local search in pose space is carried out with the Expectation--Maximization (EM) algorithm. Recognition experiments are described where the EM algorithm is used to refine and evaluate pose hypotheses in 2D and 3D. Initial hypotheses for the 2D experiments were generated by a simple indexing method: Angle Pair Indexing. The Linear Combination of Views method of Ullman and Basri is employed as the projection model in the 3D experiments.
Resumo:
A fi d'analitzar la contribució de la regió C-terminal proposada com a iniciadora del plegament (CFIS 106-118) a l'estabilitat de l'RNasa A, els residus alifàtics d'aquesta regió es van substituir, mitjançant mutagènesi dirigida, per altres residus en els quals la cadena lateral alifàtica era rogressivament escurçada. La major part de les substitucions projectades suposaven delecions no disruptives de grups metil(è). A més, es va reemplaçar la Tyr115 per un Trp, de manera que, potencialment, s'introduïa una única sonda fluorescent, no desestabilitzant, per tal de seguir els canvis conformacionals que es poguessin generar en la regió durant el procés de legament/desplegament de la proteïna. Tant els paràmetres cinètics, com els espectres d'FTIR i CD, determinats per cadascuna de les ribonucleases variants, indiquen que els reemplaçaments aminoacídics efectuats presenten, en general, poc o cap efecte en l'estructura nativa i en l'activitat de l'enzim. Es va emprar l'espectroscòpia d'absorció a l'ultraviolat de quarta derivada, la fluorescència (per la variant amb Trp) i l'espectroscòpia d'infraroig per transformada de Fourier, per tal de seguir i caracteritzar, en condicions d'equilibri, les transicions conformacionals de cada variant en funció de la pressió i de la temperatura. Els resultats es van comparar amb els que es van obtenir per la proteïna salvatge. Per determinar més a fons les característiques del procés de desplegament de la variant Y115W, les transicions de desnaturalització induïdes per urea d'aquesta variant i de la proteïna salvatge, van ésser examinades per mitjà d'electroforesi en gradient d'urea i espectroscòpia de fluorescència. Curiosament, els canvis conformacionals que resulten de la desnaturalització per pressió són molt semblants als que s'obtenen per temperatura. Enfront d'un augment gradual tant de pressió com de temperatura, l'estructura terciària i els elements d'estructura secundària de les proteïnes estudiades es perden de manera conjunta i reversible. Aquestes variacions estructurals que es promouen descriuen un procés de desplegament molt cooperatiu i en dos estats. Atès que ambdues tècniques (UV i FTIR) utilitzen cadascuna un règim de concentració proteica molt diferent, els resultats indiquen que el procés de desplegament per pressió i per temperatura és intramolecular. Els resultats obtinguts suggereixen que la hidrofobicitat i el volum de les cadenes laterals del CFIS, juntament amb les interaccions de van der Waals entre elements d'estructura secundària intervenen de manera molt notable en l'estabilització de la proteïna. Entre els diferents aminoàcids alifàtics que pertanyen al CFIS C-terminal, la Val108 és el residu més important per tal de preservar la integritat estructural de l'estat natiu. Els reemplaçaments en aquesta posició causen petites alteracions conformacionals i una gran desestabilització de la proteïna (per exemple, el punt mig de la transició de desnaturalització per pressió i per temperatura de la variant V108G disminueix uns 592 MPa i 25ºC, respectivament, respecte a la proteïna salvatge). D'acord amb els resultats obtinguts, la variant Y115W ofereix una sonda útil per tal de seguir la cinètica de plegament/desplegament de l'RNasa A.
Resumo:
Changes to stratospheric sudden warmings (SSWs) over the coming century, as predicted by the Geophysical Fluid Dynamics Laboratory (GFDL) chemistry climate model [Atmospheric Model With Transport and Chemistry (AMTRAC)], are investigated in detail. Two sets of integrations, each a three-member ensemble, are analyzed. The first set is driven with observed climate forcings between 1960 and 2004; the second is driven with climate forcings from a coupled model run, including trace gas concentrations representing a midrange estimate of future anthropogenic emissions between 1990 and 2099. A small positive trend in the frequency of SSWs is found. This trend, amounting to 1 event/decade over a century, is statistically significant at the 90% confidence level and is consistent over the two sets of model integrations. Comparison of the model SSW climatology between the late 20th and 21st centuries shows that the increase is largest toward the end of the winter season. In contrast, the dynamical properties are not significantly altered in the coming century, despite the increase in SSW frequency. Owing to the intrinsic complexity of our model, the direct cause of the predicted trend in SSW frequency remains an open question.
Resumo:
A traditional method of validating the performance of a flood model when remotely sensed data of the flood extent are available is to compare the predicted flood extent to that observed. The performance measure employed often uses areal pattern-matching to assess the degree to which the two extents overlap. Recently, remote sensing of flood extents using synthetic aperture radar (SAR) and airborne scanning laser altimetry (LIDAR) has made more straightforward the synoptic measurement of water surface elevations along flood waterlines, and this has emphasised the possibility of using alternative performance measures based on height. This paper considers the advantages that can accrue from using a performance measure based on waterline elevations rather than one based on areal patterns of wet and dry pixels. The two measures were compared for their ability to estimate flood inundation uncertainty maps from a set of model runs carried out to span the acceptable model parameter range in a GLUE-based analysis. A 1 in 5-year flood on the Thames in 1992 was used as a test event. As is typical for UK floods, only a single SAR image of observed flood extent was available for model calibration and validation. A simple implementation of a two-dimensional flood model (LISFLOOD-FP) was used to generate model flood extents for comparison with that observed. The performance measure based on height differences of corresponding points along the observed and modelled waterlines was found to be significantly more sensitive to the channel friction parameter than the measure based on areal patterns of flood extent. The former was able to restrict the parameter range of acceptable model runs and hence reduce the number of runs necessary to generate an inundation uncertainty map. A result of this was that there was less uncertainty in the final flood risk map. The uncertainty analysis included the effects of uncertainties in the observed flood extent as well as in model parameters. The height-based measure was found to be more sensitive when increased heighting accuracy was achieved by requiring that observed waterline heights varied slowly along the reach. The technique allows for the decomposition of the reach into sections, with different effective channel friction parameters used in different sections, which in this case resulted in lower r.m.s. height differences between observed and modelled waterlines than those achieved by runs using a single friction parameter for the whole reach. However, a validation of the modelled inundation uncertainty using the calibration event showed a significant difference between the uncertainty map and the observed flood extent. While this was true for both measures, the difference was especially significant for the height-based one. This is likely to be due to the conceptually simple flood inundation model and the coarse application resolution employed in this case. The increased sensitivity of the height-based measure may lead to an increased onus being placed on the model developer in the production of a valid model
Resumo:
1 Mechanisms of inverse agonist action at the D-2(short) dopamine receptor have been examined. 2 Discrimination of G-protein-coupled and -uncoupled forms of the receptor by inverse agonists was examined in competition ligand-binding studies versus the agonist [H-3]NPA at a concentration labelling both G-protein-coupled and -uncoupled receptors. 3 Competition of inverse agonists versus [H-3] NPA gave data that were fitted best by a two-binding site model in the absence of GTP but by a one-binding site model in the presence of GTP. K-i values were derived from the competition data for binding of the inverse agonists to G-protein-uncoupled and -coupled receptors. K-coupled and K-uncoupled were statistically different for the set of compounds tested ( ANOVA) but the individual values were different in a post hoc test only for (+)-butaclamol. 4 These observations were supported by simulations of these competition experiments according to the extended ternary complex model. 5 Inverse agonist efficacy of the ligands was assessed from their ability to reduce agonist-independent [S-35]GTPγ S binding to varying degrees in concentration-response curves. Inverse agonism by (+)-butaclamol and spiperone occurred at higher potency when GDP was added to assays, whereas the potency of (-)-sulpiride was unaffected. 6 These data show that some inverse agonists ((+)-butaclamol, spiperone) achieve inverse agonism by stabilising the uncoupled form of the receptor at the expense of the coupled form. For other compounds tested, we were unable to define the mechanism.
Resumo:
It is generally acknowledged that population-level assessments provide,I better measure of response to toxicants than assessments of individual-level effects. population-level assessments generally require the use of models to integrate potentially complex data about the effects of toxicants on life-history traits, and to provide a relevant measure of ecological impact. Building on excellent earlier reviews we here briefly outline the modelling options in population-level risk assessment. Modelling is used to calculate population endpoints from available data, which is often about Individual life histories, the ways that individuals interact with each other, the environment and other species, and the ways individuals are affected by pesticides. As population endpoints, we recommend the use of population abundance, population growth rate, and the chance of population persistence. We recommend two types of model: simple life-history models distinguishing two life-history stages, juveniles and adults; and spatially-explicit individual-based landscape models. Life-history models are very quick to set up and run, and they provide a great deal or insight. At the other extreme, individual-based landscape models provide the greatest verisimilitude, albeit at the cost of greatly increased complexity. We conclude with a discussion of the cations of the severe problems of parameterising models.
Resumo:
1 Factors influencing agonist affinity and relative efficacy have been studied for the 5-HT1A serotonin receptor using membranes of CHO cells expressing the human form of the receptor and a series of R-and S-2-(dipropylamino)tetralins (nonhydroxylated and monohydroxylated (5-OH, 6-OH, 7-OH, 8-OH) species). 2 Ligand binding studies were used to determine dissociation constants for agonist binding to the 5HT(1A) receptor: (a) K-i values for agonists were determined in competition versus the binding of the agonist [H-3]-8-OH DPAT. Competition data were all fitted best by a one-binding site model. (b) K-i values for agonists were also determined in competition versus the binding of the antagonist [H-3]-NAD-199. Competition data were all fitted best by a two-binding site model, and agonist affinities for the higher (K-h) and lower affinity (K-1) sites were determined. 3 The ability of the agonists to activate the 5-HT1A receptor was determined using stimulation of [S-35]-GTPgammaS binding. Maximal effects of agonists (E-max) and their potencies (EC50) were determined from concentration/response curves for stimulation of [S-35]-GTPgammaS binding. 4 K-1/K-h determined from ligand binding assays correlated with the relative efficacy (relative Em) of agonists determined in [S-35]-GTPgammaS binding assays. There was also a correlation between K-1/K-h and K-1/EC50 for agonists determined from ligand binding and [S-35]-GTPgammaS binding assays. 5 Simulations of agonist binding and effect data were performed using the Ternary Complex Model in order to assess the use of K-1/K-h for predicting the relative efficacy of agonists. British Journal of Pharmacology (2003) 138, 1129-1139. doi: 10. 1038/sj.bjp.705085.
Resumo:
1. Demographic models are assuming an important role in management decisions for endangered species. Elasticity analysis and scope for management analysis are two such applications. Elasticity analysis determines the vital rates that have the greatest impact on population growth. Scope for management analysis examines the effects that feasible management might have on vital rates and population growth. Both methods target management in an attempt to maximize population growth. 2. The Seychelles magpie robin Copsychus sechellarum is a critically endangered island endemic, the population of which underwent significant growth in the early 1990s following the implementation of a recovery programme. We examined how the formal use of elasticity and scope for management analyses might have shaped management in the recovery programme, and assessed their effectiveness by comparison with the actual population growth achieved. 3. The magpie robin population doubled from about 25 birds in 1990 to more than 50 by 1995. A simple two-stage demographic model showed that this growth was driven primarily by a significant increase in the annual survival probability of first-year birds and an increase in the birth rate. Neither the annual survival probability of adults nor the probability of a female breeding at age 1 changed significantly over time. 4. Elasticity analysis showed that the annual survival probability of adults had the greatest impact on population growth. There was some scope to use management to increase survival, but because survival rates were already high (> 0.9) this had a negligible effect on population growth. Scope for management analysis showed that significant population growth could have been achieved by targeting management measures at the birth rate and survival probability of first-year birds, although predicted growth rates were lower than those achieved by the recovery programme when all management measures were in place (i.e. 1992-95). 5. Synthesis and applications. We argue that scope for management analysis can provide a useful basis for management but will inevitably be limited to some extent by a lack of data, as our study shows. This means that identifying perceived ecological problems and designing management to alleviate them must be an important component of endangered species management. The corollary of this is that it will not be possible or wise to consider only management options for which there is a demonstrable ecological benefit. Given these constraints, we see little role for elasticity analysis because, when data are available, a scope for management analysis will always be of greater practical value and, when data are lacking, precautionary management demands that as many perceived ecological problems as possible are tackled.
Resumo:
1 Mechanisms of inverse agonist action at the D-2(short) dopamine receptor have been examined. 2 Discrimination of G-protein-coupled and -uncoupled forms of the receptor by inverse agonists was examined in competition ligand-binding studies versus the agonist [H-3]NPA at a concentration labelling both G-protein-coupled and -uncoupled receptors. 3 Competition of inverse agonists versus [H-3] NPA gave data that were fitted best by a two-binding site model in the absence of GTP but by a one-binding site model in the presence of GTP. K-i values were derived from the competition data for binding of the inverse agonists to G-protein-uncoupled and -coupled receptors. K-coupled and K-uncoupled were statistically different for the set of compounds tested ( ANOVA) but the individual values were different in a post hoc test only for (+)-butaclamol. 4 These observations were supported by simulations of these competition experiments according to the extended ternary complex model. 5 Inverse agonist efficacy of the ligands was assessed from their ability to reduce agonist-independent [S-35]GTPγ S binding to varying degrees in concentration-response curves. Inverse agonism by (+)-butaclamol and spiperone occurred at higher potency when GDP was added to assays, whereas the potency of (-)-sulpiride was unaffected. 6 These data show that some inverse agonists ((+)-butaclamol, spiperone) achieve inverse agonism by stabilising the uncoupled form of the receptor at the expense of the coupled form. For other compounds tested, we were unable to define the mechanism.