843 resultados para drug development
Resumo:
Le récepteur de chimiokine CXCR7 a été récemment identifié comme liant la chimiokine SDF-1, anciennement considérée comme ligand exclusif du récepteur CXCR4. Ces deux récepteurs sont exprimés majoritairement dans les mêmes types cellulaires et, ainsi, la découverte de CXCR7 incite à réévaluer les effets respectifs de SDF-1 sur CXCR4. Étant donné son rôle dans le cancer, CXCR4 est une cible de choix pour le développement de molécules thérapeutiques. Également, CXCR7 semble être impliqué dans la croissance tumorale. AMD3100, un antagoniste «sélectif» pour CXCR4, est maintenant commercialisé. Cet antagoniste a été identifié comme liant lui aussi CXCR7. De plus, sur CXCR7, l’AMD3100 agit comme agoniste puisqu’il induit le recrutement de la β-arrestine, à l’opposé de son effet sur. En revanche, AMD3100 n’induit pas le recrutement de la β-arrestine à CXCR4. Basé sur ces résultats, il est nécessaire de revoir la sélectivité d’autres antagonistes synthétiques de CXCR4. À l’aide de la technique de BRET (Résonance d’un transfert d’énergie par bioluminescence), nos résultats montrent que le Tc14012, un autre antagoniste synthétique de CXCR4, et structurellement distinct de l’AMD3100, interagit avec CXCR7. Contrairement à CXCR4, les deux antagonistes de CXCR4 agissent comme agonistes sur CXCR7 en induisant le recrutement de la β-arrestine. Nos résultats suggèrent que l’organisation spatiale du corps du récepteur serait responsable de cet effet opposé. En conclusion, AMD3100 et Tc14012 ne sont pas sélectifs pour CXCR4, puisqu’ils interagissent avec CXCR7. Lors du développement de nouvelles molécules synthétiques ciblant CXCR4, il serait alors nécessaire d’en évaluer leur sélectivité, et leurs effets en les testant aussi sur CXCR7.
Resumo:
Le développement d’un médicament est non seulement complexe mais les retours sur investissment ne sont pas toujours ceux voulus ou anticipés. Plusieurs médicaments échouent encore en Phase III même avec les progrès technologiques réalisés au niveau de plusieurs aspects du développement du médicament. Ceci se traduit en un nombre décroissant de médicaments qui sont commercialisés. Il faut donc améliorer le processus traditionnel de développement des médicaments afin de faciliter la disponibilité de nouveaux produits aux patients qui en ont besoin. Le but de cette recherche était d’explorer et de proposer des changements au processus de développement du médicament en utilisant les principes de la modélisation avancée et des simulations d’essais cliniques. Dans le premier volet de cette recherche, de nouveaux algorithmes disponibles dans le logiciel ADAPT 5® ont été comparés avec d’autres algorithmes déjà disponibles afin de déterminer leurs avantages et leurs faiblesses. Les deux nouveaux algorithmes vérifiés sont l’itératif à deux étapes (ITS) et le maximum de vraisemblance avec maximisation de l’espérance (MLEM). Les résultats de nos recherche ont démontré que MLEM était supérieur à ITS. La méthode MLEM était comparable à l’algorithme d’estimation conditionnelle de premier ordre (FOCE) disponible dans le logiciel NONMEM® avec moins de problèmes de rétrécissement pour les estimés de variances. Donc, ces nouveaux algorithmes ont été utilisés pour la recherche présentée dans cette thèse. Durant le processus de développement d’un médicament, afin que les paramètres pharmacocinétiques calculés de façon noncompartimentale soient adéquats, il faut que la demi-vie terminale soit bien établie. Des études pharmacocinétiques bien conçues et bien analysées sont essentielles durant le développement des médicaments surtout pour les soumissions de produits génériques et supergénériques (une formulation dont l'ingrédient actif est le même que celui du médicament de marque, mais dont le profil de libération du médicament est différent de celui-ci) car elles sont souvent les seules études essentielles nécessaires afin de décider si un produit peut être commercialisé ou non. Donc, le deuxième volet de la recherche visait à évaluer si les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte pour un individu pouvaient avoir une incidence sur les conclusions d’une étude de bioéquivalence et s’ils devaient être soustraits d’analyses statistiques. Les résultats ont démontré que les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte influençaient de façon négative les résultats si ceux-ci étaient maintenus dans l’analyse de variance. Donc, le paramètre de surface sous la courbe à l’infini pour ces sujets devrait être enlevé de l’analyse statistique et des directives à cet effet sont nécessaires a priori. Les études finales de pharmacocinétique nécessaires dans le cadre du développement d’un médicament devraient donc suivre cette recommandation afin que les bonnes décisions soient prises sur un produit. Ces informations ont été utilisées dans le cadre des simulations d’essais cliniques qui ont été réalisées durant la recherche présentée dans cette thèse afin de s’assurer d’obtenir les conclusions les plus probables. Dans le dernier volet de cette thèse, des simulations d’essais cliniques ont amélioré le processus du développement clinique d’un médicament. Les résultats d’une étude clinique pilote pour un supergénérique en voie de développement semblaient très encourageants. Cependant, certaines questions ont été soulevées par rapport aux résultats et il fallait déterminer si le produit test et référence seraient équivalents lors des études finales entreprises à jeun et en mangeant, et ce, après une dose unique et des doses répétées. Des simulations d’essais cliniques ont été entreprises pour résoudre certaines questions soulevées par l’étude pilote et ces simulations suggéraient que la nouvelle formulation ne rencontrerait pas les critères d’équivalence lors des études finales. Ces simulations ont aussi aidé à déterminer quelles modifications à la nouvelle formulation étaient nécessaires afin d’améliorer les chances de rencontrer les critères d’équivalence. Cette recherche a apporté des solutions afin d’améliorer différents aspects du processus du développement d’un médicament. Particulièrement, les simulations d’essais cliniques ont réduit le nombre d’études nécessaires pour le développement du supergénérique, le nombre de sujets exposés inutilement au médicament, et les coûts de développement. Enfin, elles nous ont permis d’établir de nouveaux critères d’exclusion pour des analyses statistiques de bioéquivalence. La recherche présentée dans cette thèse est de suggérer des améliorations au processus du développement d’un médicament en évaluant de nouveaux algorithmes pour des analyses compartimentales, en établissant des critères d’exclusion de paramètres pharmacocinétiques (PK) pour certaines analyses et en démontrant comment les simulations d’essais cliniques sont utiles.
Resumo:
La pharmacogénomique est l’étude de la totalité des gènes impliqués dans les réactions aux médicaments. Cette nouvelle technique de développement des médicaments laisse entrevoir d’immenses possibilités, elle soulève également de nombreuses questions sociales, éthiques et juridiques. Le présent article analyse les enjeux éthiques suscités par la pharmacogénomique en utilisant un type d’approche analytique s’inspirant de l’approche par principes développée par les auteurs Beauchamp et Childress.
Resumo:
Récemment plusieurs récepteurs couplés aux protéines G (RCPGs) ont été caractérisés au niveau des membranes intracellulaires, dont la membrane nucléaire. Notre objectif était de déterminer si les sous-types de récepteurs β-adrénergiques (βAR) et leurs machineries de signalisation étaient fonctionnels et localisés à la membrane nucléaire des cardiomyocytes. Nous avons démontré la présence des β1AR et β3AR, mais pas du β2AR à la membrane nucléaire de myocytes ventriculaires adultes par immunobuvardage, par microscopie confocale, et par des essais fonctionnels. De plus, certains partenaires de signalisation comme les protéines GαS, Gαi, l’adénylate cyclase II, et V/VI y étaient également localisés. Les sous-types de βAR nucléaires étaient fonctionnels puisqu'ils pouvaient lier leurs ligands et activer leurs effecteurs. En utilisant des noyaux isolés, nous avons observé que l'agoniste non-sélectif isoprotérénol (ISO), et que le BRL37344, un ligand sélectif du β3AR, stimulaient l'initiation de la synthèse de l’ARN, contrairement à l'agoniste sélectif du β1AR, le xamotérol. Cette synthèse était abolie par la toxine pertussique (PTX). Cependant, la stimulation des récepteurs nucléaires de type B de l’endothéline (ETB) causaient une réduction de l'initiation de la synthèse d’ARN. Les voies de signalisations impliquées dans la régulation de la synthèse d’ARN par les RCPGs ont ensuite été étudiées en utilisant des noyaux isolés stimulés par des agonistes en présence ou absence de différents inhibiteurs des voies MAP Kinases (proteines kinases activées par mitogènes) et de la voie PI3K/PKB. Les protéines impliquées dans les voies de signalisation de p38, JNK, ERK MAP Kinase et PKB étaient présents dans les noyaux isolés. L'inhibition de PKB par la triciribine, inhibait la synthèse d’ARN. Nous avons ensuite pu mettre en évidence par qPCR que la stimulation par l’ISO entrainait une augmentation du niveau d'ARNr 18S ainsi qu’une diminution de l'expression d’ARNm de NFκB. En contraste, l’ET-1 n’avait aucun effet sur le niveau d’expression de l’ARNr 18S. Nous avons ensuite montré que la stimulation par l’ISO réduisait l’expression de plusieurs gènes impliqués dans l'activation de NFκB, tandis que l’inhibition de ERK1/2 et PKB renversait cet effet. Un microarray global nous a ensuite permis de démontrer que les βARs et les ETRs nucléaires régulaient un grand nombre de gènes distincts. Finalement, les βARs et ETRs nucléaires augmentaient aussi une production de NO de noyaux isolés, ce qui pouvait être inhibée par le LNAME. Ces résultats ont été confirmés dans des cardiomyocytes intacts en utilisant des analogues cagés et perméables d’ISO et de l'ET-1: l'augmentation de NO nucléaire détectée par DAF2-DA, causée par l'ET-1 et l'ISO, pouvait être prévenue par le LNAME. Finalement, l’augmentation de l’initiation de la transcription induite par l'ISO était aussi bloquée par le L-NAME ou par un inbitheur de PKG, le KT5823, suggérant que la voie NO-GC-PKG est impliquée dans la régulation de la transcription par les βAR. En conclusion, les βARs et les ETRs nucléaires utilisent des voies de signalisation différentes et exercent ainsi des effets distincts sur l’expression des gènes cardiaques. Ils représentent donc une avenue intéressante pour le développement de drogues pharmacologiques.
Resumo:
Le contexte actuel de la distribution des soins de santé se caractérise par la présence d’inégalités frappantes en termes d’accès aux médicaments ou autres technologies thérapeutiques (appareils ou tests de diagnostic) à l’échelle mondiale. Cette distribution dépend de plusieurs facteurs politiques, sociaux, économiques, scientifiques et éthiques. Parmi les facteurs importants, l’innovation dans les milieux biomédical et pharmaceutique participe activement à l’établissement et à l’exacerbation des inégalités en santé mondiale. Dans cette thèse, nous présentons une étude basée sur le cas des technologies issues de la pharmacogénomique. Il est proposé que ces technologies soient susceptibles d’avoir un impact positif sur la santé publique à l’échelle mondiale en révolutionnant le modèle de développement et de distribution du médicament. Nous avons réalisé une évaluation du potentiel qu’offre l’application de ces technologies dans les domaines de la recherche biomédicale et pharmaceutique pour les populations des pays à faible et à moyen revenu. Nous démontrons que les efforts en recherche dans le domaine de la pharmacogénomique sont essentiellement dirigés vers les maladies affectant les populations des pays à revenu élevé. Par cela, le développement de la recherche dans ce domaine réplique le modèle du ratio 90/10 des inégalités en santé mondiale, où 90 % des médicaments produits accommode seulement 10 % de la population mondiale – soit celle des pays à revenu élevé. Il appert que le potentiel d’utilisation des technologies issues de la pharmacogénomique pour les populations des pays à faible et à moyen revenu nécessite alors une redéfinition des rôles et des responsabilités des acteurs en santé mondiale (les gouvernements, les organisations gouvernementales et non gouvernementales internationales et les compagnies pharmaceutiques). Nous proposons que cette redéfinition des rôles et des responsabilités des différents acteurs passe par l’adoption d’un cadre réflexif basé sur les principes éthiques de la justice, de l’équité et de la solidarité dans le développement de la recherche et l’implantation des nouvelles technologies -omiques.
Resumo:
Malgré le progrès technologique et nos connaissances pharmaceutiques et médicales croissantes, le développement du médicament demeure un processus difficile, dispendieux, long et très risqué. Ce processus mérite d'être amélioré pour faciliter le développement de nouveaux traitements. À cette fin, cette thèse vise à démontrer l’utilité de principes avancés et d’outils élaborés en pharmacocinétique (PK), actuels et nouveaux. Ces outils serviront à répondre efficacement à des questions importantes lors du développement d’un médicament, sauvant ainsi du temps et des coûts. Le premier volet de la thèse porte sur l’utilisation de la modélisation et des simulations et la création d’un nouveau modèle afin d’établir la bioéquivalence entre deux formulations de complexe de gluconate ferrique de sodium en solution de sucrose pour injection. Comparé aux méthodes courantes, cette nouvelle approche proposée se libère de plusieurs présuppositions, et requiert moins de données. Cette technique bénéficie d’une robustesse scientifique tout en étant associée à des économies de temps et de coûts. Donc, même si développé pour produits génériques, elle pourra également s’avérer utile dans le développement de molécules innovatrices et « biosimilaires ». Le deuxième volet décrit l’emploi de la modélisation pour mieux comprendre et quantifier les facteurs influençant la PK et la pharmacodynamie (PD) d’une nouvelle protéine thérapeutique, la pegloticase. L’analyse a démontré qu’aucun ajustement posologique n’était nécessaire et ces résultats sont inclus dans la monographie officielle du produit. Grâce à la modélisation, on pouvait répondre à des questions importantes concernant le dosage d’un médicament sans passer par des nouvelles études ni d'évaluations supplémentaires sur les patients. Donc, l’utilisation de cet outil a permis de réduire les dépenses sans prolonger le processus de développement. Le modèle développé dans le cadre de cette analyse pourrait servir à mieux comprendre d’autres protéines thérapeutiques, incluant leurs propriétés immunogènes. Le dernier volet démontre l’utilité de la modélisation et des simulations dans le choix des régimes posologiques d’un antibiotique (TP-434) pour une étude de Phase 2. Des données provenant d’études de Phase 1 ont été modélisées au fur et à mesure qu’elles devenaient disponibles, afin de construire un modèle décrivant le profil pharmacocinétique du TP-434. Ce processus de modélisation exemplifiait les cycles exploratoires et confirmatoires décrits par Sheiner. Ainsi, en se basant sur des relations PK/PD d’un antibiotique de classe identique, des simulations ont été effectuées avec le modèle PK final, afin de proposer de nouveaux régimes posologiques susceptibles d’être efficace chez les patients avant même d'effectuer des études. Cette démarche rationnelle a mené à l’utilisation de régimes posologiques avec une possibilité accrue d’efficacité, sans le dosage inutile des patients. Ainsi, on s’est dispensé d’études ou de cohortes supplémentaires coûteuses qui auraient prolongé le processus de développement. Enfin, cette analyse est la première à démontrer l’application de ces techniques dans le choix des doses d’antibiotique pour une étude de Phase 2. En conclusion, cette recherche démontre que des outils de PK avancés comme la modélisation et les simulations ainsi que le développement de nouveaux modèles peuvent répondre efficacement et souvent de manière plus robuste à des questions essentielles lors du processus de développement du médicament, tout en réduisant les coûts et en épargnant du temps.
Resumo:
La littérature abordant les enjeux socio-éthiques et réglementaires associés aux médicaments est relativement abondante, ce qui n’est pas le cas des dispositifs médicaux (DM). Ce dernier secteur couvre une très large diversité de produits qui servent à de multiples applications: diagnostic, traitement, gestion des symptômes de certaines conditions physiques ou psychiatriques, restauration d’une fonction débilitante, chirurgie, etc. À tort, on a tendance à croire que les DM sont réglementés de la même manière que les médicaments, que ce soit pour les exigences concernant leur mise en marché ou des pratiques de surveillance après mise en marché. Or, au cours des dernières années, leur usage élargi, leur impact sur les coûts des soins de santé, et les rappels majeurs dont certains ont fait l’objet ont commencé à inquiéter la communauté médicale et de nombreux chercheurs. Ils interpellent les autorités réglementaires à exercer une plus grande vigilance tant au niveau de l’évaluation des nouveaux DM à risque élevé avant leur mise en marché, que dans les pratiques de surveillance après mise en marché. Une stratégie plus rigoureuse d’évaluation des nouveaux DM permettrait d’assurer un meilleur suivi des risques associés à leur utilisation, de saisir la portée des divers enjeux socio-éthiques découlant de l’utilisation de certains DM, et de préserver la confiance du public. D’emblée, il faut savoir que les autorités nationales n’ont pas pour mandat d’évaluer la portée des enjeux socio-éthiques, ou encore les coûts des DM qui font l’objet d’une demande de mise en marché. Cette évaluation est essentiellement basée sur une analyse des rapports risques-bénéfices générés par l’usage du DM pour une indication donnée. L’évaluation des impacts socio-éthiques et l’analyse coûts-bénéfices relèvent des agences d’Évaluation des technologies de santé (ÉTS). Notre recherche montre que les DM sont non seulement peu fréquemment évalués par les agences d’ÉTS, mais l’examen des enjeux socio-éthiques est trop souvent encore incomplet. En fait, les recommandations des rapports d’ÉTS sont surtout fondées sur une analyse coûts-bénéfices. Or, le secteur des DM à risque élevé est particulièrement problématique. Plusieurs sont non seulement porteurs de risques pour les patients, mais leur utilisation élargie comporte des impacts importants pour les systèmes de santé. Nous croyons que le Principisme, au cœur de l’éthique biomédicale, que ce soit au plan de l’éthique de la recherche que de l’éthique clinique, constitue un outil pour faciliter la reconnaissance et l’examen, particulièrement par les agences d’ÉTS, des enjeux socio-éthiques en jeu au niveau des DM à risque élevé. Également, le Principe de Précaution pourrait aussi servir d’outil, particulièrement au sein des agences nationales de réglementation, pour mieux cerner, reconnaître, analyser et gérer les risques associés à l’évaluation et l’utilisation de ce type de DM. Le Principisme et le Principe de Précaution pourraient servir de repères 1) pour définir les mesures nécessaires pour éliminer les lacunes observées dans pratiques associées aux processus de réglementation, et 2) pour mieux cerner et documenter les enjeux socio-éthiques spécifiques aux DM à risque élevé.
Resumo:
This article describes an approach to optimal design of phase II clinical trials using Bayesian decision theory. The method proposed extends that suggested by Stallard (1998, Biometrics54, 279–294) in which designs were obtained to maximize a gain function including the cost of drug development and the benefit from a successful therapy. Here, the approach is extended by the consideration of other potential therapies, the development of which is competing for the same limited resources. The resulting optimal designs are shown to have frequentist properties much more similar to those traditionally used in phase II trials.
Resumo:
Platelets have long been recognized to be of central importance in haemostasis, but their participation in pathological conditions such as thrombosis, atherosclerosis and inflammation is now also well established. The platelet has therefore become a key target in therapies to combat cardiovascular disease. Anti-platelet therapies are used widely, but current approaches lack efficacy in a proportion of patients, and are associated with side effects including problem bleeding. In the last decade, substantial progress has been made in understanding the regulation of platelet function, including the characterization of new ligands, platelet-specific receptors and cell signalling pathways. It is anticipated this progress will impact positively on the future innovations towards more effective and safer anti-platelet agents. In this review, the mechanisms of platelet regulation and current anti-platelet therapies are introduced, and strong, and some more speculative, potential candidate target molecules for future anti-platelet drug development are discussed.
Resumo:
In areas such as drug development, clinical diagnosis and biotechnology research, acquiring details about the kinetic parameters of enzymes is crucial. The correct design of an experiment is critical to collecting data suitable for analysis, modelling and deriving the correct information. As classical design methods are not targeted to the more complex kinetics being frequently studied, attention is needed to estimate parameters of such models with low variance. We demonstrate that a Bayesian approach (the use of prior knowledge) can produce major gains quantifiable in terms of information, productivity and accuracy of each experiment. Developing the use of Bayesian Utility functions, we have used a systematic method to identify the optimum experimental designs for a number of kinetic model data sets. This has enabled the identification of trends between kinetic model types, sets of design rules and the key conclusion that such designs should be based on some prior knowledge of K-M and/or the kinetic model. We suggest an optimal and iterative method for selecting features of the design such as the substrate range, number of measurements and choice of intermediate points. The final design collects data suitable for accurate modelling and analysis and minimises the error in the parameters estimated. (C) 2003 Elsevier Science B.V. All rights reserved.
Resumo:
Novel imaging techniques are playing an increasingly important role in drug development, providing insight into the mechanism of action of new chemical entities. The data sets obtained by these methods can be large with complex inter-relationships, but the most appropriate statistical analysis for handling this data is often uncertain - precisely because of the exploratory nature of the way the data are collected. We present an example from a clinical trial using magnetic resonance imaging to assess changes in atherosclerotic plaques following treatment with a tool compound with established clinical benefit. We compared two specific approaches to handle the correlations due to physical location and repeated measurements: two-level and four-level multilevel models. The two methods identified similar structural variables, but higher level multilevel models had the advantage of explaining a greater proportion of variation, and the modeling assumptions appeared to be better satisfied.
Resumo:
In recent years, there has been a drive to save development costs and shorten time-to-market of new therapies. Research into novel trial designs to facilitate this goal has led to, amongst other approaches, the development of methodology for seamless phase II/III designs. Such designs allow treatment or dose selection at an interim analysis and comparative evaluation of efficacy with control, in the same study. Methods have gained much attention because of their potential advantages compared to conventional drug development programmes with separate trials for individual phases. In this article, we review the various approaches to seamless phase II/III designs based upon the group-sequential approach, the combination test approach and the adaptive Dunnett method. The objective of this article is to describe the approaches in a unified framework and highlight their similarities and differences to allow choice of an appropriate methodology by a trialist considering conducting such a trial.
Resumo:
G protein-coupled receptors (GPCRs) are expressed throughout the nervous system where they regulate multiple physiological processes, participate in neurological diseases, and are major targets for therapy. Given that many GPCRs respond to neurotransmitters and hormones that are present in the extracellular fluid and which do not readily cross the plasma membrane, receptor trafficking to and from the plasma membrane is a critically important determinant of cellular responsiveness. Moreover, trafficking of GPCRs throughout the endosomal system can initiate signaling events that are mechanistically and functionally distinct from those operating at the plasma membrane. This review discusses recent advances in the relationship between signaling and trafficking of GPCRs in the nervous system. It summarizes how receptor modifications influence trafficking, discusses mechanisms that regulate GPCR trafficking to and from the plasma membrane, reviews the relationship between trafficking and signaling, and considers the implications of GPCR trafficking to drug development.
Resumo:
Robotic multiwell planar patch-clamp has become common in drug development and safety programs because it enables efficient and systematic testing of compounds against ion channels during voltage-clamp. It has not, however, been adopted significantly in other important areas of ion channel research, where conventional patch-clamp remains the favored method. Here, we show the wider potential of the multiwell approach with the ability for efficient intracellular solution exchange, describing protocols and success rates for recording from a range of native and primary mammalian cells derived from blood vessels, arthritic joints and the immune and central nervous systems. The protocol involves preparing a suspension of single cells to be dispensed robotically into 4-8 microfluidic chambers each containing a glass chip with a small aperture. Under automated control, giga-seals and whole-cell access are achieved followed by preprogrammed routines of voltage paradigms and fast extracellular or intracellular solution exchange. Recording from 48 chambers usually takes 1-6 h depending on the experimental design and yields 16-33 cell recordings.
Resumo:
Evolutionary processes play a central role in the development, progression and response to treatment of cancers. The current challenge facing researchers is to harness evolutionary theory to further our understanding of the clinical progression of cancers. Central to this endeavour will be the development of experimental systems and approaches by which theories of cancer evolution can be effectively tested. We argue here that the experimental evolution approach – whereby evolution is observed in real time and which has typically employed microorganisms – can be usefully applied to cancer. This approach allows us to disentangle the ecological causes of natural selection, identify the genetic basis of evolutionary changes and determine their repeatability. Cell cultures used in cancer research share many of the desirable traits that make microorganisms ideal for studying evolution. As such, experimental cancer evolution is feasible and likely to give great insight into the selective pressures driving the evolution of clinically destructive cancer traits. We highlight three areas of evolutionary theory with importance to cancer biology that are amenable to experimental evolution: drug resistance, social evolution and resource competition. Understanding the diversity, persistence and evolution of cancers is vital for treatment and drug development, and an experimental evolution approach could provide strategic directions and focus for future research.