1000 resultados para Modélisation numérique
Resumo:
Établir une régulation de l’économie numérique au Sénégal représente un enjeu fondamental pour les gouvernants et l’ensemble des acteurs qui la compose. Suivant une démarche plus globalisée, d’énormes mutations normatives visant les rationalités et les mécanismes de réglementations ont évolué dans le temps donnant une place plus considérable au droit dans les politiques publiques des États. Différents modèles normatifs et institutionnels sont ainsi adaptés pour prendre en charge le phénomène de la convergence dépendamment du contexte réglementaire du pays. Pour ce qui est du contexte actuel du Sénégal, l’étanchéité des réglementations relatives aux télécommunications et à l’audiovisuel, désormais convergent, est fondée sur un modèle de réglementation sectorielle. Toutefois, leur convergence a provoqué un brouillage des frontières qui risque désormais de poser des conséquences énormes sur le plan normatif tel que des risques d’enchevêtrement sur le plan institutionnel ou réglementaire. Or au plan national, il n’existe à ce jour aucun texte visant à assoir les bases d’une régulation convergente. Ainsi, à la question de savoir si la régulation sectorielle est pertinente au regard de l’environnement du numérique marqué par la convergence, il s’est avéré qu’elle pourrait être adoptée comme modèle à court terme. Mais dans un but de réaliser des économies d’échelle pour réguler efficacement les différents secteurs et industries infrastructurelles, il faut un modèle de régulation unique marquée par la fusion de l’ARTP et du CNRA. D’une part, la régulation sectorielle permet d’accompagner la transition vers le numérique déjà lancée et d’autre part la régulation multisectorielle servira une fois la convergence des marchés établis.
Resumo:
La présentation d'antigène par les molécules d'histocompatibilité majeure de classe I (CMHI) permet au système immunitaire adaptatif de détecter et éliminer les agents pathogènes intracellulaires et des cellules anormales. La surveillance immunitaire est effectuée par les lymphocytes T CD8 qui interagissent avec le répertoire de peptides associés au CMHI présentés à la surface de toutes cellules nucléées. Les principaux gènes humains de CMHI, HLA-A et HLA-B, sont très polymorphes et par conséquent montrent des différences dans la présentation des antigènes. Nous avons étudié les différences qualitatives et quantitatives dans l'expression et la liaison peptidique de plusieurs allotypes HLA. Utilisant la technique de cytométrie de flux quantitative nous avons établi une hiérarchie d'expression pour les quatre HLA-A, B allotypes enquête. Nos résultats sont compatibles avec une corrélation inverse entre l'expression allotypique et la diversité des peptides bien que d'autres études soient nécessaires pour consolider cette hypothèse. Les origines mondiales du répertoire de peptides associés au CMHI restent une question centrale à la fois fondamentalement et dans la recherche de cibles immunothérapeutiques. Utilisant des techniques protéogénomiques, nous avons identifié et analysé 25,172 peptides CMHI isolées à partir des lymphocytes B de 18 personnes qui exprime collectivement 27 allotypes HLA-A,B. Alors que 58% des gènes ont été la source de 1-64 peptides CMHI par gène, 42% des gènes ne sont pas représentés dans l'immunopeptidome. Dans l'ensemble, l’immunopeptidome présenté par 27 allotypes HLA-A,B ne couvrent que 17% des séquences exomiques exprimées dans les cellules des sujets. Nous avons identifié plusieurs caractéristiques des transcrits et des protéines qui améliorent la production des peptides CMHI. Avec ces données, nous avons construit un modèle de régression logistique qui prédit avec une grande précision si un gène de notre ensemble de données ou à partir d'ensembles de données indépendants génèrerait des peptides CMHI. Nos résultats montrent la sélection préférentielle des peptides CMHI à partir d'un répertoire limité de produits de gènes avec des caractéristiques distinctes. L'idée que le système immunitaire peut surveiller des peptides CMHI couvrant seulement une fraction du génome codant des protéines a des implications profondes dans l'auto-immunité et l'immunologie du cancer.
Resumo:
Pour respecter les droits d’auteur, la version électronique de ce mémoire a été dépouillée d'un document visuel. La version intégrale du mémoire a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal.
Resumo:
Établir une régulation de l’économie numérique au Sénégal représente un enjeu fondamental pour les gouvernants et l’ensemble des acteurs qui la compose. Suivant une démarche plus globalisée, d’énormes mutations normatives visant les rationalités et les mécanismes de réglementations ont évolué dans le temps donnant une place plus considérable au droit dans les politiques publiques des États. Différents modèles normatifs et institutionnels sont ainsi adaptés pour prendre en charge le phénomène de la convergence dépendamment du contexte réglementaire du pays. Pour ce qui est du contexte actuel du Sénégal, l’étanchéité des réglementations relatives aux télécommunications et à l’audiovisuel, désormais convergent, est fondée sur un modèle de réglementation sectorielle. Toutefois, leur convergence a provoqué un brouillage des frontières qui risque désormais de poser des conséquences énormes sur le plan normatif tel que des risques d’enchevêtrement sur le plan institutionnel ou réglementaire. Or au plan national, il n’existe à ce jour aucun texte visant à assoir les bases d’une régulation convergente. Ainsi, à la question de savoir si la régulation sectorielle est pertinente au regard de l’environnement du numérique marqué par la convergence, il s’est avéré qu’elle pourrait être adoptée comme modèle à court terme. Mais dans un but de réaliser des économies d’échelle pour réguler efficacement les différents secteurs et industries infrastructurelles, il faut un modèle de régulation unique marquée par la fusion de l’ARTP et du CNRA. D’une part, la régulation sectorielle permet d’accompagner la transition vers le numérique déjà lancée et d’autre part la régulation multisectorielle servira une fois la convergence des marchés établis.
Resumo:
Dans un article fondateur, Fung, Gilman et Shkabatur formalisent les rapports complexes entre les nouvelles technologies de l’information et de la communication et les systèmes politiques. En analysant les incitatifs et les contraintes institutionnelles entre les citoyens, les organisations traditionnelles et l’État, ils distinguent six modèles d’interactions entre les TIC et la démocratie : espace public musclé, production collaborative, démocratie directe digitale, lanceurs d’alerte, mobilisation politique et surveillance sociale. Après avoir brièvement présenté cette typologie qui permet d’éclairer certaines potentialités et illusions entourant la démocratie numérique, nous soutiendrons que l’approche descriptive des auteurs minimise le caractère transformateur des trois premiers modèles au profit des trois derniers qui sont davantage compatibles avec les limites du système politique actuel. Nous esquisserons ensuite les contours d’une « démocratie numérique radicale » pour déterminer comment les nouvelles technologies permettraient de renforcer la participation citoyenne de manière significative.
Resumo:
Cet article se veut exploratoire en deux temps : une piste de réflexion sur l’impact du numérique sur les sciences humaines, et une lecture de l’essai « Le nénuphar et l’araignée » de Claire Legendre, publié le 4 février 2015 chez Les Allusifs. Notre hypothèse est qu’il est nécessaire de jeter les bases d’une théorie et d’une pensée du numérique, comme de poursuivre et de favoriser l’implémentation de nouveaux outils de recherche conçus par et pour les humanités, en lien direct avec les questions d’édition, de diffusion, d’encodage, de fouille, de curation, ou encore de visualisation et de représentation des données textuelles, sonores et visuelles. Cet article propose ainsi une première piste d’exploration de l’usage de ces nouvelles possibilités pour la littérature québécoise.
Resumo:
Souvent conçues comme le vecteur de changements majeurs, les pratiques numériques constituent une occasion de mieux comprendre le fait littéraire en faisant apparaître de manière plus explicite que jamais des aspects ontologiques qui, en tant que tels, ont une valeur atemporelle. En particulier, et c’est l’objet de cet article, le fait numérique donne l’occasion de réinvestir une problématique qui parcourt l’ensemble de la réflexion sur le statut de la littérature depuis Platon et Aristote : celle du rapport entre littérature et réalité, dont Sartre et Derrida avaient déjà œuvré à déconstruire l’opposition au XXe siècle. Selon nous, le numérique souligne l’absence de séparation entre symbolique et non-symbolique, nous empêchant de penser une rupture entre imaginaire et réel. Pour rendre compte de cette structure, nous nous appuierons sur le concept d’éditorialisation, qui vient désigner l’ensemble des dispositifs permettant la production de contenus dans l’espace numérique en tenant compte de la fusion entre espace numérique et espace non numérique. À travers des exemples littéraires – Traque Traces de Cécile Portier et Laisse venir d’Anne Savelli et Pierre Ménard – nous démontrerons comment la littérature participe aujourd’hui à l’éditorialisation du monde, enterrant ainsi définitivement le dualisme imaginaire-réel pour lui préférer une structure anamorphique.
Resumo:
Dans un article fondateur, Fung, Gilman et Shkabatur formalisent les rapports complexes entre les nouvelles technologies de l’information et de la communication et les systèmes politiques. En analysant les incitatifs et les contraintes institutionnelles entre les citoyens, les organisations traditionnelles et l’État, ils distinguent six modèles d’interactions entre les TIC et la démocratie : espace public musclé, production collaborative, démocratie directe digitale, lanceurs d’alerte, mobilisation politique et surveillance sociale. Après avoir brièvement présenté cette typologie qui permet d’éclairer certaines potentialités et illusions entourant la démocratie numérique, nous soutiendrons que l’approche descriptive des auteurs minimise le caractère transformateur des trois premiers modèles au profit des trois derniers qui sont davantage compatibles avec les limites du système politique actuel. Nous esquisserons ensuite les contours d’une « démocratie numérique radicale » pour déterminer comment les nouvelles technologies permettraient de renforcer la participation citoyenne de manière significative.
Resumo:
Cet article se veut exploratoire en deux temps : une piste de réflexion sur l’impact du numérique sur les sciences humaines, et une lecture de l’essai « Le nénuphar et l’araignée » de Claire Legendre, publié le 4 février 2015 chez Les Allusifs. Notre hypothèse est qu’il est nécessaire de jeter les bases d’une théorie et d’une pensée du numérique, comme de poursuivre et de favoriser l’implémentation de nouveaux outils de recherche conçus par et pour les humanités, en lien direct avec les questions d’édition, de diffusion, d’encodage, de fouille, de curation, ou encore de visualisation et de représentation des données textuelles, sonores et visuelles. Cet article propose ainsi une première piste d’exploration de l’usage de ces nouvelles possibilités pour la littérature québécoise.
Resumo:
Souvent conçues comme le vecteur de changements majeurs, les pratiques numériques constituent une occasion de mieux comprendre le fait littéraire en faisant apparaître de manière plus explicite que jamais des aspects ontologiques qui, en tant que tels, ont une valeur atemporelle. En particulier, et c’est l’objet de cet article, le fait numérique donne l’occasion de réinvestir une problématique qui parcourt l’ensemble de la réflexion sur le statut de la littérature depuis Platon et Aristote : celle du rapport entre littérature et réalité, dont Sartre et Derrida avaient déjà œuvré à déconstruire l’opposition au XXe siècle. Selon nous, le numérique souligne l’absence de séparation entre symbolique et non-symbolique, nous empêchant de penser une rupture entre imaginaire et réel. Pour rendre compte de cette structure, nous nous appuierons sur le concept d’éditorialisation, qui vient désigner l’ensemble des dispositifs permettant la production de contenus dans l’espace numérique en tenant compte de la fusion entre espace numérique et espace non numérique. À travers des exemples littéraires – Traque Traces de Cécile Portier et Laisse venir d’Anne Savelli et Pierre Ménard – nous démontrerons comment la littérature participe aujourd’hui à l’éditorialisation du monde, enterrant ainsi définitivement le dualisme imaginaire-réel pour lui préférer une structure anamorphique.
Resumo:
Les applications Web en général ont connu d’importantes évolutions technologiques au cours des deux dernières décennies et avec elles les habitudes et les attentes de la génération de femmes et d’hommes dite numérique. Paradoxalement à ces bouleversements technologiques et comportementaux, les logiciels d’enseignement et d’apprentissage (LEA) n’ont pas tout à fait suivi la même courbe d’évolution technologique. En effet, leur modèle de conception est demeuré si statique que leur utilité pédagogique est remise en cause par les experts en pédagogie selon lesquels les LEA actuels ne tiennent pas suffisamment compte des aspects théoriques pédagogiques. Mais comment améliorer la prise en compte de ces aspects dans le processus de conception des LEA? Plusieurs approches permettent de concevoir des LEA robustes. Cependant, un intérêt particulier existe pour l’utilisation du concept patron dans ce processus de conception tant par les experts en pédagogie que par les experts en génie logiciel. En effet, ce concept permet de capitaliser l’expérience des experts et permet aussi de simplifier de belle manière le processus de conception et de ce fait son coût. Une comparaison des travaux utilisant des patrons pour concevoir des LEA a montré qu’il n’existe pas de cadre de synergie entre les différents acteurs de l’équipe de conception, les experts en pédagogie d’un côté et les experts en génie logiciel de l’autre. De plus, les cycles de vie proposés dans ces travaux ne sont pas complets, ni rigoureusement décrits afin de permettre de développer des LEA efficients. Enfin, les travaux comparés ne montrent pas comment faire coexister les exigences pédagogiques avec les exigences logicielles. Le concept patron peut-il aider à construire des LEA robustes satisfaisant aux exigences pédagogiques ? Comme solution, cette thèse propose une approche de conception basée sur des patrons pour concevoir des LEA adaptés aux technologies du Web. Plus spécifiquement, l’approche méthodique proposée montre quelles doivent être les étapes séquentielles à prévoir pour concevoir un LEA répondant aux exigences pédagogiques. De plus, un répertoire est présenté et contient 110 patrons recensés et organisés en paquetages. Ces patrons peuvent être facilement retrouvés à l’aide du guide de recherche décrit pour être utilisés dans le processus de conception. L’approche de conception a été validée avec deux exemples d’application, permettant de conclure d’une part que l’approche de conception des LEA est réaliste et d’autre part que les patrons sont bien valides et fonctionnels. L’approche de conception de LEA proposée est originale et se démarque de celles que l’on trouve dans la littérature car elle est entièrement basée sur le concept patron. L’approche permet également de prendre en compte les exigences pédagogiques. Elle est générique car indépendante de toute plateforme logicielle ou matérielle. Toutefois, le processus de traduction des exigences pédagogiques n’est pas encore très intuitif, ni très linéaire. D’autres travaux doivent être réalisés pour compléter les résultats obtenus afin de pouvoir traduire en artéfacts exploitables par les ingénieurs logiciels les exigences pédagogiques les plus complexes et les plus abstraites. Pour la suite de cette thèse, une instanciation des patrons proposés serait intéressante ainsi que la définition d’un métamodèle basé sur des patrons qui pourrait permettre la spécification d’un langage de modélisation typique des LEA. L’ajout de patrons permettant d’ajouter une couche sémantique au niveau des LEA pourrait être envisagée. Cette couche sémantique permettra non seulement d’adapter les scénarios pédagogiques, mais aussi d’automatiser le processus d’adaptation au besoin d’un apprenant en particulier. Il peut être aussi envisagé la transformation des patrons proposés en ontologies pouvant permettre de faciliter l’évaluation des connaissances de l’apprenant, de lui communiquer des informations structurées et utiles pour son apprentissage et correspondant à son besoin d’apprentissage.
Resumo:
L’objectif de cette maîtrise est de développer une matrice alimentaire sans gluten par l’incorporation des protéines de canola (PC) dans une farine de riz blanc afin d’offrir aux personnes intolérantes au gluten un produit de bonne qualité d’un point de vue organoleptique (volume massique, structure alvéolaire et couleur) et de valeur nutritionnelle. La matrice sélectionnée est du pain à base de farine de riz blanc. Cinq formulations ont été testées dans la première partie de ce travail : témoin-1 (blé tendre), témoin-2 (100% riz), pain de riz +3% PC, pain de riz + 6% PC, pain de riz + 9% PC. Les produits obtenus ont été caractérisés à toutes les étapes de fabrication en utilisant différentes techniques : poussée volumique, variation thermique au cours des étuvages et de la cuisson, pH (acidité), perte d’eau, volume massique, analyse colorimétrique, dosage des protéines et analyse du profil de la texture. Dans la deuxième partie, deux variables indépendantes ont été additionnées; soit shortening (1, 2, 3%) et gomme de xanthane (0.5, 1, 1.5%), dans le but d’améliorer le volume massique de la meilleure formulation obtenue dans l’étape précédente. Ensuite, des essais de correction ont été attribués aux produits obtenus par l’introduction du bicarbonate de sodium (0.5, 1, 1.5%) et d’huile de canola à la place du shortening (1, 2, 3%). Les tests de panification ont donné différents volumes massiques et structures alvéolaires qui étaient jugés de qualité inférieure à celle du témoin-1 (2.518 mL/g), mais largement supérieure à celle du témoin-2 (1.417 mL/g). Le meilleur volume massique obtenu est de 1.777 mL/g, correspondant à celui du pain obtenu par la combinaison 6%PC+0.5%GH+B 1.5%+ H3%. Finalement, les résultats de ce projet ont montré l’impact positif de l’incorporation des protéines de canola dans un pain sans gluten à base de farine de riz blanc. Ce travail constitue une contribution à la possibilité de substituer le gluten par d’autres protéines ayant de bonnes propriétés techno-fonctionnelles, en particulier la capacité à donner du volume au produit final.
Resumo:
Le laboratoire DOMUS développe des applications sensibles au contexte dans une perspective d’intelligence ambiante. L’architecture utilisée présentement pour gérer le contexte a atteint ses limites en termes de capacité d’évoluer, d’intégration de nouvelles sources de données et de nouveaux capteurs et actionneurs, de capacité de partage entre les applications et de capacité de raisonnement. Ce projet de recherche a pour objectif de développer un nouveau modèle, un gestionnaire de contexte et de proposer une architecture pour les applications d’assistance installées dans un habitat intelligent. Le modèle doit répondre aux exigences suivantes : commun, abstrait, évolutif, décentralisé, performant et une accessibilité uniforme. Le gestionnaire du contexte doit permettre de gérer les événements et offrir des capacités de raisonnement sur les données et le contexte. La nouvelle architecture doit simplifier le développement d’applications d’assistance et la gestion du contexte. Les applications doivent pouvoir se mettre à jour si le modèle de données évolue dans le temps sans nécessiter de modification dans le code source. Le nouveau modèle de données repose sur une ontologie définie avec le langage OWL 2 DL. L’architecture pour les applications d’assistance utilise le cadre d’applications Apache Jena pour la gestion des requêtes SPARQL et un dépôt RDF pour le stockage des données. Une bibliothèque Java a été développée pour gérer la correspondance entre le modèle de données et le modèle Java. Le serveur d’événements est basé sur le projet OpenIoT et utilise un dépôt RDF. Il fournit une API pour la gestion des capteurs / événements et des actionneurs / actions. Les choix d’implémentation et l’utilisation d’une ontologie comme modèle de données et des technologies du Web sémantique (OWL, SPARQL et dépôt RDF) pour les applications d’assistance dans un habitat intelligent ont été validés par des tests intensifs et l’adaptation d’applications déjà existantes au laboratoire. L’utilisation d’une ontologie a pour avantage une intégration des déductions et du raisonnement directement dans le modèle de données et non au niveau du code des applications.
Resumo:
This research was devoted to gaining information on teachers? use of technology, specifically SMARTBOARD technology, for teaching and promoting learning in the classroom. Research has suggested that use of technology can enhance learning and classroom practices. This has resulted in administrators encouraging the use of SMARTBOARDS, installing them in classrooms and providing training and support for teachers to use this technology. Adoption of new technology, however, is not simple. It is even more challenging because making the best use of new technologies requires more than training; it requires a paradigm shift in teachers? pedagogical approach. Thus, while it may be reasonable to believe that all we need to do is show teachers the benefits of using the SMARTBOARD; research tells us that changing paradigms is difficult for a variety of reasons. This research had two main objectives. First, to discover what factors might positively or negatively affect teachers? decisions to take up this technology. Second, to investigate how the SMARTBOARD is used by teachers who have embraced it and how this impacts participation in classrooms. The project was divided into two parts; the first was a survey research (Part 1), and the second was an ethnographic study (Part 2). A thirty-nine item questionnaire was designed to obtain information on teachers? use of technology and the SMARTBOARD. The questionnaire was distributed to fifty teachers at two EMSB schools: James Lyng Adult Centre (JLAC) and the High School of Montreal (HSM). Part 2 was an ethnographic qualitative study of two classes (Class A, Class B) at JLAC. Class A was taught by a male teacher, an early-adopter of technology and a high-level user of the SMARTBOARD; Class B was taught by a female teacher who was more traditional and a low-level user. These teachers were selected because they had similar years of experience and general competence in their subject matter but differed in their use of the technology. The enrollment in Class A and Class B were twenty-three and twenty-four adult students, respectively. Each class was observed for 90 minutes on three consecutive days in April 2010. Data collection consisted of videotapes of the entire period, and observational field notes with a graphical recording of participatory actions. Information from the graphical recording was converted to sociograms, a graphic representation of social links among individuals involved in joint action. The sociogram data was tabulated as quantified data. The survey results suggest that although most teachers are interested in and use some form of technology in their teaching, there is a tendency for factors of gender and years of experience to influence the use of and opinions on using technology. A Chi Square analysis of the data revealed (a) a significant difference (2 = 6.031, p < .049) for gender in that male teachers are more likely to be interested in the latest pedagogic innovation compared to female teachers; and, (b) a significant difference for years of experience (2 = 10.945, p < .004), showing that teachers with ?6 years experience were more likely to use the SMARTBOARD, compared to those with more experience (>6 years). All other items from the survey data produced no statistical difference. General trends show that (a) male teachers are more willing to say yes to using the SMARTBOARD compared to female teachers, and (b) teachers with less teaching experience were more likely to have positive opinions about using the SMARTBOARD compared to teachers with more experience. The ethnographic study results showed differences in students? response patterns in the two classrooms. Even though both teachers are experienced and competent, Teacher A elicited more participation from his students than Teacher B. This was so partly because he used the SMARTBOARD to present visual materials that the students could easily respond to. By comparison, Teacher B used traditional media or methods to present most of her course material. While these methods also used visual materials, students were not able to easily relate to these smaller, static images and did not readily engage with the material. This research demonstrates a generally positive attitude by teachers towards use of the SMARTBOARD and a generally positive role of this technology in enhancing students? learning and engagement in the classroom. However, there are many issues related to the SMARTBOARD use that still need to be examined. A particular point is whether teachers feel adequately trained to integrate SMARTBOARD technology into their curricula. And, whether the gender difference revealed is related to other factors like a need for more support, other responsibilities, or a general sense of anxiety when it comes to technology. Greater opportunity for training and ongoing support may be one way to increase teacher use of the SMARTBOARD; particularly for teachers with more experience (>6 years) and possibly also for female teachers.
Resumo:
Résumé : En imagerie médicale, il est courant d’associer plusieurs modalités afin de tirer profit des renseignements complémentaires qu’elles fournissent. Par exemple, la tomographie d’émission par positrons (TEP) peut être combinée à l’imagerie par résonance magnétique (IRM) pour obtenir à la fois des renseignements sur les processus biologiques et sur l’anatomie du sujet. Le but de ce projet est d’explorer les synergies entre l’IRM et la TEP dans le cadre d’analyses pharmacocinétiques. Plus spécifiquement, d’exploiter la haute résolution spatiale et les renseignements sur la perfusion et la perméabilité vasculaire fournis par l’IRM dynamique avec agent de contraste afin de mieux évaluer ces mêmes paramètres pour un radiotraceur TEP injecté peu de temps après. L’évaluation précise des paramètres de perfusion du radiotraceur devrait permettre de mieux quantifier le métabolisme et de distinguer l’accumulation spécifique et non spécifique. Les travaux ont porté sur deux radiotraceurs de TEP (18F-fluorodésoxyglucose [FDG] et 18F-fluoroéthyle-tyrosine [FET]) ainsi que sur un agent de contraste d’IRM (acide gadopentétique [Gd DTPA]) dans un modèle de glioblastome chez le rat. Les images ont été acquises séquentiellement, en IRM, puis en TEP, et des prélèvements sanguins ont été effectués afin d’obtenir une fonction d’entrée artérielle (AIF) pour chaque molécule. Par la suite, les images obtenues avec chaque modalité ont été recalées et l’analyse pharmacocinétique a été effectuée par régions d’intérêt (ROI) et par voxel. Pour le FDG, un modèle irréversible à 3 compartiments (2 tissus) a été utilisé conformément à la littérature. Pour la FET, il a été déterminé qu’un modèle irréversible à 2 tissus pouvait être appliqué au cerveau et à la tumeur, alors qu’un modèle réversible à 2 tissus convenait aux muscles. La possibilité d’effectuer une conversion d’AIF (sanguine ou dérivée de l’image) entre le Gd DTPA et la FET, ou vice versa, a aussi été étudiée et s’est avérée faisable dans le cas des AIF sanguines obtenues à partir de l’artère caudale, comme c’est le cas pour le FDG. Finalement, l’analyse pharmacocinétique combinée IRM et TEP a relevé un lien entre la perfusion du Gd-DTPA et du FDG, ou de la FET, pour les muscles, mais elle a démontré des disparités importantes dans la tumeur. Ces résultats soulignent la complexité du microenvironnement tumoral (p. ex. coexistence de divers modes de transport pour une même molécule) et les nombreux défis rencontrées lors de sa caractérisation chez le petit animal.