849 resultados para Imagerie optique


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La diminution des doses administrées ou même la cessation complète d'un traitement chimiothérapeutique est souvent la conséquence de la réduction du nombre de neutrophiles, qui sont les globules blancs les plus fréquents dans le sang. Cette réduction dans le nombre absolu des neutrophiles, aussi connue sous le nom de myélosuppression, est précipitée par les effets létaux non spécifiques des médicaments anti-cancéreux, qui, parallèlement à leur effet thérapeutique, produisent aussi des effets toxiques sur les cellules saines. Dans le but d'atténuer cet impact myélosuppresseur, on administre aux patients un facteur de stimulation des colonies de granulocytes recombinant humain (rhG-CSF), une forme exogène du G-CSF, l'hormone responsable de la stimulation de la production des neutrophiles et de leurs libération dans la circulation sanguine. Bien que les bienfaits d'un traitement prophylactique avec le G-CSF pendant la chimiothérapie soient bien établis, les protocoles d'administration demeurent mal définis et sont fréquemment déterminés ad libitum par les cliniciens. Avec l'optique d'améliorer le dosage thérapeutique et rationaliser l'utilisation du rhG-CSF pendant le traitement chimiothérapeutique, nous avons développé un modèle physiologique du processus de granulopoïèse, qui incorpore les connaissances actuelles de pointe relatives à la production des neutrophiles des cellules souches hématopoïétiques dans la moelle osseuse. À ce modèle physiologique, nous avons intégré des modèles pharmacocinétiques/pharmacodynamiques (PK/PD) de deux médicaments: le PM00104 (Zalypsis®), un médicament anti-cancéreux, et le rhG-CSF (filgrastim). En se servant des principes fondamentaux sous-jacents à la physiologie, nous avons estimé les paramètres de manière exhaustive sans devoir recourir à l'ajustement des données, ce qui nous a permis de prédire des données cliniques provenant de 172 patients soumis au protocol CHOP14 (6 cycles de chimiothérapie avec une période de 14 jours où l'administration du rhG-CSF se fait du jour 4 au jour 13 post-chimiothérapie). En utilisant ce modèle physio-PK/PD, nous avons démontré que le nombre d'administrations du rhG-CSF pourrait être réduit de dix (pratique actuelle) à quatre ou même trois administrations, à condition de retarder le début du traitement prophylactique par le rhG-CSF. Dans un souci d'applicabilité clinique de notre approche de modélisation, nous avons investigué l'impact de la variabilité PK présente dans une population de patients, sur les prédictions du modèle, en intégrant des modèles PK de population (Pop-PK) des deux médicaments. En considérant des cohortes de 500 patients in silico pour chacun des cinq scénarios de variabilité plausibles et en utilisant trois marqueurs cliniques, soient le temps au nadir des neutrophiles, la valeur du nadir, ainsi que l'aire sous la courbe concentration-effet, nous avons établi qu'il n'y avait aucune différence significative dans les prédictions du modèle entre le patient-type et la population. Ceci démontre la robustesse de l'approche que nous avons développée et qui s'apparente à une approche de pharmacologie quantitative des systèmes (QSP). Motivés par l'utilisation du rhG-CSF dans le traitement d'autres maladies, comme des pathologies périodiques telles que la neutropénie cyclique, nous avons ensuite soumis l'étude du modèle au contexte des maladies dynamiques. En mettant en évidence la non validité du paradigme de la rétroaction des cytokines pour l'administration exogène des mimétiques du G-CSF, nous avons développé un modèle physiologique PK/PD novateur comprenant les concentrations libres et liées du G-CSF. Ce nouveau modèle PK a aussi nécessité des changements dans le modèle PD puisqu’il nous a permis de retracer les concentrations du G-CSF lié aux neutrophiles. Nous avons démontré que l'hypothèse sous-jacente de l'équilibre entre la concentration libre et liée, selon la loi d'action de masse, n'est plus valide pour le G-CSF aux concentrations endogènes et mènerait en fait à la surestimation de la clairance rénale du médicament. En procédant ainsi, nous avons réussi à reproduire des données cliniques obtenues dans diverses conditions (l'administration exogène du G-CSF, l'administration du PM00104, CHOP14). Nous avons aussi fourni une explication logique des mécanismes responsables de la réponse physiologique aux deux médicaments. Finalement, afin de mettre en exergue l’approche intégrative en pharmacologie adoptée dans cette thèse, nous avons démontré sa valeur inestimable pour la mise en lumière et la reconstruction des systèmes vivants complexes, en faisant le parallèle avec d’autres disciplines scientifiques telles que la paléontologie et la forensique, où une approche semblable a largement fait ses preuves. Nous avons aussi discuté du potentiel de la pharmacologie quantitative des systèmes appliquées au développement du médicament et à la médecine translationnelle, en se servant du modèle physio-PK/PD que nous avons mis au point.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis les années 2000, l’apparition du terme Bromance marque la culture populaire américaine. Cette notion est apparue pour définir les amitiés entre hommes au cinéma, à la télévision et sur Internet. Les films de Bromance, caractérisés par une multitude de scènes de déclaration d’amour entre hommes, traduisent bien cette nouvelle façon d’aborder l’amitié au masculin. À travers les définitions de la masculinité dans ces films, l’enjeu de l’hétérosexualité demeure omniprésent. Malgré la fragilisation de certains stéréotypes traditionnels liés au masculin, il n’en demeure pas moins que la notion de «vraie» masculinité persiste et demeure systématiquement liée à l’hétérosexualité des hommes qui partagent cette amitié particulière qu’on appelle Bromance. Dans cette optique, plusieurs stratégies se manifestent pour prouver la masculinité et donc l’hétérosexualité des protagonistes, mais l’une d’entre elles semble être au cœur de ces films. Cette stratégie s’incarne sous la forme d’une compétition entre hommes qui mise sur la capacité à performer un acte conventionnellement associé à l’homosexualité. Sur Internet, des vidéos qui prennent le nom « Gay Chicken » présentent des hommes qui s’embrassent et qui se touchent sans être dérangés ou ébranlés. C’est la capacité à être calme et en contrôle en restant insensible au corps d’un autre homme qui démontrerait le côté inébranlable de son hétérosexualité et donc de sa masculinité. C’est cet esprit du « Gay Chicken » qui se retrouve un peu partout dans l’univers des films de Bromance. Paradoxalement, ces nouveaux «modèles» d’homme doivent pouvoir à la fois incarner une masculinité plus flexible, plus ouverte et sensible, mais doivent également prouver leur virilité. Cette « masculinité contemporaine » brouille les cartes entre ce qui est viril et ce qui ne l’est pas, entre ce qui est féminin et ce qui ne l’est pas et entre ce qui est homosexuel et ce qui ne l’est pas. Les relations homosociales dans le cadre de Bromances présentent alors des opportunités indispensables pour prouver à tous la force de son hétérosexualité. Ce travail de recherche se penchera donc plus précisément sur les paradoxes d’une « masculinité contemporaine » intimement liée à l’orientation hétérosexuelle, par l’entremise de certains films issus de la culture populaire américaine associée à la Bromance. L’objectif est de montrer comment ces films sont des manifestations significatives d’une nouvelle forme d’affirmation identitaire masculine qui passe par des relations homosociales où les tensions et sous-textes homosexuels se multiplient et doivent être réprimés ou invalidés continuellement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce projet de mémoire s’intéresse à la mise en relation du cognitive enhancement observé dans les universités occidentales contemporaines et de la société dans laquelle il s’insère. Nous avons voulu détacher la perspective du phénomène des analyses principalement orientées vers les programmes de sciences de la santé et de droit, ainsi que de l’approche quantitative, clinique, athéorique et somme toute moralisatrice qui lui est usuellement accordée afin d’explorer la nature des pratiques d’usages de psychotropes des étudiants universitaires en sciences humaines et sociales en vue d’augmenter leurs performances cognitives, d’approfondir la compréhension des raisonnements sous-jacents à ces pratiques, puis de resituer ces derniers dans leur contexte élargi. Nous avons interrogé treize étudiants de divers programmes de sciences humaines et sociales consommant, ou ayant déjà consommé, des psychotropes en vue de rehausser leurs performances cognitives en contexte académique. Les résultats suggèrent un écart dans la nature de leurs pratiques d’usage par rapport aux domaines d’études habituellement préconisés en ce sens qu’une grande variété de substances sont considérées comme supports cognitifs ; ensuite, que le recours aux psychotropes dans une visée de performance cognitive s’éloigne des logiques de la nécessité médicale et de la toxicomanie. En premier lieu, le cognitive enhancement est associé par plusieurs à une souffrance psychique liée à une perte de repères existentiels et les étudiants y ont recours dans une optique de compréhension de soi et de quête de repères dans un monde qu’ils ressentent comme instable. En second lieu, la consommation de psychotropes s’apparente davantage à un désir de satisfaire aux conditions incertaines et menaçantes des demandes externes de performance telles qu’ils les appréhendent qu’à un souci de soigner quelque condition médicale de la cognition. Nous pensons que le rapport au psychotrope qu’entretiennent les étudiants universitaires en sciences humaines et sociales s’insère en toute cohérence dans les discours et injonctions contemporaines de performance, en ce sens que leur souffrance psychique individuelle expose les limites de ce que la société attend d’eux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pour respecter les droits d’auteur, la version électronique de ce mémoire a été dépouillée de certains documents visuels. La version intégrale du mémoire a été déposée à la Division de la gestion des documents et des archives.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les polygones à coin de glace sont très répandus dans la zone du pergélisol continu. Lorsque le ruissellement d’eau de fonte nivale s’infiltre de façon concentrée dans une cavité, il peut initier le processus de thermo-érosion du pergélisol (notamment des coins de glace) pouvant mener à la formation de ravins. Dans la vallée de Qalikturvik sur l’Ile Bylot (NU, Canada), le développement de ravins de thermo-érosion dans un milieu de polygones à coins de glace entraîne comme impact : i. la réorganisation des réseaux de drainage impliquant un assèchement des milieux humides en marge des chenaux d’érosion, ii. des variations dans le régime thermique et de l’humidité de proche-surface et iii. la prise en charge et le déplacement des sédiments vers l’extérieur du bassin-versant. L’objectif de cette thèse vise à approfondir les connaissances géomorphologiques propres au ravinement par thermo-érosion, d’examiner, caractériser et quantifier les impacts du ravinement (tel que sus-mentionné en i. ii. iii.) et le rôle de celui-ci dans une optique d’évolution du paysage périglaciaire à l’échelle temporelle de l’année à la décennie. Les ravins sont dynamiques : un ravin en particulier déclenché en 1999 et étudié depuis s’érodait à une vitesse de 38 à 50 m/a durant sa première décennie d’existence, pour atteindre une longueur totale de ~750 m et une surface érodée de ~25 000 m² en 2009. Des puits sont localisés près des zones de ravinement actives ; des levées alluviale, mares et polygones effondrés dans les zones stabilisées post-perturbation. Sur la terrasse de polygones recouvrant le plancher de la vallée au site à l’étude, 35 ravins furent identifiés et 1401 polygones furent perturbés avec 200 000 m³ de sols transportés. Une amélioration du drainage, une dégradation de la capacité de rétention de l’humidité, une transition d’un écoulement de ruissellement vers un écoulement canalisé caractérise les aires ravinées et leurs environs. Les polygones intacts sont homogènes d’un à l’autre et dans leurs centres ; les polygones perturbés ont une réponse hétérogène (flore, humidité et régime thermique). Les milieux érodés hétérogènes succèdent aux milieux homogènes et deviennent le nouvel état d’équilibre pour plusieurs décennies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pouvoir déterminer la provenance des sons est fondamental pour bien interagir avec notre environnement. La localisation auditive est une faculté importante et complexe du système auditif humain. Le cerveau doit décoder le signal acoustique pour en extraire les indices qui lui permettent de localiser une source sonore. Ces indices de localisation auditive dépendent en partie de propriétés morphologiques et environnementales qui ne peuvent être anticipées par l'encodage génétique. Le traitement de ces indices doit donc être ajusté par l'expérience durant la période de développement. À l’âge adulte, la plasticité en localisation auditive existe encore. Cette plasticité a été étudiée au niveau comportemental, mais on ne connaît que très peu ses corrélats et mécanismes neuronaux. La présente recherche avait pour objectif d'examiner cette plasticité, ainsi que les mécanismes d'encodage des indices de localisation auditive, tant sur le plan comportemental, qu'à travers les corrélats neuronaux du comportement observé. Dans les deux premières études, nous avons imposé un décalage perceptif de l’espace auditif horizontal à l’aide de bouchons d’oreille numériques. Nous avons montré que de jeunes adultes peuvent rapidement s’adapter à un décalage perceptif important. Au moyen de l’IRM fonctionnelle haute résolution, nous avons observé des changements de l’activité corticale auditive accompagnant cette adaptation, en termes de latéralisation hémisphérique. Nous avons également pu confirmer l’hypothèse de codage par hémichamp comme représentation de l'espace auditif horizontal. Dans une troisième étude, nous avons modifié l’indice auditif le plus important pour la perception de l’espace vertical à l’aide de moulages en silicone. Nous avons montré que l’adaptation à cette modification n’était suivie d’aucun effet consécutif au retrait des moulages, même lors de la toute première présentation d’un stimulus sonore. Ce résultat concorde avec l’hypothèse d’un mécanisme dit de many-to-one mapping, à travers lequel plusieurs profils spectraux peuvent être associés à une même position spatiale. Dans une quatrième étude, au moyen de l’IRM fonctionnelle et en tirant profit de l’adaptation aux moulages de silicone, nous avons révélé l’encodage de l’élévation sonore dans le cortex auditif humain.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

1. Un premier apport de notre travail consiste à proposer un cadre théorique, analytique et conceptuel original, permettant d'approcher la notion de qualité des publications en SHS (sciences humaines et sociales) et en sciences de la communication de façon à la fois holistique et dynamique, en tant qu'elle fait l'objet de descriptions et de jugements multiples, émis par une diversité de parties prenantes, au sein et en dehors des milieux académiques. Pour ce faire, il s'agira de considérer la qualité dans ses différentes dimensions constitutives (approche holistique) tout en l'inscrivant dans le cadre d'évolutions tendancielles en matière de publication scientifique (approche dynamique) et en tenant compte de la qualité telle qu'elle est prescrite, souhaitée et mise en oeuvre par les différentes parties prenantes (chercheurs et entités prescriptrices, aux niveaux politique et managérial). En croisant de façon systématique ces trois approches - approche multidimensionnelle, rapport aux prescrits et aux souhaits, et étude des évolutions tendancielles -, il s’avérera possible d'évaluer l'incidence des différentes tendances en matière de publication scientifique – i.e. tendances à la massification, à l'internationalisation, à l' « exotérisation » (i.e. à l'ouverture vers le monde extérieur, au-delà des pairs), à la « gestionnarisation » (i.e. à l'usage des publications dans la gestion dela recherche et des chercheurs, en particulier en situation d'évaluation), à la commercialisation et à l' « enlignement » (i.e. à la mise en ligne, sur Internet) – ainsi que des prescriptions managériales et politiques qui les initient, les stimulent ou les prolongent à des degrés divers, sur la qualité de l'activité même de publier, et sur celle des différents types génériques et spécifiques d'objets publiés.2. En appliquant cette triple approche aux SHS et, plus particulièrement, au cas des sciences de la communication, nous montrerons comment la plupart des évolutions tendancielles qui sont discutées ici ainsi que des prescrits politiques et managériaux qui y affèrent aboutissent à valoriser principalement, en situation d'évaluation de la recherche et des chercheurs, la publication d'un grand nombre d'articles dans des revues savantes internationales de premier plan, destinés avant tout aux pairs, et à dévaloriser les publications, ouvertes à des publics plus locaux, rédigées en langue vernaculaire, ou qui se consacreraient à la résolution de problèmes de société. En particulier, à la faveur de la tendance à la « gestionnarisation » des publications, l'article de revue savante internationale de premier plan, ainsi que les citations qui lui sont faites par les seuls pairs, sont posés en indicateurs de performance de tout premier plan, « fixant » ainsi les pratiques de recherche et de publication des chercheurs. Cette « fixion » sera d'autant plus marquée que les indicateurs bibliométriques, à l'échelon national, seront intégrés à des processus de financement public de la recherche fondés sur les performances, et que, à l'échelon international, les indicateurs joueront un rôle prépondérant dans l'établissement des rankings des universités ainsi que des benchmarks des systèmes nationaux et régionaux de recherche. Pour autant, des prescriptions politiques sont également édictées, principalement au niveau européen, dans l'optique de la mise en oeuvre, au sein de l'Espace européen de la recherche et, dans une moindre mesure, de l'Espace européen de l'enseignement supérieur, d'une économie de la connaissance compétitive à l'échelon global et, plus particulièrement, d'un « mode 2 » de production des connaissances, qui insistent sur l'importance de davantage valoriser les résultats de la recherche, interdisciplinaire et coopérative, auprès de parties prenantes extra-académiques. En résulte une relation paradoxale entre la tendance à l'exotérisation de la recherche et des publications, et les prescrits de gestionnarisation des publications, ainsi qu'entre les prescriptions qui les sous-tendent respectivement.3. Or l'enquête que nous avons menée auprès des membres de trois sociétés savantes internationales en sciences de la communication montre combien les chercheurs de cette discipline ont désormais bien intégré les critères de qualité promus par les prescrits politiques et managériaux soutenant l'instauration d'une nouvelle « culture de la publication », à la croisée des tendances à la massification, à l'internationalisation et à la gestionnarisation des publications. Pour autant, des entretiens approfondis menés auprès de chercheurs en sciences de la communication actifs en Belgique francophone et néerlandophone n'en révèlent pas moins que ces derniers développent une attitude foncièrement ambivalente envers la culture du « publish or perish » et à l'égard de prescriptions qui sur-valorisent les revues savantes internationales de premier plan, en situation d'évaluation de la recherche et des chercheurs. D'une part, en effet, les chercheurs avec qui nous nous sommes entretenus estiment que la nouvelle culture de la publication joue un rôle bénéfique dans la professionnalisation et dans le développement d'une culture véritablement scientifique dans les sciences de la communication. Partant, la plupart d'entre eux développent des stratégies visant à aligner leurs pratiques de publication sur les prescrits. D'autre part, plusieurs répondants n'en regrettent pas moins le caractère réducteur de la survalorisation des revues savantes internationales de premier plan dans l'évaluation, et souhaitent qu'une plus grande diversité de types de publication soit prise en compte par les évaluateurs. Afin de concilier « qualité prescrite » et « qualité souhaitée » dans la qualité de leur activité effective de publication et dans celle des objets effectivement publiés (« qualité réelle »), il arrive dès lors à ces chercheurs de « bricoler » avec les prescriptions. Par ailleurs, la plupart des répondants, davantage cependant en FédérationWallonie-Bruxelles qu'en Flandre, où le financement public de la recherche est d'ores et déjà fondé en partie sur des indicateurs bibliométriques et revue-métriques, regrettent le manque d'explicite dans la formulation des prescriptions – ces dernières prenant régulièrement la forme de « scripts » plus indirects et/ou implicites, plutôt que de normes et de règles stricto sensu –, ainsi que l'absence de seuil quantitatif minimal à atteindre.4. Il nous semble par conséquent, dans une optique plus normative, que le dépôt systématique des différents types de publication produits par les chercheurs en SHS et en sciences de la communication sur des répertoires numériques institutionnels (Open Access Green) serait de nature à (contribuer à) résoudre le paradoxe des prescriptions en matière de « qualité prescrite », ainsi que l'ambivalence des perceptions des chercheurs en matière de « qualité souhaitée ». En effet, le dépôt des publications sur des répertoires institutionnels ouvre des opportunités inédites de renouveler la conversation savante qui se structure autour des objets publiés, au sein de la communauté argumentative (Kommunikationsgemeinschaft) des pairs, par le biais notamment de la revue par les pairs ouverte et grâce à la possibilité de commenter ad libitum les publications disséminées en Open Access. mais également en rendant les résultats de la recherche aisément accessibles et ré-utilisables par des parties prenantes extra-académiques. Les opportunités liées au dépôt des publications sur des répertoires Open Access (Green), en termes de qualité tant épistémique que pragmatiquede ces dernières, seront d'autant plus fécondes que le dépôt des travaux sur les répertoires institutionnels s'articulera à l'usage, par le chercheur, des instruments idoines, génériques ou dédiés, du Web participatif (Wikis, blogues, micro-blogues, réseaux sociaux, outils de partage de signets et de listes bibliographiques). Par ailleurs, les dépôts numériques fonctionnent désormais en tant qu'« outils de transparence », susceptibles de donner davantage de visibilité à des productions de recherche et des types de publication diversifiés. En situation d'évaluation de la recherche et des chercheurs, le recours aux dépôts institutionnels - pour autant qu'un mandat prescrive le dépôt de tous les travaux produits par les chercheurs de l'institution – permettrait aux évaluateurs de fonder leur jugement sur une gamme plus large et plus représentative de types de publication et de formes de communication en SHS et en sciences de la communication. De plus, grâce à la dissémination en Open Access, en conjonction avec l'usage d'une diversité d'outils du Web participatif, il devient mieux possible de soumettre les différents types de publication archivés et publiés en libre accès à des indicateurs de performance eux-mêmes diversifiés – bibliométriques, mais également « webométriques » et « altmétriques » -, fondés sur les articles plutôt que sur les revues et mieux adaptés à la diversité de leurs impacts, tant au sein qu'en dehors du cercle des pairs.5. Partant, l'Open Access (Green) nous apparaît in fine comme étant doté d'un potentiel important, en matière d'intégration de la recherche et des chercheurs en SHS et en sciences de la communication à la mise en place – au-delà d'une économie de la connaissance - d'une véritable société de la connaissance, ainsi qu'aux processus d'innovation techno-industrielle, sociale et intellectuelle qui la sous-tendent.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

International audience

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La spectrométrie de masse mesure la masse des ions selon leur rapport masse sur charge. Cette technique est employée dans plusieurs domaines et peut analyser des mélanges complexes. L’imagerie par spectrométrie de masse (Imaging Mass Spectrometry en anglais, IMS), une branche de la spectrométrie de masse, permet l’analyse des ions sur une surface, tout en conservant l’organisation spatiale des ions détectés. Jusqu’à présent, les échantillons les plus étudiés en IMS sont des sections tissulaires végétales ou animales. Parmi les molécules couramment analysées par l’IMS, les lipides ont suscité beaucoup d'intérêt. Les lipides sont impliqués dans les maladies et le fonctionnement normal des cellules; ils forment la membrane cellulaire et ont plusieurs rôles, comme celui de réguler des événements cellulaires. Considérant l’implication des lipides dans la biologie et la capacité du MALDI IMS à les analyser, nous avons développé des stratégies analytiques pour la manipulation des échantillons et l’analyse de larges ensembles de données lipidiques. La dégradation des lipides est très importante dans l’industrie alimentaire. De la même façon, les lipides des sections tissulaires risquent de se dégrader. Leurs produits de dégradation peuvent donc introduire des artefacts dans l’analyse IMS ainsi que la perte d’espèces lipidiques pouvant nuire à la précision des mesures d’abondance. Puisque les lipides oxydés sont aussi des médiateurs importants dans le développement de plusieurs maladies, leur réelle préservation devient donc critique. Dans les études multi-institutionnelles où les échantillons sont souvent transportés d’un emplacement à l’autre, des protocoles adaptés et validés, et des mesures de dégradation sont nécessaires. Nos principaux résultats sont les suivants : un accroissement en fonction du temps des phospholipides oxydés et des lysophospholipides dans des conditions ambiantes, une diminution de la présence des lipides ayant des acides gras insaturés et un effet inhibitoire sur ses phénomènes de la conservation des sections au froid sous N2. A température et atmosphère ambiantes, les phospholipides sont oxydés sur une échelle de temps typique d’une préparation IMS normale (~30 minutes). Les phospholipides sont aussi décomposés en lysophospholipides sur une échelle de temps de plusieurs jours. La validation d’une méthode de manipulation d’échantillon est d’autant plus importante lorsqu’il s’agit d’analyser un plus grand nombre d’échantillons. L’athérosclérose est une maladie cardiovasculaire induite par l’accumulation de matériel cellulaire sur la paroi artérielle. Puisque l’athérosclérose est un phénomène en trois dimension (3D), l'IMS 3D en série devient donc utile, d'une part, car elle a la capacité à localiser les molécules sur la longueur totale d’une plaque athéromateuse et, d'autre part, car elle peut identifier des mécanismes moléculaires du développement ou de la rupture des plaques. l'IMS 3D en série fait face à certains défis spécifiques, dont beaucoup se rapportent simplement à la reconstruction en 3D et à l’interprétation de la reconstruction moléculaire en temps réel. En tenant compte de ces objectifs et en utilisant l’IMS des lipides pour l’étude des plaques d’athérosclérose d’une carotide humaine et d’un modèle murin d’athérosclérose, nous avons élaboré des méthodes «open-source» pour la reconstruction des données de l’IMS en 3D. Notre méthodologie fournit un moyen d’obtenir des visualisations de haute qualité et démontre une stratégie pour l’interprétation rapide des données de l’IMS 3D par la segmentation multivariée. L’analyse d’aortes d’un modèle murin a été le point de départ pour le développement des méthodes car ce sont des échantillons mieux contrôlés. En corrélant les données acquises en mode d’ionisation positive et négative, l’IMS en 3D a permis de démontrer une accumulation des phospholipides dans les sinus aortiques. De plus, l’IMS par AgLDI a mis en évidence une localisation différentielle des acides gras libres, du cholestérol, des esters du cholestérol et des triglycérides. La segmentation multivariée des signaux lipidiques suite à l’analyse par IMS d’une carotide humaine démontre une histologie moléculaire corrélée avec le degré de sténose de l’artère. Ces recherches aident à mieux comprendre la complexité biologique de l’athérosclérose et peuvent possiblement prédire le développement de certains cas cliniques. La métastase au foie du cancer colorectal (Colorectal cancer liver metastasis en anglais, CRCLM) est la maladie métastatique du cancer colorectal primaire, un des cancers le plus fréquent au monde. L’évaluation et le pronostic des tumeurs CRCLM sont effectués avec l’histopathologie avec une marge d’erreur. Nous avons utilisé l’IMS des lipides pour identifier les compartiments histologiques du CRCLM et extraire leurs signatures lipidiques. En exploitant ces signatures moléculaires, nous avons pu déterminer un score histopathologique quantitatif et objectif et qui corrèle avec le pronostic. De plus, par la dissection des signatures lipidiques, nous avons identifié des espèces lipidiques individuelles qui sont discriminants des différentes histologies du CRCLM et qui peuvent potentiellement être utilisées comme des biomarqueurs pour la détermination de la réponse à la thérapie. Plus spécifiquement, nous avons trouvé une série de plasmalogènes et sphingolipides qui permettent de distinguer deux différents types de nécrose (infarct-like necrosis et usual necrosis en anglais, ILN et UN, respectivement). L’ILN est associé avec la réponse aux traitements chimiothérapiques, alors que l’UN est associé au fonctionnement normal de la tumeur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les maladies cardiovasculaires sont la première cause de mortalité dans le monde et les anévrismes de l’aorte abdominale (AAAs) font partie de ce lot déplorable. Un anévrisme est la dilatation d’une artère pouvant conduire à la mort. Une rupture d’AAA s’avère fatale près de 80% du temps. Un moyen de traiter les AAAs est l’insertion d’une endoprothèse (SG) dans l’aorte, communément appelée la réparation endovasculaire (EVAR), afin de réduire la pression exercée par le flux sanguin sur la paroi. L’efficacité de ce traitement est compromise par la survenue d’endofuites (flux sanguins entre la prothèse et le sac anévrismal) pouvant conduire à la rupture de l’anévrisme. Ces flux sanguins peuvent survenir à n’importe quel moment après le traitement EVAR. Une surveillance par tomodensitométrie (CT-scan) annuelle est donc requise, augmentant ainsi le coût du suivi post-EVAR et exposant le patient à la radiation ionisante et aux complications des contrastes iodés. L’endotension est le concept de dilatation de l’anévrisme sans la présence d’une endofuite apparente au CT-scan. Après le traitement EVAR, le sang dans le sac anévrismal coagule pour former un thrombus frais, qui deviendra progressivement un thrombus plus fibreux et plus organisé, donnant lieu à un rétrécissement de l’anévrisme. Il y a très peu de données dans la littérature pour étudier ce processus temporel et la relation entre le thrombus frais et l’endotension. L’étalon d’or du suivi post-EVAR, le CT-scan, ne peut pas détecter la présence de thrombus frais. Il y a donc un besoin d’investir dans une technique sécuritaire et moins coûteuse pour le suivi d’AAAs après EVAR. Une méthode récente, l’élastographie dynamique, mesure l’élasticité des tissus en temps réel. Le principe de cette technique repose sur la génération d’ondes de cisaillement et l’étude de leur propagation afin de remonter aux propriétés mécaniques du milieu étudié. Cette thèse vise l’application de l’élastographie dynamique pour la détection des endofuites ainsi que de la caractérisation mécanique des tissus du sac anévrismal après le traitement EVAR. Ce projet dévoile le potentiel de l’élastographie afin de réduire les dangers de la radiation, de l’utilisation d’agent de contraste ainsi que des coûts du post-EVAR des AAAs. L’élastographie dynamique utilisant le « Shear Wave Imaging » (SWI) est prometteuse. Cette modalité pourrait complémenter l’échographie-Doppler (DUS) déjà utilisée pour le suivi d’examen post-EVAR. Le SWI a le potentiel de fournir des informations sur l’organisation fibreuse du thrombus ainsi que sur la détection d’endofuites. Tout d’abord, le premier objectif de cette thèse consistait à tester le SWI sur des AAAs dans des modèles canins pour la détection d’endofuites et la caractérisation du thrombus. Des SGs furent implantées dans un groupe de 18 chiens avec un anévrisme créé au moyen de la veine jugulaire. 4 anévrismes avaient une endofuite de type I, 13 avaient une endofuite de type II et un anévrisme n’avait pas d’endofuite. Des examens échographiques, DUS et SWI ont été réalisés à l’implantation, puis 1 semaine, 1 mois, 3 mois et 6 mois après le traitement EVAR. Une angiographie, un CT-scan et des coupes macroscopiques ont été produits au sacrifice. Les régions d’endofuites, de thrombus frais et de thrombus organisé furent identifiées et segmentées. Les valeurs de rigidité données par le SWI des différentes régions furent comparées. Celles-ci furent différentes de façon significative (P < 0.001). Également, le SWI a pu détecter la présence d’endofuites où le CT-scan (1) et le DUS (3) ont échoué. Dans la continuité de ces travaux, le deuxième objectif de ce projet fut de caractériser l’évolution du thrombus dans le temps, de même que l’évolution des endofuites après embolisation dans des modèles canins. Dix-huit anévrismes furent créés dans les artères iliaques de neuf modèles canins, suivis d’une endofuite de type I après EVAR. Deux gels embolisants (Chitosan (Chi) ou Chitosan-Sodium-Tetradecyl-Sulfate (Chi-STS)) furent injectés dans le sac anévrismal pour promouvoir la guérison. Des examens échographiques, DUS et SWI ont été effectués à l’implantation et après 1 semaine, 1 mois, 3 mois et 6 mois. Une angiographie, un CT-scan et un examen histologique ont été réalisés au sacrifice afin d’évaluer la présence, le type et la grosseur de l’endofuite. Les valeurs du module d’élasticité des régions d’intérêts ont été identifiées et segmentées sur les données pathologiques. Les régions d’endofuites et de thrombus frais furent différentes de façon significative comparativement aux autres régions (P < 0.001). Les valeurs d’élasticité du thrombus frais à 1 semaine et à 3 mois indiquent que le SWI peut évaluer la maturation du thrombus, de même que caractériser l’évolution et la dégradation des gels embolisants dans le temps. Le SWI a pu détecter des endofuites où le DUS a échoué (2) et, contrairement au CT-scan, détecter la présence de thrombus frais. Finalement, la dernière étape du projet doctoral consistait à appliquer le SWI dans une phase clinique, avec des patients humains ayant déjà un AAA, pour la détection d’endofuite et la caractérisation de l’élasticité des tissus. 25 patients furent sélectionnés pour participer à l’étude. Une comparaison d’imagerie a été produite entre le SWI, le CT-scan et le DUS. Les valeurs de rigidité données par le SWI des différentes régions (endofuite, thrombus) furent identifiées et segmentées. Celles-ci étaient distinctes de façon significative (P < 0.001). Le SWI a détecté 5 endofuites sur 6 (sensibilité de 83.3%) et a eu 6 faux positifs (spécificité de 76%). Le SWI a pu détecter la présence d’endofuites où le CT-scan (2) ainsi que le DUS (2) ont échoué. Il n’y avait pas de différence statistique notable entre la rigidité du thrombus pour un AAA avec endofuite et un AAA sans endofuite. Aucune corrélation n’a pu être établie de façon significative entre les diamètres des AAAs ainsi que leurs variations et l’élasticité du thrombus. Le SWI a le potentiel de détecter les endofuites et caractériser le thrombus selon leurs propriétés mécaniques. Cette technique pourrait être combinée au suivi des AAAs post-EVAR, complémentant ainsi l’imagerie DUS et réduisant le coût et l’exposition à la radiation ionisante et aux agents de contrastes néphrotoxiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce projet illustre cinq études, mettant l'emphase sur le développement d'une nouvelle approche diagnostique cardiovasculaire afin d'évaluer le niveau d’oxygène contenu dans le myocarde ainsi que sa fonction microvasculaire. En combinant une séquence de résonance magnétique cardiovasculaire (RMC) pouvant détecter le niveau d’oxygène (OS), des manœuvres respiratoires ainsi que des analyses de gaz artériels peuvent être utilisés comme procédure non invasive destinée à induire une réponse vasoactive afin d’évaluer la réserve d'oxygénation, une mesure clé de la fonction vasculaire. Le nombre de tests diagnostiques cardiaques prescrits ainsi que les interventions, sont en pleine expansion. L'imagerie et tests non invasifs sont souvent effectués avant l’utilisation de procédures invasives. L'imagerie cardiaque permet d’évaluer la présence ou absence de sténoses coronaires, un important facteur économique dans notre système de soins de santé. Les techniques d'imagerie non invasives fournissent de l’information précise afin d’identifier la présence et l’emplacement du déficit de perfusion chez les patients présentant des symptômes d'ischémie myocardique. Néanmoins, plusieurs techniques actuelles requièrent la nécessité de radiation, d’agents de contraste ou traceurs, sans oublier des protocoles de stress pharmacologiques ou physiques. L’imagerie RMC peut identifier une sténose coronaire significative sans radiation. De nouvelles tendances d’utilisation de RMC visent à développer des techniques diagnostiques qui ne requièrent aucun facteur de stress pharmacologiques ou d’agents de contraste. L'objectif principal de ce projet était de développer et tester une nouvelle technique diagnostique afin d’évaluer la fonction vasculaire coronarienne en utilisant l' OS-RMC, en combinaison avec des manœuvres respiratoires comme stimulus vasoactif. Ensuite, les objectifs, secondaires étaient d’utilisés l’OS-RMC pour évaluer l'oxygénation du myocarde et la réponse coronaire en présence de gaz artériels altérés. Suite aux manœuvres respiratoires la réponse vasculaire a été validée chez un modèle animal pour ensuite être utilisé chez deux volontaires sains et finalement dans une population de patients atteints de maladies cardiovasculaires. Chez le modèle animal, les manœuvres respiratoires ont pu induire un changement significatif, mesuré intrusivement par débit sanguin coronaire. Il a été démontré qu’en présence d'une sténose coronarienne hémodynamiquement significative, l’OS-RMC pouvait détecter un déficit en oxygène du myocarde. Chez l’homme sain, l'application de cette technique en comparaison avec l'adénosine (l’agent standard) pour induire une vasodilatation coronarienne et les manœuvres respiratoires ont pu induire une réponse plus significative en oxygénation dans un myocarde sain. Finalement, nous avons utilisé les manœuvres respiratoires parmi un groupe de patients atteint de maladies coronariennes. Leurs myocardes étant altérées par une sténose coronaire, en conséquence modifiant ainsi leur réponse en oxygénation. Par la suite nous avons évalué les effets des gaz artériels sanguins sur l'oxygénation du myocarde. Ils démontrent que la réponse coronarienne est atténuée au cours de l’hyperoxie, suite à un stimuli d’apnée. Ce phénomène provoque une réduction globale du débit sanguin coronaire et un déficit d'oxygénation dans le modèle animal ayant une sténose lorsqu’un supplément en oxygène est donné. En conclusion, ce travail a permis d'améliorer notre compréhension des nouvelles techniques diagnostiques en imagerie cardiovasculaire. Par ailleurs, nous avons démontré que la combinaison de manœuvres respiratoires et l’imagerie OS-RMC peut fournir une méthode non-invasive et rentable pour évaluer la fonction vasculaire coronarienne régionale et globale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’utilisation de méthodes d’investigation cérébrale avancées a permis de mettre en évidence la présence d’altérations à court et à long terme à la suite d’une commotion cérébrale. Plus spécifiquement, des altérations affectant l’intégrité de la matière blanche et le métabolisme cellulaire ont récemment été révélées par l’utilisation de l’imagerie du tenseur de diffusion (DTI) et la spectroscopie par résonance magnétique (SRM), respectivement. Ces atteintes cérébrales ont été observées chez des athlètes masculins quelques jours après la blessure à la tête et demeuraient détectables lorsque les athlètes étaient à nouveau évalués six mois post-commotion. En revanche, aucune étude n’a évalué les effets neurométaboliques et microstructuraux dans la phase aigüe et chronique d’une commotion cérébrale chez les athlètes féminines, malgré le fait qu’elles présentent une susceptibilité accrue de subir ce type de blessure, ainsi qu’un nombre plus élevé de symptômes post-commotionnels et un temps de réhabilitation plus long. Ainsi, les études composant le présent ouvrage visent globalement à établir le profil d’atteintes microstructurales et neurométaboliques chez des athlètes féminines par l’utilisation du DTI et de la SRM. La première étude visait à évaluer les changements neurométaboliques au sein du corps calleux chez des joueurs et joueuses de hockey au cours d’une saison universitaire. Les athlètes ayant subi une commotion cérébrale pendant la saison ont été évalués 72 heures, 2 semaines et 2 mois après la blessure à la tête en plus des évaluations pré et post-saison. Les résultats démontrent une absence de différences entre les athlètes ayant subi une commotion cérébrale et les athlètes qui n’en ont pas subie. De plus, aucune différence entre les données pré et post-saison a été observée chez les athlètes masculins alors qu’une diminution du taux de N-acetyl aspartate (NAA) n’a été mise en évidence chez les athlètes féminines, suggérant ainsi un impact des coups d’intensité sous-clinique à la tête. La deuxième étude, qui utilisait le DTI et la SRM, a révélé des atteintes chez des athlètes féminines commotionnées asymptomatiques en moyenne 18 mois post-commotion. Plus spécifiquement, la SRM a révélé une diminution du taux de myo-inositol (mI) au sein de l’hippocampe et du cortex moteur primaire (M1) alors que le DTI a mis en évidence une augmentation de la diffusivité moyenne (DM) dans plusieurs faisceaux de matière blanche. De iii plus, une approche par région d’intérêt a mis en évidence une diminution de la fraction d’anisotropie (FA) dans la partie du corps calleux projetant vers l’aire motrice primaire. Le troisième article évaluait des athlètes ayant subi une commotion cérébrale dans les jours suivant la blessure à la tête (7-10 jours) ainsi que six mois post-commotion avec la SRM. Dans la phase aigüe, des altérations neuropsychologiques combinées à un nombre significativement plus élevé de symptômes post-commotionnels et dépressifs ont été trouvés chez les athlètes féminines commotionnées, qui se résorbaient en phase chronique. En revanche, aucune différence sur le plan neurométabolique n’a été mise en évidence entre les deux groupes dans la phase aigüe. Dans la phase chronique, les athlètes commotionnées démontraient des altérations neurométaboliques au sein du cortex préfrontal dorsolatéral (CPDL) et M1, marquées par une augmentation du taux de glutamate/glutamine (Glx). De plus, une diminution du taux de NAA entre les deux temps de mesure était présente chez les athlètes contrôles. Finalement, le quatrième article documentait les atteintes microstructurales au sein de la voie corticospinale et du corps calleux six mois suivant une commotion cérébrale. Les analyses n’ont démontré aucune différence au sein de la voie corticospinale alors que des différences ont été relevées par segmentation du corps calleux selon les projections des fibres calleuses. En effet, les athlètes commotionnées présentaient une diminution de la DM et de la diffusivité radiale (DR) au sein de la région projetant vers le cortex préfrontal, un volume moindre des fibres de matière blanche dans la région projetant vers l’aire prémotrice et l’aire motrice supplémentaire, ainsi qu’une diminution de la diffusivité axiale (DA) dans la région projetant vers l’aire pariétale et temporale. En somme, les études incluses dans le présent ouvrage ont permis d’approfondir les connaissances sur les effets métaboliques et microstructuraux des commotions cérébrales et démontrent des effets délétères persistants chez des athlètes féminines. Ces données vont de pair avec la littérature scientifique qui suggère que les commotions cérébrales n’entraînent pas seulement des symptômes temporaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La littérature suggère que le sommeil paradoxal joue un rôle dans l'intégration associative de la mémoire émotionnelle. De plus, les rêves en sommeil paradoxal, en particulier leur nature bizarre et émotionnelle, semblent refléter cette fonction associative et émotionnelle du sommeil paradoxal. La conséquence des cauchemars fréquents sur ce processus est inconnue, bien que le réveil provoqué par un cauchemar semble interférer avec les fonctions du sommeil paradoxal. Le premier objectif de cette thèse était de reproduire conceptuellement des recherches antérieures démontrant que le sommeil paradoxal permet un accès hyper-associatif à la mémoire. L'utilisation d'une sieste diurne nous a permis d'évaluer les effets du sommeil paradoxal, comparativement au sommeil lent et à l’éveil, sur la performance des participants à une tâche sémantique mesurant « associational breadth » (AB). Les résultats ont montré que seuls les sujets réveillés en sommeil paradoxal ont répondu avec des associations atypiques, ce qui suggère que le sommeil paradoxal est spécifique dans sa capacité à intégrer les traces de la mémoire émotionnelle (article 1). En outre, les rapports de rêve en sommeil paradoxal étaient plus bizarres que ceux en sommeil lent, et plus intenses émotionnellement ; ces attributs semblent refléter la nature associative et émotionnelle du sommeil paradoxal (article 2). Le deuxième objectif de la thèse était de préciser si et comment le traitement de la mémoire émotionnelle en sommeil paradoxal est altéré dans le Trouble de cauchemars fréquents (NM). En utilisant le même protocole, nos résultats ont montré que les participants NM avaient des résultats plus élevés avant une sieste, ce qui correspond aux observations antérieures voulant que les personnes souffrant de cauchemars soient plus créatives. Après le sommeil paradoxal, les deux groupes, NM et CTL, ont montré des changements similaires dans leur accès associatif, avec des résultats AB-négatif plus bas et AB-positif plus grands. Une semaine plus tard, seul les participants NM a maintenu ce changement dans leur réseau sémantique (article 3). Ces résultats suggèrent qu’au fil du temps, les cauchemars peuvent interférer avec l'intégration de la mémoire émotionnelle pendant le sommeil paradoxal. En ce qui concerne l'imagerie, les participants NM avaient plus de bizarrerie et plus d’émotion positive, mais pas négative, dans leurs rêveries (article 4). Ces attributs intensifiés suggèrent à nouveau que les participants NM sont plus imaginatifs et créatifs à l’éveil. Dans l'ensemble, les résultats confirment le rôle du sommeil paradoxal dans l'intégration associative de la mémoire émotionnelle. Cependant, nos résultats concernant le Trouble de cauchemars ne sont pas entièrement en accord avec les théories suggérant que les cauchemars sont dysfonctionnels. Le groupe NM a montré plus d’associativité émotionnelle, de même que plus d'imagerie positive et bizarre à l’éveil. Nous proposons donc une nouvelle théorie de sensibilité environnementale associée au Trouble de cauchemar, suggérant qu'une sensibilité accrue à une gamme de contextes environnementaux sous-tendrait les symptômes uniques et la richesse imaginative observés chez les personnes souffrant de cauchemars fréquents. Bien que davantage de recherches doivent être faites, il est possible que ces personnes puissent bénéficier e milieux favorables, et qu’elles puissent avoir un avantage adaptatif à l'égard de l'expression créative, ce qui est particulièrement pertinent lorsque l'on considère leur pronostic et les différents types de traitements.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lung cancer is the most frequently fatal cancer, with poor survival once the disease is advanced. Annual low-dose computed tomography has shown a survival benefit in screening individuals at high risk for lung cancer. Based on the available evidence, the European Society of Radiology and the European Respiratory Society recommend lung cancer screening in comprehensive, quality-assured, longitudinal programmes within a clinical trial or in routine clinical practice at certified multidisciplinary medical centres. Minimum requirements include: standardised operating procedures for low-dose image acquisition, computer-assisted nodule evaluation, and positive screening results and their management; inclusion/exclusion criteria; expectation management; and smoking cessation programmes. Further refinements are recommended to increase quality, outcome and cost-effectiveness of lung cancer screening: inclusion of risk models, reduction of effective radiation dose, computer-assisted volumetric measurements and assessment of comorbidities (chronic obstructive pulmonary disease and vascular calcification). All these requirements should be adjusted to the regional infrastructure and healthcare system, in order to exactly define eligibility using a risk model, nodule management and a quality assurance plan. The establishment of a central registry, including a biobank and an image bank, and preferably on a European level, is strongly encouraged. Key points: • Lung cancer screening using low dose computed tomography reduces mortality. • Leading US medical societies recommend large scale screening for high-risk individuals. • There are no lung cancer screening recommendations or reimbursed screening programmes in Europe as of yet. • The European Society of Radiology and the European Respiratory Society recommend lung cancer screening within a clinical trial or in routine clinical practice at certified multidisciplinary medical centres. • High risk, eligible individuals should be enrolled in comprehensive, quality-controlled longitudinal programmes.