378 resultados para Lipoprotéines de haute densité
Resumo:
Rapport de recherche
Resumo:
L’exercice d’allocation de ressources en santé, relevant du Ministère de la santé, se voit fortement influencé autant par les besoins variés de la population que par les exigences des intervenants en santé. Quel rôle ces différents intérêts peuvent-ils jouer dans l’intégration de nouvelles technologies dans la distribution des soins de santé ? La pharmacogénomique, branche émergente de la pharmacologie intégrant les données issues du projet génome humain au processus de développement du médicament, est perçue comme une technologie qui permettrait de personnaliser la médecine. Son intégration aux processus de développement ou de prescription de médicaments promet de minimiser l’apparition d’effets secondaires néfastes découlant de la prise de médicaments. Serait-il alors judicieux pour le gouvernement du Québec, considérant la conjoncture actuelle d’allocation de ressources, d’investir dans la pharmacogénomique en tant que nouvel outil de développement du médicament ou nouveau mode pronostic de médication pour sa population ? Nous aborderons cette question à l’aide de critères de sélection dictés par Caulfield et ses collaborateurs (2001)[1] pour évaluer la pertinence de l’investissement public dans la mise sur pied d’un test génétique, soit l’acceptabilité, l’utilité, la non-malfaisance et la présence d’un bénéfice clair – à coût raisonnable – pour la population. La génomique avoisinant la génétique, ces facteurs s’avèrent applicables dans notre discussion.
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
La caractérisation de matériaux par spectroscopie optique d’émission d’un plasma induit par laser (LIPS) suscite un intérêt qui ne va que s’amplifiant, et dont les applications se multiplient. L’objectif de ce mémoire est de vérifier l’influence du choix des raies spectrales sur certaines mesures du plasma, soit la densité électronique et la température d’excitation des atomes neutres et ionisés une fois, ainsi que la température d’ionisation. Nos mesures sont intégrées spatialement et résolues temporellement, ce qui est typique des conditions opératoires du LIPS, et nous avons utilisé pour nos travaux des cibles binaires d’aluminium contenant des éléments à l’état de trace (Al-Fe et Al-Mg). Premièrement, nous avons mesuré la densité électronique à l’aide de l’élargissement Stark de raies de plusieurs espèces (Al II, Fe II, Mg II, Fe I, Mg I, Halpha). Nous avons observé que les densités absolues avaient un comportement temporel différent en fonction de l’espèce. Les raies ioniques donnent des densités électroniques systématiquement plus élevées (jusqu’à 50 % à 200 ns après l’allumage du plasma), et décroissent plus rapidement que les densités issues des raies neutres. Par ailleurs, les densités obtenues par les éléments traces Fe et Mg sont moindres que les densités obtenues par l’observation de la raie communément utilisée Al II à 281,618 nm. Nous avons parallèlement étudié la densité électronique déterminée à l’aide de la raie de l’hydrogène Halpha, et la densité électronique ainsi obtenue a un comportement temporel similaire à celle obtenue par la raie Al II à 281,618 nm. Les deux espèces partagent probablement la même distribution spatiale à l’intérieur du plasma. Finalement, nous avons mesuré la température d’excitation du fer (neutre et ionisé, à l’état de trace dans nos cibles), ainsi que la température d’ionisation, à l’aide de diagrammes de Boltzmann et de Saha-Boltzmann, respectivement. À l’instar de travaux antérieurs (Barthélémy et al., 2005), il nous est apparu que les différentes températures convergeaient vers une température unique (considérant nos incertitudes) après 2-3 microsecondes. Les différentes températures mesurées de 0 à 2 microsecondes ne se recoupent pas, ce qui pourrait s’expliquer soit par un écart à l’équilibre thermodynamique local, soit en considérant un plasma inhomogène où la distribution des éléments dans la plume n’est pas similaire d’un élément à l’autre, les espèces énergétiques se retrouvant au cœur du plasma, plus chaud, alors que les espèces de moindre énergie se retrouvant principalement en périphérie.
Resumo:
L'entraînement par intervalles à haute intensité est plus efficace que l'entraînement continu d’intensité modérée pour améliorer la consommation maximale d’oxygène (VO2max) et le profil métabolique des patients coronariens. Cependant, il n’y a pas de publications pour appuyer la prescription d’un type d’exercice intermittent (HIIE) spécifique dans cette population. Nous avons donc comparé les réponses aiguës cardio-pulmonaires de quatre sessions différentes d’exercice intermittent dans le but d’identifier l’exercice optimal chez les patients coronariens. De manière randomisée, les sujets participaient aux sessions d’HIIE, toutes avec des phases d’exercice à 100% de la puissance maximale aérobie (PMA), mais qui variaient selon la durée des phases d’exercice et de récupération (15s ou 1 min) et la nature de la récupération (0% de la PMA ou 50% de la PMA). Chaque session était réalisée sous forme de temps limite et l’exercice était interrompu après 35 minutes. En considérant l’effort perçu, le confort du patient et le temps passé au-dessus de 80% de VO2max, nous avons trouvé que l’exercice optimal consistait à alterner des courtes phases d’exercice de 15s à 100% de la PMA avec des phases de 15s de récupération passive. Ensuite, nous avons comparé les réponses physiologiques de l’HIIE optimisé avec un exercice continu d’intensité modérée (MICE) iso-calorique chez des patients coronariens. En considérant les réponses physiologiques, l’aspect sécuritaire (aucune élévation de Troponin T) et l’effort perçu, le protocole HIIE est apparu mieux toléré et plus efficace chez ces coronariens. Finalement, une simple session d’HIIE n’induit pas d’effets délétères sur la paroi vasculaire, comme démontré avec l’analyse des microparticules endothéliales. En conclusion, l’exercice intermittent à haute intensité est un mode d'entraînement prometteur pour les patients coronariens stables qui devrait faire l’objet d’autres études expérimentales en particulier pour les patients coronariens ischémiques.
Resumo:
Affiche de projet terminal, baccalauréat en Urbanisme. Institut d'urbanisme, Université de Montréal.
Resumo:
Affiche de projet terminal, baccalauréat en Urbanisme. Institut d'urbanisme, Université de Montréal.
Resumo:
Les colonnes de plasma entretenues par un champ électrique (continu ou alternatif) à haute pression (p > 10 Torr) sont affectées par les phénomènes de contraction (réduction de la section radiale de la décharge) et de filamentation (fragmentation de la section de plasma en plusieurs filaments). La compréhension de ces phénomènes ainsi que le développement d’une méthode pouvant les supprimer demeurent une étape essentielle pour l’optimisation de certains procédés plasma. Dans cette optique, un premier objectif de notre travail était de déterminer les mécanismes à l’origine de la contraction et de la filamentation dans les décharges créées dans des gaz rares. Ainsi, nous avons montré que dans les plasmas micro-ondes contractés la cinétique de la décharge est contrôlée par les ions moléculaires et que la contraction est liée à l’influence du gradient de la température du gaz sur la concentration de ces ions. De plus, nous avons mis en évidence que la filamentation apparaît lorsque l’inhomogénéité radiale du champ électrique devient importante. Dans un second temps, nous avons développé une méthode de décontraction et de défilamentation de la décharge, qui consiste à ajouter à une décharge initiale de gaz rare des traces d’un autre gaz rare de plus faible potentiel d’ionisation. Dans le cas des plasmas décontractés, nous avons démontré que la cinétique de la décharge n’est plus contrôlée par les ions moléculaires, ce qui confirme bien l’importance de ces ions dans la description de la contraction. Pour terminer, nous avons étendu à la pression atmosphérique la technique d’absorption optique de mesure de densité des états métastables et résonnants à l’aide d’une lampe spectrale, ce qui n’avait été réalisé jusqu’ici que pour des pressions inférieures à 10 Torr. Ces états jouent un rôle essentiel dans l’ionisation des décharges contractées alors que dans les décharges décontractées leur désexcitation par les atomes du gaz adjuvant est l’étape fondamentale du processus de changement de cinétique menant à la décontraction.
Resumo:
Le mécanisme menant à des déformations structurales suivant le bombardement d'échantillons de a-Si d'un faisceau d'ions lourds et rapides est sujet de controverses. Nous nous sommes penchés sur l'hypothèse de la formation d'une zone liquide causée par la déposition d'énergie des ions incidents dans le contexte de la théorie du pic thermique. Des échantillons de silicium amorphe furent préparés dans le but d'observer les indices d'une transition de phase l-Si/a-Si suivant la déposition locale d'énergie sur le parcours d'un ion lourd énergétique dans le a-Si. Les échantillons furent implantés d'impuretés de Cu ou d'Ag avant d'être exposés à un faisceau d'ions Ag12+ de 70 MeV. L'utilisation de l'analyse GISAXS est projetée afin d'observer une concentration locale d'impuretés suivant leur ségrégation sur la trace de l'ion. Des masques d'implantation nanométriques d'oxide d'aluminium ont été fabriqués afin d'augmenter la sensibilité de l'analyse GISAXS et une méthode d'alignement de ces masques selon la direction du faisceau fut développée. Le bombardement d'échantillons au travers de ces masques a donné lieu à un réseau de sites d'impacts isolés presque équidistants.
Resumo:
Ce mémoire présente l’évaluation du remodelage osseux autour des composantes acétabulaires non cimentées press-fit d’une arthroplastie de resurfaçage (RH) et d’une prothèse totale de hanche (PTH) après un minimum de 21 mois d’implantation. Nous avons mesuré par l’absorptiométrie à rayons X en double énergie (DEXA) la densité minérale osseuse (DMO) supra acétabulaire chez 60 patients (44 RH, 16 PTH). Aucune différence significative de la moyenne des DMO au niveau de la zone globale et de la zone centrale de l’acétabulum n’a été trouvée entre la hanche opérée et la hanche controlatérale, dans les deux groupes de traitement. Cependant, la DMO des zones corticospongieuses médiale et latérale est plus élevée du côté opéré par rapport au côté non opéré avec la cupule en chrome cobalt de la RH; (p=0,014 et 0,031 respectivement). Alors que pour la PTH avec une cupule en titane, la différence de la DMO au niveau de ces zones n’est pas significative; (p=0,130 et 0,733). Ces données semblent démontrer qu’avec des cupules plus rigides, il y a transfert des contraintes de charges vers la périphérie corticale. C’est la première étude à évaluer le remodelage osseux péri acétabulaire avec un RH. Cela montre que la DMO est relativement préservée et que le transfert des contraintes vers la périphérie peut être favorable au maintien de la stabilité de l’implant primaire et aux éventuelles révisions de la cupule press-fit du RH.
Resumo:
L’optimisation de l’exercice par intervalles de haute intensité (EIHI) chez les patients insuffisants cardiaques (IC) n’a jamais été étudiée auparavant. Nous avons comparé les réponses cardio-pulmonaires aiguës lors de 4 différents EIHI dans le but de trouver le protocole optimisé chez les patients IC. Les patients IC étaient aléatoirement alloués à 4 sessions d’EIHI. Chaque phase d’exercice était à une intensité de 100% de la puissance aérobie maximale (PAM), mais de différentes durées (30s ou 90s) et de type de récupération (passive ou active). Chaque protocole d’EIHI durait un maximum de 30 minutes ou jusqu’à épuisement. Considérant le temps total d’exercice, l’adhérence, une perception d’effort moins élevée, le confort du patient ainsi que des temps similaires passés à un haut pourcentage du VO2pic, le mode avec intervalles courts (30s) et récupération passive s’est avéré être le protocole d’EIHI optimisé chez ces patients. Suite à cette étude, nous avons voulu comparer les réponses cardio-pulmonaires aiguës d’un exercice continu d’intensité modéré (ECIM) par rapport à celles de l’EIHI optimisé de dépense énergétique équivalente chez les patients IC. L’objectif de cette étude était de comparer les réponses cardio-pulmonaires, l’adhérence, la perception de l’effort, l’inflammation et les biomarqueurs cardiaques. Comparativement à l’ECIM, l’adhérence, l’efficience et la tolérance étaient plus élevées lors de l’EIHI optimisé chez les patients IC tout en produisant un stimulus physiologique important. L’EIHI n’a causé aucune arythmie significative ou d’effets délétères sur l’inflammation (CRP), le BNP et la nécrose myocardique (C-TnT) chez les patients IC. L’EIHI semble être un mode d’exercice prometteur et devrait être considéré lors de la réadaptation cardiaque chez les patients IC.
Resumo:
La présente recherche collaborative vise à étudier les pratiques de lecture à haute voix d’enseignantes expertes et leur influence sur le développement de l’habileté des élèves du préscolaire à faire des inférences. Plus précisément, nous décrivons les interventions, lors des lectures à haute voix, de quatre enseignantes expertes que nous avons formées pour travailler la compréhension inférentielle et les comparons à celles de deux enseignantes expertes non formées (objectif 1). Puis, nous examinons l’influence de leurs pratiques de lecture à haute voix sur le développement de l’habileté à faire des inférences de leurs élèves (n=92) (objectif 2). Enfin, nous nous intéressons, à titre exploratoire, au potentiel de la recherche collaborative comme voie de développement professionnel des enseignants (objectif 3). Afin d’atteindre nos objectifs, nous avons observé les enseignantes à quatre reprises, lors de lectures d’albums de littérature de jeunesse. Les données obtenues à partir de ces pratiques observées ont été complétées par celles issues des pratiques déclarées des enseignantes pour toute la durée de la recherche (neuf semaines). De plus, nous avons évalué l’habileté à réaliser des inférences des élèves de ces six enseignantes à deux reprises, au début et à la fin de la recherche. Finalement, les enseignantes ont rempli deux questionnaires écrits sur l’impact de cette recherche sur leurs pratiques, l’un à la fin de la recherche et l’autre deux ans après celle-ci. Nos résultats indiquent que si toutes les enseignantes travaillaient les inférences, il existe cependant des différences notables dans leur façon de mener ce travail. Trois des enseignantes formées (enseignantes 1, 2 et 3) ont majoritairement privilégié la co-élaboration du sens des épisodes implicites et se sont montrées très efficaces pour soutenir leurs élèves dans ce travail de construction du sens. L’autre enseignante formée (enseignante 4), en raison d’une appropriation difficile du contenu de la formation, n’est pas parvenue à offrir à ses élèves un étayage adéquat, malgré ses nombreuses tentatives pour les amener à faire des inférences. Les enseignantes non formées (enseignantes 5 et 6) ont, quant à elles, misé plus fréquemment sur la transmission du sens des épisodes implicites et ont également soutenu moins efficacement leurs élèves dans l’élaboration du sens. Ces différences dans la façon de travailler les inférences se sont répercutées sur la progression des élèves entre le début et la fin de la recherche. Ceux des enseignantes 1, 2 et 3 obtiennent des résultats significativement supérieurs à ceux des trois autres enseignantes. Ainsi, il ne suffit pas de travailler les inférences lors des lectures à haute voix pour assurer la progression des élèves. D’autres facteurs revêtent aussi une grande importance : le choix d’oeuvres de qualité, l’engagement des élèves dans les discussions pour co-élaborer le sens et l’étayage adéquat de l’enseignant. Enfin, il semblerait que l’activité réflexive suscitée lors d’une participation à une recherche collaborative et le soutien offert par l’étudiante-chercheuse aient donné aux enseignantes la possibilité d’apporter des changements durables dans leurs pratiques. En ce sens, la recherche collaborative paraît être une voie prometteuse pour contribuer au développement professionnel des enseignants.
Resumo:
Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.
Resumo:
CONTEXTE: L'inefficacité de captation des acides gras libres (AGL) par le tissu adipeux blanc (TAB) est connue pour favoriser la résistance à l'insuline (RI) dans les tissus périphériques, mais dans le foie, elle favorise également la production accrue de lipoprotéines contenant l'apolipoprotéine B100 (lipoprotéines apoB). Nous avons récemment démontré que les femmes post-ménopausées obèses avec un nombre élevé de lipoprotéines apoB à jeun (apoB plasmatique > 1,2 g/L) avaient plus de RI que les femmes avec un taux d’apoB normal. Notre objectif était donc d'examiner si l'inefficacité de captation des AGL pourrait être un mécanisme expliquant la RI, in vivo dans cette population. HYPOTHÈSES: Les femmes ménopausées en surpoids/obèses avec un taux d’apoB élevé ont moins d'efficacité à capter les AGL par le TAB que les femmes avec un taux d’apoB faible. MÉTHODES/RÉSULTATS: L'efficacité de captation des AGL a été examinée dans 22 femmes non diabétiques en surpoids/obèses. La population a été séparée selon la médiane d’apoB (0.9 g/L) en 2 groupes; les femmes ayant un taux d’apoB inférieur vs supérieur à la médiane (N=11/groupe). L'efficacité de captation des AGL par le TAB a été indirectement évaluée en suivant le sort d'un repas riche en gras (0.0162g 13C-trioléine/g de matières grasses, 66% de gras, 47g gras/m2 surface corporelle) marqué au 13C-trioléine, sur 6h en circulation ([13C]TG et [13C]AGL plasmatiques) et en oxydation (13CO2 dans l’air expiré [AE]). L’enrichissement en 13C des échantillons d’AE et du plasma a été mesuré par spectrométrie de masse pour ratio isotopique. Les femmes ayant un apoB élevé avaient une clairance plasmatique totale postprandiale des TG (p <0,05) réduite sans diminuer de la clairance plasmatique totale des AGL, par rapport aux femmes ayant un faible taux d’apoB. Cependant, en examinant le sort du 13C-trioléine, les femmes ayant un apoB élevé avait une réduction de la clairance des [13C]TG plasmatiques (44,78 μM vs 7,81 μM; p <0,05) et des [13C]AGL plasmatiques (2,64 uM vs 0,06 uM; p <0,05) à 6h, sans aucune différence en % récupéré de 13C-trioléine dans le CO2 de l’AE. Ces données suggèrent que les femmes ayant un taux d’apoB élevé ont une réduction postprandiale de la clairance et de la captation de 13Ctrioléine par le TAB. CONCLUSION: La captation inefficace des AGL par le TAB des femmes post-ménopausées en surpoids et obèses avec un surplus d’apoB peut être un mécanisme sousjacent à la RI chez ces sujets.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal