139 resultados para carcass modifier
Resumo:
Le cancer du sein (CS) est la deuxième cause de décès liés au cancer parmi les femmes dans la plupart des pays industrialisés. Les personnes qui ont le CS peuvent ne pas hériter des mutations causant le cancer de leurs parents. Ainsi, certaines cellules subissent des mutations qui mènent au cancer. Dans le cas de cancer héréditaire, les cellules tumorales contiennent généralement des mutations qui ne sont pas trouvées ailleurs dans l'organisme, mais peuvent maintenir des mutations qui vont répartir dans toutes les cellules. La genèse du CS est le résultat des mutations de gènes qui assurent la régulation de la prolifération cellulaire et la réparation de l’ADN. Deux gènes semblent particulièrement concernés par les mutations. Les gènes ‘Breast Cancer 1’ (BRCA1) et ‘Breast Cancer 2’ (BRCA2), sont impliqués dans la prédisposition génétique de CS. On estime que 5-10% des cas de cancer du sein sont attribuables à une prédisposition génétique. La plupart de ces cancers sont liés à une anomalie du gène BRCA1 ou BRCA2. Plusieurs études ont été menées chez les femmes atteintes de CS sporadique et quelques études se sont concentrées sur celles qui sont porteuses de mutations de BRCA. Alors, notre recherche a été entreprise afin de vérifier l’hypothèse d’une association entre le CS, le mode vie et les habitudes alimentaires chez les Canadiennes-françaises non porteuses des 6 mutations de BRCA les plus fréquentes parmi cette population. Nous avons mené une étude cas-témoins dans cette population. Quelque 280 femmes atteintes du cancer du sein et non-porteuses de mutations de BRCA, ont été recrutées en tant que cas. Les témoins étaient recrutés parmi les membres de la famille des cas (n=15) ou à partir d'autres familles atteintes de CS (n=265). Les participantes étaient de tous âges, recrutées à partir d’une étude de cohorte qui est actuellement en cours, menée par une équipe de chercheurs au Centre Hospitalier Universitaire de Montréal (CHUM) Hôtel-Dieu à Montréal. Les apports alimentaires ont été recueillis par un questionnaire de fréquence semi-quantitatif validé et administré par une nutritionniste, qui portait sur la période avant les deux ans précédant le premier diagnostic de CS pour les cas et la période avant les deux ans précédant l’entrevue téléphonique pour les témoins. Un questionnaire de base était administré par l’infirmière de recherche aux participantes afin de colliger des renseignements sociodémographiques et sur les facteurs de risque du CS. Une association positive et significative a été détectée entre l’âge (plus de 50 ans) auquel les sujets avaient atteint leur Indice de Masse Corporel (IMC) le plus élevé et le CS rapport de cotes (OR) =2,83; intervalle de confiance à 95% (IC95%) (2,34-2,91). De plus, une association positive a été détectée entre un gain de poids de >34 lbs comparativement à un gain de poids de ≤15 lbs, dès l’âge de 20 ans OR=1,68; IC95% (1,10-2,58). Un gain de poids de >24 lbs comparativement à un gain de poids de ≤9 lbs, dès l’âge de 30 ans a aussi montré une augmentation de risque de CS OR=1,96; IC95% (1,46-3,06). Une association positive a aussi été détecté entre, un gain de poids de >12 lbs comparativement à un gain de poids de ≤1 lb, dès l’âge de 40 ans OR=1,91; IC95% (1,53-2,66). Concernant le tabagisme, nous avons observé une association positive et significative reliée à la consommation de plus de 9 paquets-années OR = 1,59; IC95% (1,57-2,87). Il fut suggéré que l’activité physique modéré confère une protection contre le CS: une pratique de > 24,8 (‘metabolic equivalent’) MET-hrs par semaine par rapport à ≤10,7 MET-hrs par semaine, diminue le risque du CS de 52% OR = 0,48 ; IC95% (0,31-0,74). L’activité physique totale (entre 16,2 et 33,2 MET-hrs par semaine), a aussi montré une réduction de risque de CS de 43% OR = 0,57 ; IC95% (0,37-0,87). Toutefois, il n'y avait aucune association entre une activité physique vigoureuse et le risque de CS. L’analyse portant sur les macro- et micro-nutriments et les groupes alimentaires a montré qu’un apport en énergie totale de plus de 2057 Kcal par jour augmentait le risque de CS de 2,5 fois OR = 2,54; IC95% (1,67-3,84). En ce qui concerne la consommation de café, les participantes qui buvaient plus de 8 tasses de café par jour avaient un risque de CS augmenté de 40% OR = 1,40; IC95% (1,09-2,24). Les sujets ayant une consommation dépassant 9 g d’alcool (éthanol) par jour avaient également un risque élevé de 55% OR = 1,55; IC95% (1,02-2,37). De plus, une association positive et significative a été détectée entre le CS et la consommation de plus de deux bouteilles de bière par semaine OR = 1,34; IC95% (1,28-2,11), 10 onces de vin par semaine OR = 1,16; IC95% (1,08-2,58) ou 6 onces de spiritueux par semaine OR = 1,09; IC95% (1,02-2,08), respectivement. En résumé, les résultats de cette recherche supportent l’hypothèse selon laquelle le mode de vie et les habitudes alimentaires jouent un rôle important dans l’étiologie de CS chez les Canadiennes-françaises non porteuses de mutations de BRCA. Les résultats nous permettent de constater que le gain de poids et le tabagisme sont liés à des risques élevés de CS, tandis que l'activité physique modérée aide à réduire ce risque. De plus, nos résultats suggèrent qu’un apport énergétique total relativement élevé et une consommation élevée de café et d'alcool peuvent accroître le risque de ce cancer. Ce travail a permis de mettre l’accent sur une nouvelle direction de recherche, jusqu'à présent non investiguée. Les résultats de ce travail de recherche pourraient contribuer à recueillir de nouvelles informations et des conseils pouvant influencer et aider la population à modifier son mode de vie et ses habitudes alimentaires afin de diminuer le risque de cancer du sein.
Resumo:
La chaîne invariante forme un complexe nonamérique avec les molécules classiques du CMH de classe II. HLA-DM et HLA-DO, des molécules non-classiques de classe II, sont aussi impliquées dans la présentation des peptides antigéniques aux lymphocytes T. Ces molécules chaperones de la présentation antigénique modulent la capacité d’une cellule à présenter des antigènes par les moloécules classiques du CMH de classe II. La régulation transcriptionnelle des molécules chaperones, tout comme celle des autres molécules du CMH de classe II, est assurée par le transactivateur CIITA. La molécule HLA-DR peut être régulée négativement de manière post-traductionnelle par ubiquitination grâce à l’enzyme E3 ubiquitine ligase MARCH1. Celle-ci est induite par l’interleukine-10 dans les monocytes. L’objectif de ce projet était de déterminer si l’ubiquitination par MARCH1 peut aussi réguler l’expression des molécules chaperones de la présentation antigénique. Les expériences furent réalisées dans le contexte de co-transfections en cellules HEK293T. L’expression des molécules fut évaluée par immunomarquages et cytométrie de flux. Il a été montré que l’isoforme p33 de la chaîne invariante est régulé négativement en présence de MARCH1 à partir de la surface cellulaire, causant ainsi sa dégradation. Tel que démontré par l’utilisation d’un mutant dépourvu de queue cytoplasmique, cette dernière région n’est pas indispensable à ce phénomène. Une hypothèse est qu’une molécule non-identifiée, associée à Ii, serait ubiquitinée par MARCH1, l’entraînant dans sa régulation négative. Il fut déterminer que cette molécule n’était pas CXCR2, un récepteur pouvant être impliqué, avec la chaîne invariante et CD44, en tant que récepteur de MIF (Macrophage Inhibitory Factor). Il fut aussi montré que HLA-DO peut être ciblé par MARCH1 mais ceci ne semble pas être un phénomène dominant; l’expression des complexes DO/DM n’étant pas affectée bien qu’ils entrent en interaction avec MARCH1. L’expression de HLA-DM n’est pas affectée par MARCH1. Il n’a toutefois pas été déterminé hors de tout doute si MARCH1 peut modifier DM; des résultats obtenus avec une queue cytoplasmique de DM possédant une lysine laissant suggérer qu’il est possible que MARCH1 interagisse avec DM. Dans l’ensemble, les travaux démontrent que l’ubiquitination par MARCH1 joue un rôle dans la régulation post-transcriptionnelle de la chaîne invariante p33 mais pas HLA-DO et HLA-DM.
Resumo:
Les agences de notation de crédit ont permis la banalisation des véhicules de titrisation. Elles ont sous-estimé la probabilité que les émetteurs de certains instruments financiers complexes ne puissent pas honorer leurs dettes. Elles ont tardé à refléter la détérioration du marché de leurs notes. Les agences de notation ont donc été en partie responsables de la tempête que traversent les places financières mondiales et ont exposé les entreprises à un risque sérieux de défiance. Alors que les entreprises doivent à l’heure actuelle maîtriser de multiples risques, celles-ci ont été les premières victimes des professionnels de la notation. Pour apporter une réponse au risque de la notation, les régulateurs tentent de réagir. Par l’intermédiaire de leur autorité boursière, les Etats-Unis ont été les premiers à modifier le cadre règlementaire de l’activité de la notation. C’est ce cadre règlementaire, adopté au premier trimestre 2009, qui fait l’objet du présent papier.
Resumo:
« La grande majorité des accidents demeure liée aux comportements dangereux des usagers de la route ». Cet énoncé, lapidaire, fait aujourd’hui figure d’évidence au sein de la communauté des intervenants en sécurité routière. Il repose pourtant sur des prémisses discutables. Le problème le plus fondamental réside dans le fait que la recherche des dernières décennies s’est presque toute entière vouée à l’analyse des seuls aspects défaillants de la conduite (l’accident, les infractions, les erreurs et les fautes de conduite, les conducteurs à risque ou dysfonctionnels, les attitudes et traits de caractère incitant à la conduite dangereuse, etc.). Ce faisant, on a fini par oublier qu’il nous restait encore beaucoup de choses à apprendre sur le fonctionnement usuel de la conduite automobile. Comment, en effet, peut-on escompter élucider tous les rouages de la dynamique accidentelle sans avoir au préalable cerné, et bien compris, les mécanismes de la conduite « ordinaire » ? Comment peut-on parvenir à approfondir notre compréhension des comportements de conduite si l’on fait totalement abstraction de toutes les activités courantes, « normales », auxquelles se livrent les conducteurs lorsqu’ils sont au volant de leur véhicule ? C’est dans la perspective de mieux comprendre les comportements de conduite, dans leur complexité et dans leur diversité, que la présente thèse a été réalisée. Y a plus spécifiquement été examinée la question des habitudes en raison de leur prédominance dans l’activité de la conduite, mais également en raison de leur résistance, des obstacles bien concrets qu’elles sont susceptibles d’opposer à tous ceux qui tentent de modifier les comportements individuels de conduite. Des entrevues en profondeur, menées auprès de trente conducteurs et conductrices âgé(e)s de 17 à 54 ans, devaient permettre de répondre, entre autres, aux questions suivantes : De quoi sont constituées les différentes habitudes en matière de conduite automobile ? Quelle place occupent-elles dans la conduite des individus ? En quoi constituent-elles un frein au changement, à la modification des pratiques adoptées ? Quelles sont les dimensions qui participent à leur installation ? Les résultats de l’analyse ont permis de jeter les bases d’un modèle des comportements de conduite où les sensations corporelles se voient conférer un rôle des plus centraux, et où l’habitude – bien davantage caractérisée par la notion de confort que par celles d’automatisme ou de répétition – concourt non seulement à la pérennité, mais également à la régulation des conduites adoptées sur la route.
Resumo:
En écho aux discussions françaises, les Etats-Unis sont le témoin de débats intenses dans les milieux universitaires, professionnels et politiques sur ce qu’implique une rémunération juste des dirigeants d’entreprises. Le dépôt récent d'un projet de loi (Corporate and Financial Institution Compensation Fairness Act of 2009) est l'occasion de synthétiser les discussions en cours et de présenter les dernières évolutions. Si les positions adoptées dans ce projet législatif ne manquent pas de pertinence et apportent des éléments de réflexion intéressants ôsant proposer de modifier le schéma de gouvernance des entreprises, il ressort malheureusement que des critiques demeurent et ce, bien au-delà de la nature informationnelle du pouvoir octroyé aux actionnaires en matière de rémunération de la direction.
Resumo:
Le design d'éclairage est une tâche qui est normalement faite manuellement, où les artistes doivent manipuler les paramètres de plusieurs sources de lumière pour obtenir le résultat désiré. Cette tâche est difficile, car elle n'est pas intuitive. Il existe déjà plusieurs systèmes permettant de dessiner directement sur les objets afin de positionner ou modifier des sources de lumière. Malheureusement, ces systèmes ont plusieurs limitations telles qu'ils ne considèrent que l'illumination locale, la caméra est fixe, etc. Dans ces deux cas, ceci représente une limitation par rapport à l'exactitude ou la versatilité de ces systèmes. L'illumination globale est importante, car elle ajoute énormément au réalisme d'une scène en capturant toutes les interréflexions de la lumière sur les surfaces. Ceci implique que les sources de lumière peuvent avoir de l'influence sur des surfaces qui ne sont pas directement exposées. Dans ce mémoire, on se consacre à un sous-problème du design de l'éclairage: la sélection et la manipulation de l'intensité de sources de lumière. Nous présentons deux systèmes permettant de peindre sur des objets dans une scène 3D des intentions de lumière incidente afin de modifier l'illumination de la surface. De ces coups de pinceau, le système trouve automatiquement les sources de lumière qui devront être modifiées et change leur intensité pour effectuer les changements désirés. La nouveauté repose sur la gestion de l'illumination globale, des surfaces transparentes et des milieux participatifs et sur le fait que la caméra n'est pas fixe. On présente également différentes stratégies de sélection de modifications des sources de lumière. Le premier système utilise une carte d'environnement comme représentation intermédiaire de l'environnement autour des objets. Le deuxième système sauvegarde l'information de l'environnement pour chaque sommet de chaque objet.
Resumo:
Cette thèse rapporte l’étude des propriétés physicochimiques des nanoparticles polymériques et leur impact sur l’interaction avec les cellules vivantes. Nous nous sommes tout spécialement attachés à étudier l’effet des propriétés adhésives et mécaniques des nanoparticules sur leur capacité de pénétration de la membrane cellulaire. Pour ce faire, nous avons tout d’abord utilisé des nanoparticules d’acide polylactique (PLA) fonctionnalisées en surface avec un ligand des sélectines E et P. Le greffage du ligand sur la particule s’est fait par une nouvelle méthode expérimentale garantissant la présence du ligand à la surface de la particule durant toute sa durée de vie. Cette méthode consiste à mélanger un polymère fonctionnalisé avec le ligand avec un autre polymère non fonctionnalisé. La présence du ligand à la surface des nanoparticules formées à partir de ce mélange de polymères a été confirmée par analyse ToF SIMS. Nous avons pu prouver que les particules possédant le ligand greffé à leur surface démontraient une capacité adhésive supérieure à leurs homologues non fonctionnalisés sur des cellules endothéliales HUVEC activées par différentes drogues. De plus, le captage des particules par les cellules HUVEC est modulé par le niveau d’expression des récepteurs selectine E et P et aussi par la quantité de ligand libre. Ces résultats montrent clairement que le greffage du ligand confère aux particules des propriétés adhésives accrues et spécifiques ce qui permet leur usage postérieure comme vecteur pharmaceutique capable de cibler un récepteur particulier à la surface d’une cellule. Nous avons aussi démontré que l’interaction entre les nanoparticules et la membrane cellulaire peut aussi être contrôlée aussi bien par les propriétés mécaniques de la cellule que de la nanoparticule. Dans une première étape, nous avons mesuré à l’aide de l’appareil de forces de surface l’élasticité de cellules macrophagiques déposées sur différents substrats. En contrôlant l’interaction entre la cellule et le substrat sur lequel elle repose nous avons montré qu’il était possible de modifier à ii volonté les propriétés mécaniques cellulaire. Une augmentation de l’élasticité cellulaire s’accompagne d’une augmentation systématique de l’internalisation de nanoparticules de PLA non fonctionnalisées. Ceci suggère un rôle prépondérant des propriétés mécaniques du cortex cellulaire dans le captage des nanoparticules de PLA. Dans une seconde étape, nous avons étudié l’effet des propriétés mécaniques des nanoparticules sur leur capacité de pénétration cellulaire. Pour ce faire, nous avons synthétisé des particules d’hydrogel dont l’élasticité était contrôlée par le degré d’agent réticulant inclus dans leur formulation. Le contrôle des propriétés mécaniques des nanoparticules a été confirmé par la mesure du module de Young des particules par microscopie de force atomique. L’impact des propriétés mécaniques de ces particules sur leur capacité de pénétration dans les cellules vivantes a été étudié sur des cellules macrophagiques de souris. Les résultats ont montré que la cinétique d’internalisation, la quantité de particules internalisées et le mécanisme d’internalisation dépendent tous du module de Young des nanoparticules. Aucune différence dans le trajet intracellulaire des particules n’a pu être observée malgré le fait que différentes voies d’internalisation aient été observées. Ce dernier résultat peut s’expliquer par le fait que les nanoparticules sont internalisées par plusieurs voie simultanément ce qui facilite leur accumulation dans les organelles digestives intracellulaires. Un modèle simple permettant d’expliquer ces résultats a été proposé et discuté.
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
La 1-β-D-arabinofuranosylcytosine (ara-C) demeure l’agent anticancéreux principalement utilisé dans le traitement de la leucémie myéloblastique aiguë (LMA), malgré sa dégradation et son élimination rapide après une administration parentérale. Son encapsulation dans des vecteurs pharmaceutiques, majoritairement des liposomes, a permis de surmonter ces inconvénients. L’objectif général de ce projet de doctorat était de développer deux systèmes à libération prolongée, à base de phospholipides, de cholestérol et de poly(éthylène glycol) (PEG) afin d’encapsuler l’ara-C et ultimement, d’améliorer son efficacité dans le traitement de la LMA. Des Sphérulites® (vésicules multilamellaires d’un type particulier) ont d’abord été étudiées pour leur forte capacité d’encapsulation, due à leur mode de préparation. Par la suite, une formulation liposomale capable, d’une part de cibler spécifiquement les cellules leucémiques et, d’autre part, de promouvoir la libération intracellulaire de l’ara-C grâce à sa sensibilité au pH, a été mise au point. Les deux formulations se devaient d’avoir un faible diamètre, une stabilité en présence de fluides biologiques et des temps de circulation prolongés chez l’animal. Une préparation de Sphérulites®, composée de Phospholipon 90G, de Solutol HS15 et de cholestérol, a permis d’obtenir des vésicules de 300 nm de diamètre. Un dérivé lipidique de PEG a pu être fixé à leur surface, sans modifier la disposition concentrique des lamelles, ni changer leur stabilité. Les Sphérulites® PEGylées ont été chargées d’ara-C et injectées chez le rat par la voie intraveineuse. Elles ont démontré des temps de circulation significativement prolongés comparativement aux Sphérulites® sans PEG. Cependant, l’ara-C s’est retrouvée éliminée de la circulation sanguine très rapidement, révélant une libération précoce du principe actif à partir de ces vésicules. Les liposomes sensibles au pH (~150 nm) ont été obtenus suite à l’insertion d’un copolymère à base de dioctadécyle, de N-isopropylacrylamide (NIPAM) et d’acide méthacrylique. L’anticorps anti-CD33, soit complet soit son fragment Fab’, a été fixé à la surface des liposomes afin de cibler les cellules leucémiques. Les essais in vitro ont démontré la spécificité de la formulation pour différentes cellules leucémiques (CD33+), sa stabilité en présence de protéines plasmatiques et la libération intracellulaire d’un marqueur fluorescent et de l’ara-C. Enfin, des études menées chez la souris saine et immunodéprimée inoculée de cellules HL60 ont montré que la formulation exposant le fragment Fab’ possédait un profil pharmacocinétique et une biodistribution semblables à ceux des liposomes contrôles non-ciblés. L’encapsulation de l’ara-C a permis d’améliorer grandement ses temps de circulation après une administration intraveineuse. Cependant, bien que les immunoliposomes ont permis de prolonger la survie des souris leucémiques comparativement à l’ara-C libre, l’addition du polymère sensible au pH n’a pas permis d’apporter de réel avantage à la formulation lorsque administrée in vivo. Les résultats obtenus dans ce travail de thèse ont, dans un premier temps, mis en évidence que les Sphérulites® pourraient s’avérer utiles dans la vectorisation d’agents anticancéreux si leur capacité à retenir le principe actif in vivo était améliorée. Dans un second temps, les données présentées avec les immunoliposomes suggèrent qu’ils pourraient apporter un bénéfice notable dans le traitement de la LMA.
Resumo:
Réalisé en cotutelle avec l'Université Bordeaux 1 (France)
Resumo:
La masse corporelle et la direction des charges sont des facteurs qui peuvent modifier la morphologie des surfaces articulaires qui sont généralement orientées et de taille suffisante pour résister aux charges chroniques. Chez les hominoïdes, les forces de tension et compression, générées par la locomotion, sont transmises à travers l’articulation du coude. Ces espèces ont une morphologie similaire de l’extrémité distale de l’humérus, mais qui présente certaines différences selon la taille des individus et leurs modes de locomotion. Ce projet tente de caractériser plus exhaustivement cette variation en analysant la largeur des surfaces articulaires ainsi que leur position et orientation par rapport à l’axe long de la diaphyse. La prémisse de ce mémoire est que, chez les espèces plus arboricoles, la morphologie de l’articulation distale de l’humérus répond aux stress transverses générés par les puissants muscles fléchisseurs du poignet et des doigts qui traversent le coude obliquement. En revanche, les espèces plus terrestres présentent une morphologie permettant de résister aux forces axiales provenant du contact avec le sol. Des coordonnées tridimensionnelles et des mesures linéaires ont été recueillies sur un échantillon squelettique d’individus des genres Homo, Pan, Gorilla et Pongo. Les résultats obtenus révèlent que l’orientation et la position des surfaces articulaires de la trochlée correspondent aux types de locomotion, or leur taille et celle et du capitulum semblent être influencées par la taille des individus. L’hypothèse suggérant que les stress reliés aux divers modes de locomotion des hominoïdes influencent la morphologie de l’articulation distale de l’humérus est donc supportée.
Resumo:
Cette thèse porte sur les représentations sociales. Fruit d’un bricolage conceptuel, ces représentations s’inspirent en partie des travaux de Serge Moscovici et de certains auteurs plus contemporains qui s’inscrivent dans son prolongement, dits de l’école française des représentations sociales, ainsi que d’auteurs anglo-saxons qui travaillent à partir de ce concept. Les écrits d’autres chercheurs, dont Stuart Hall, Richard Dyer et Jean-Michel Berthelot, qui adoptent dans des perspectives plus particulièrement liées aux Cultural Studies et à la sociologie ont également aidé à préciser notre façon d’envisager les représentations sociales et d’appréhender leur fonctionnement. Plus précisément, à la suite de Jodelet (1989), nous envisageons les représentations comme des « formes de connaissances socialement élaborées et partagées, ayant une visée pratique et concourant à la construction d’une réalité commune à un ensemble social » (p. 36). Ces représentations possèdent également d’autres particularités. Elles sont, d’après nous, constitutives ainsi que formées par des procédés langagiers qui rendent possibles des opérations. Ce concept nous permet d’étudier les représentations du point de vue de leur effectivité, soit de leur capacité à influencer les significations, à apporter un changement dans la manière d’interpréter une situation et, ce faisant, d’affecter les pratiques et d’induire une différence dans le monde. Ce questionnement au sujet des représentations se déploie sur un terrain qui nous semblait particulièrement riche pour en étudier le fonctionnement, soit celui de la politique qui, par ailleurs, se déroule actuellement dans un contexte de spectacularisation. Présenté comme un brouillage des genres entre divertissement et politique, ce phénomène est également lié à l’avènement de la celebrity politics, à la personnalisation et à l’évaluation, à l’importance prise par le style en politique ainsi qu’à la dramatisation, la fragmentation et la normalisation. Plus précisément, nous étudions les représentations dans un contexte de spectacularisation à partir de trois corpus documentant des événements aussi distincts que les fusions municipales en 2001, la montée en popularité de Mario Dumont et de l’ADQ en 2002 et 2003 ainsi que la série Bunker, le cirque, diffusée à la télévision de Radio-Canada à l’automne 2002. Ces corpus regroupent des textes de sources et de format variés, des textes de loi aux éditoriaux en passant par des dramatiques télévisuelles et des forums électroniques. Nous y avons effectué une analyse itérative et transversale des discours afin de mieux comprendre le fonctionnement des représentations dans un contexte de spectacularisation. Nos analyses ont démontré la variété des procédés et des opérations, telles que l’incontestabilisation, la projection, la localisation, l’amplification, la réduction et l’évaluation, qui permettent de modifier le sens et les enjeux des événements discutés. Les analyses ont également permis d’illustrer que les procédés et les opérations qu’ils rendent possibles balisent les frontières de l’objet et offrent un système classificateur.
Resumo:
L’objectif de ce projet de recherche était de vérifier la présence de changements de sensibilité de la rétine et du système circadien suite à deux semaines d'exposition à un milieu faiblement ou fortement éclairé, dans des conditions contrôlées en laboratoire. De plus, comme un changement de sensibilité peut modifier l'ajustement du système circadien au cycle jour-nuit extérieur, nous voulions également vérifier si la phase circadienne serait modifiée par le traitement et si la vigilance et l’humeur seraient affectées. Dix sujets ont été exposés à de la lumière tamisée (70 lux [LT]) et 10 ont été exposés à de la lumière vive (3000 lux [LV]) pendant 12 jours consécutifs en laboratoire de 8h45 à 19h00 tous les jours. L’exposition à la lumière a été mesurée 5 jours avant l’entrée au laboratoire dans l’habitat naturel du sujet et pendant la période en laboratoire à l’aide de l’Actiwatch-L®. La sensibilité rétinienne a été mesurée avant et après le traitement lumineux, par un électrorétinogramme (ERG) et la sensibilité circadienne, par le test de suppression de mélatonine salivaire. Tout au long du protocole, la vigilance, la somnolence et l'humeur ont été évaluées à plusieurs moments de la journée à intervalles prédéterminés. Après 12 jours d’exposition en lumière contrôlée, l’amplitude de l’onde-a au Vmax à l’ERG photopique a diminué en LV alors qu’elle a augmenté en LT. À l’ERG scotopique, une différence de sensibilité rétinienne (log K) entre les groupes avant le traitement expérimental s’est amenuisée à la fin du traitement (p=.053). La suppression de mélatonine après 90 minutes d’exposition au test de suppression a diminué en LV alors qu’il n’y a pas eu de modification en LT, cependant cette interaction n’était pas significative (p=.16). La phase circadienne des sujets exposés à LV a été devancée de 58 minutes (p=.04) alors qu’elle a été retardée de 26 minutes en LT (p=.32). Les mesures de vigilance subjective (EVA) ont indiqué que les sujets LV se considéraient plus éveillés que les sujets LT après le traitement (p=.02). Par contre, aucune différence n’est apparue quant aux mesures de performance psychomotrice ni de l’humeur. L’histoire lumineuse n’a pas modifié la sensibilité rétinienne dans le sens prévu par les hypothèses alors qu’il y a eu une tendance vers une augmentation de la sensibilité circadienne en condition de lumière tamisée. L’amélioration de la vigilance subjective après l’exposition en LV n’a pas été soutenue par les résultats de la performance psychomotrice. L’histoire lumineuse n’a eu aucun effet sur l’humeur des sujets. Cette étude souligne l’importance d’utiliser des mesures permettant de départager les effets immédiats d’un traitement lumineux des effets à long terme autant sur le plan rétinien que circadien. Il reste également complexe d’étudier en laboratoire des changements adaptatifs qui se produisent dans le milieu naturel en raison du confinement et des modifications physiologiques et psychologiques pouvant y être associées.
Resumo:
Les sédiments sont des sites importants d’élimination d’azote (N) puisqu’ils possèdent des gradients d’oxydoréduction leur conférant les conditions idéales pour les réactions microbiennes de transformation de N. L’eutrophisation des régions côtières peut altérer ces gradients, par des changements dans la concentration d’oxygène (O2) de l’eau interstitielle, et modifier l’importance relative des processus transformant le N. Afin de mieux comprendre comment l’O2 pourrait influencer les transformations de N, nous avons mesuré les flux diffusifs de diazote (N2), nitrate (NO3-), oxygène et ammonium (NH4+) dans les sédiments de l’Estuaire Maritime du St-Laurent (EMSL), et nous avons estimé les taux de dénitrification. L’importance du couple nitrification-dénitrification en fonction d’un gradient de concentrations d’O2 dans la zone d’hypoxie de l’EMSL fut aussi évaluée. La concentration des gaz dissous fut mesurée en utilisant une nouvelle approche développée dans cette étude. Les flux diffusifs de N2, O2, NO3- et NH4+ variaient de 5.5 à 8.8, de -37.1 à -84.8, de -4.0 à -5.8 et de 0.6 à 0.8 μmol N m-2 h-1 respectivement. Les concentrations de N2 et NO3- dans l’eau porale et les flux de NO3- et de N2 des sédiments, suggèrent que la diffusion de NO3- provenant de l’eau à la surface des sédiments ne peut pas expliquer par elle-même la production de N2 observée. En utilisant une approche stoichiométrique, les taux de nitrification potentielle estimés comptent pour 0.01 à 52% du flux total de NO3 nécessaire pour aboutir aux flux de N2 observés et diminuent avec l’augmentation de l’hypoxie.
Resumo:
Le présent mémoire comprend un survol des principales méthodes de rendu en demi-tons, de l’analog screening à la recherche binaire directe en passant par l’ordered dither, avec une attention particulière pour la diffusion d’erreur. Ces méthodes seront comparées dans la perspective moderne de la sensibilité à la structure. Une nouvelle méthode de rendu en demi-tons par diffusion d’erreur est présentée et soumise à diverses évaluations. La méthode proposée se veut originale, simple, autant à même de préserver le caractère structurel des images que la méthode à l’état de l’art, et plus rapide que cette dernière par deux à trois ordres de magnitude. D’abord, l’image est décomposée en fréquences locales caractéristiques. Puis, le comportement de base de la méthode proposée est donné. Ensuite, un ensemble minutieusement choisi de paramètres permet de modifier ce comportement de façon à épouser les différents caractères fréquentiels locaux. Finalement, une calibration détermine les bons paramètres à associer à chaque fréquence possible. Une fois l’algorithme assemblé, toute image peut être traitée très rapidement : chaque pixel est attaché à une fréquence propre, cette fréquence sert d’indice pour la table de calibration, les paramètres de diffusion appropriés sont récupérés, et la couleur de sortie déterminée pour le pixel contribue en espérance à souligner la structure dont il fait partie.