646 resultados para MPEG REL


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au Canada, Francisella tularensis, une bactérie zoonotique causant la tularémie, affecte principalement le lièvre d’Amérique, le rat musqué et le castor. Malgré les nombreuses études sur cette maladie, les connaissances sur l’écologie et les réservoirs naturels de la tularémie demeurent limitées. Une étude transversale a été réalisée afin d’estimer la prévalence d’infection par F. tularensis chez le lièvre d’Amérique, le rat musqué et le coyote dans quatre régions du Québec (Canada) et de décrire le risque d’infection d’après des caractéristiques individuelles (âge, sexe et état de chair) et environnementales. D’octobre 2012 à avril 2013, 345 lièvres d’Amérique, 411 rats musqués et 385 coyotes capturés par des trappeurs ont été échantillonnés. Les caractéristiques environnementales autour du site de capture ont été extraites de base de données géographiques. La séroprévalence (test de microagglutination) était de 2.9% chez les coyotes, 0.6% chez les lièvres et 0% chez les rats musqués. Tous les rats musqués et les lièvres étaient négatifs à une PCR en temps réel réalisée à partir d’un pool de foie, rein, rate et poumon; par contre, le type AI a été détecté dans les organes individuels des deux lièvres séropositifs. Des analyses de régression logistique exacte ont démontré que l’âge était un facteur de risque pour la séropositivité du coyote, ainsi que la proportion de forêts et la proportion de l’environnement considéré approprié pour le lièvre autour de la localisation de capture des coyotes. Les résultats de cette étude suggèrent la présence du cycle terrestre dans les régions étudiées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche a pour but d’étudier les pratiques enseignantes de soutien auprès des élèves immigrants récemment arrivés au Québec, ne maîtrisant pas le français et intégrés dans des classes ordinaires au primaire. Pour ce faire, nous avons mené une recherche de type qualitatif avec deux enseignantes et leurs trois élèves immigrantes. Afin de documenter les pratiques de soutien en contexte réel de la classe, comprendre les raisons des enseignantes à l’égard du soutien et le point de vue des élèves, nous avons procédé à des observations de classe et à des entrevues individuelles générales et spécifiques avec les participantes, en plus de consulter certaines productions écrites des élèves immigrantes participantes. La présentation des données prend la forme d’une étude multicas décrivant les pratiques de soutien mises en place par chacune des deux enseignantes à partir de 22 séquences de soutien qui ont été décrites en tenant compte du contexte de chaque classe, puis analysées à la lumière de deux cadres théoriques complémentaires, le cadre d’analyse du travail enseignant et l’approche sociohistorico-culturelle. Les résultats de cette recherche mettent en exergue le sens de la pratique enseignante de soutien qui se coconstruit dans les interactions entre l’enseignante et l’élève, selon leurs apports mutuels, et selon les facteurs de la classe. L’analyse des raisons des enseignantes à l’égard du soutien montre que devant les difficultés des élèves immigrantes anticipées, constatées ou signalées, les enseignantes prennent des décisions pour prendre ces difficultés en considération, les traiter et mettre en place des pratiques de soutien. Les décisions des enseignantes découlent d’un processus de négociation interne entre la prise en compte des difficultés, notamment imprévues, et le maintien de leurs tâches prescrites, tout en considérant les facteurs contextuels de la classe. Le processus de négociation se poursuit et se déplace ensuite entre l’enseignante et l’élève, lesquelles construisent le sens de soutien à travers leurs interactions. Les concepts empruntés de l’approche sociohistorico-culturelle nous permettent de comprendre la relation dialectique entre l’élève et l’enseignante lors des interactions. Les deux s’ajustent l’une par rapport à l’autre dans le but d’arriver à un consensus sur le sens de la difficulté. De ce fait, la pratique enseignante de soutien est construite suite aux négociations entre l’élève et l’enseignante, mais aussi suite à la négociation interne de l’enseignante, et ce, dépendamment des facteurs du contexte. Notre recherche a contribué à apporter cette clarification sur la manière d’appréhender les pratiques enseignantes de soutien en contexte de classe ordinaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le traumatisme de la moelle épinière est à l’origine d’une inflammation locale importante caractérisée par l’augmentation massive des cellules inflammatoires et la présence de réactions oxydatives. Cette inflammation locale peut déclencher une réponse inflammatoire systémique par voie hématogène. Au niveau cervical, les lésions médullaires peuvent entraîner des faiblesses ou la paralysie des muscles respiratoires. Le patient, qui ne peut plus respirer de façon autonome, doit avoir recours à un support respiratoire. Bien que la ventilation mécanique soit la thérapie traditionnellement appliquée aux blessés médullaires souffrant d’insuffisance respiratoire, les études ont démontré qu’elle pouvait contribuer à promouvoir une réponse inflammatoire ainsi que des dommages pulmonaires. L’interaction entre le traumatisme médullaire et la ventilation mécanique, indispensable au maintien de l’équilibre des échanges respiratoires, est inconnue à ce jour. En voulant protéger les tissus, cellules et organes, l’organisme met en œuvre toute une panoplie de réponses inflammatoires à différents endroits. Nous pensons que ces réponses peuvent être altérées via l’interaction entre ce traumatisme et cette ventilation mécanique, sous l’influence de la principale source cellulaire de cytokines pour la défense de l’hôte, le macrophage, récemment classé en deux phénotypes principaux: 1) l’activation classique de type M1 et 2) l’activation alternative de type M2. Le phénotype M1 est conduit par le facteur GM-CSF et induit par l’interféron IFN-ɣ ainsi que le lipopolysaccharide. Le phénotype M2 quant à lui, est conduit par le facteur M-CSF et induit par les interleukines IL-4, IL-13 ou IL-21. M1 relâche principalement IL-1β, IL-6, TNF-α et MIP-1α tandis que M2 principalement IL-10 et MCP-1. Toutefois, nous ignorons actuellement par quel type d’activation se manifestera cette réponse immunitaire et si l’application de support respiratoire pourrait entraîner un risque inflammatoire additionnel au site du traumatisme. Nous ignorons également si la ventilation mécanique affecterait, à distance, les tissus de la moelle épinière via une inflammation systémique et amplifierait alors le dommage initial. Il n’existe pas à ce jour, de thérapie qui ait montré d’effet bénéfique réel envers une récupération fonctionnelle des patients blessés médullaires. Il paraît donc essentiel de déterminer si la ventilation mécanique peut moduler l’inflammation post-traumatique à la fois au niveau pulmonaire et au site de la lésion. Ce travail visait à caractériser les liens entre l’inflammation issue du traumatisme médullaire et celle issue de la ventilation, dans le but de fournir une meilleure compréhension des mécanismes inflammatoires activés dans ce contexte. L’étude a été menée sur un modèle animal. Elle consistait à évaluer : 1) si le traumatisme médullaire influençait les réponses inflammatoires pulmonaires induites par la ventilation mécanique, y compris le phénotype des macrophages alvéolaires et 2) si la ventilation pouvait altérer à distance, les tissus de la moelle épinière. L’impact de la blessure médullaire sur l’inflammation pulmonaire et locale, induite par la ventilation fut interprété grâce à l’analyse des cellules inflammatoires dans les lavages broncho-alvéolaires et dans les tissus prélevés à l’endroit de la blessure après 24 heures. Ces analyses ont démontré un profil spécifique des cytokines pulmonaires et médullaires. Elles ont révélé que la ventilation mécanique a engendré un environnement pro-inflammatoire en faveur d’un phénotype M1 chez les animaux ayant bénéficié de la thérapie respiratoire. Inversement, l’atteinte thoracique chez les animaux sans ventilation, a montré qu’une réponse immunitaire avait été activée en faveur d’un environnement anti-inflammatoire de phénotype M2. La lésion cervicale quant à elle a induit un profil de cytokines différent et les réponses au stress oxydatif dans le poumon induites par la ventilation ont été réduites significativement. De plus, une lésion médullaire a augmenté l’expression d’IL-6 et la ventilation a diminué l’IL-1β et augmenté le TNF-α dans les tissus de la moelle. Finalement, ces données ont fourni les premières évidences que la ventilation a induit d’avantage à un phénotype pulmonaire M1 et que le traumatisme médullaire a impacté spécifiquement les réponses inflammatoires et oxydatives dans le poumon. La ventilation a contribué non seulement à distance à une inflammation des tissus médullaires lésés mais aussi des tissus sains.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les ombres sont un élément important pour la compréhension d'une scène. Grâce à elles, il est possible de résoudre des situations autrement ambigües, notamment concernant les mouvements, ou encore les positions relatives des objets de la scène. Il y a principalement deux types d'ombres: des ombres dures, aux limites très nettes, qui résultent souvent de lumières ponctuelles ou directionnelles; et des ombres douces, plus floues, qui contribuent à l'atmosphère et à la qualité visuelle de la scène. Les ombres douces résultent de grandes sources de lumière, comme des cartes environnementales, et sont difficiles à échantillonner efficacement en temps réel. Lorsque l'interactivité est prioritaire sur la qualité, des méthodes d'approximation peuvent être utilisées pour améliorer le rendu d'une scène à moindre coût en temps de calcul. Nous calculons interactivement les ombres douces résultant de sources de lumière environnementales, pour des scènes composées d'objets en mouvement et d'un champ de hauteurs dynamique. Notre méthode enrichit la méthode d'exponentiation des harmoniques sphériques, jusque là limitée aux bloqueurs sphériques, pour pouvoir traiter des champs de hauteurs. Nous ajoutons également une représentation pour les BRDFs diffuses et glossy. Nous pouvons ainsi combiner les visibilités et BRDFs dans un même espace, afin de calculer efficacement les ombres douces et les réflexions de scènes complexes. Un algorithme hybride, qui associe les visibilités en espace écran et en espace objet, permet de découpler la complexité des ombres de la complexité de la scène.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Prenant comme point de départ le rapport paradoxal qui existe entre le témoignage et la littérature (l’un étant considéré comme véridique et l’autre, comme fictive) le présent mémoire s’intéresse à l’utilisation de la fiction dans les récits autobiographiques et testimoniaux de Jorge Semprun, avec L’Écriture ou la vie (1994), et de Régine Robin, avec L’Immense fatigue des pierres (1996). L’étude de ces textes tente de vérifier l’hypothèse selon laquelle, en faisant de leur témoignage une œuvre littéraire qui assume sa part de fiction, les deux auteurs arriveraient à offrir un témoignage plus juste de leur expérience de la Shoah. Le premier chapitre constitue un panorama critique et historique des deux axes théoriques principaux sur lesquels s’appuie ce travail, d’une part les études sur l’écriture testimoniale et sur la littérature de la Shoah (Derrida, Bornand, Prstojevic) et d’autre part les travaux sur l’autobiographie (Lejeune, Robin, Viart et Vercier). Il s’interroge sur les liens qui les unissent tout en tentant de positionner Robin et Semprun à travers ce champ de pratiques littéraires. Les deuxièmes et troisièmes chapitres s’intéressent ensuite aux différents effets de fiction et de réel qui se trouvent dans les deux œuvres du corpus et analysent, dans un premier temps, la mise en scène d’un pacte de vérité ambiguë passant par la représentation littéraire de la figure auctoriale et de l’acte d’écriture et, dans un deuxième temps, la représentation littéraire du réel en étudiant les nombreuses références intertextuelles, la présence du topos de la visite au camp de concentration, ainsi que l’utilisation particulière de l’archive par Semprun et Robin.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La mémoire immunitaire permet à l’organisme de se souvenir de tous les agents pathogènes rencontrés afin de pouvoir monter une réponse immunitaire plus rapide et plus efficace en cas de réinfection. Après la phase de contraction de la réponse primaire, les lymphocytes T CD8 mémoires survivent grâce à la présence de cytokines telle que l’interleukine 15 (IL-15). Ces cellules permettent aussi au système immunitaire de contrôler les virus latents n’ayant pas été totalement éliminés de l’hôte. Les situations de stress chronique affectent le système immunitaire provoquant la réactivation des virus latents. Des titres viraux élevés de virus de la famille Herspeviridea ont été observés chez les astronautes à leur retour de mission, suggérant que les hormones libérées en situation de stress auraient un impact négatif sur les lymphocytes T CD8+ mémoires. Un modèle de stress chronique in vitro chez la souris a été élaboré en ajoutant de la corticostérone à des lymphocytes T CD8+ mémoires. Il a ainsi été démontré que l’hormone de stress avait un effet pro-apoptotique sur ces cellules et que cet effet était partiellement inhibé par l’IL-15. Des cibles moléculaires ont aussi été identifiées afin de suivre la fonction immunitaire mémoire lors des vols spatiaux à l’aide du cytomètre en flux Microflow1, une nouvelle plateforme portative de diagnostic biomédical. Les résultats des tests en laboratoire puis dans la Station Spatiale Internationale (SSI) démontrent qu’il sera possible de suivre la fonction immunitaire mémoire et les marqueurs de stress en temps réel lors des vols spatiaux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Medipix2 (MPX) sont des détecteurs semi-conducteurs au silicium montés sur 256x256 pixels. Chaque pixel a une aire de 55x55μm2. L’aire active d’un détecteur MPX est d’environ 2 cm2. Avec deux modes de détection, un seuil et un temps d’exposition ajustables, leur utilisation peut être optimisée pour une analyse spécifique. Seize de ces détecteurs sont présentement installés dans l’expérience ATLAS (A Toroidal LHC ApparatuS) au CERN (Organisation Européenne pour la Recherche Nucléaire). Ils mesurent en temps réel le champ de radiation dû aux collisions proton-proton, au point d’interaction IP1 (Point d’Interaction 1) du LHC (Grand Collisionneur d’Hadrons). Ces mesures ont divers buts comme par exemple la mesure du champ de neutrons dans la caverne d’ATLAS. Le réseau de détecteurs MPX est complètement indépendant du détecteur ATLAS. Le groupe ATLAS-Montréal s’est intéressé à l’analyse des données récoltées par ces détecteurs pour calculer une valeur de la luminosité du LHC au point de collision des faisceaux, autour duquel est construit le détecteur ATLAS. Cette valeur est déterminée indépendamment de la luminosité mesurée par les divers sous-détecteurs d’ATLAS dédiés spécifiquement à la mesure de la luminosité. Avec l’augmentation de la luminosité du LHC les détecteurs MPX les plus proches du point d’interaction détectent un grand nombre de particules dont les traces sont impossibles à distinguer sur les images ("frames") obtenues, à cause de leur recouvrement. Les paramètres de mesure de certains de ces détecteurs ont été optimisés pour des mesures de luminosité. Une méthode d’analyse des données permet de filtrer les pixels bruyants et de convertir les données des images, qui correspondent à des temps d’exposition propres aux détecteurs MPX, en valeur de luminosité pour chaque LumiBlock. Un LumiBlock est un intervalle de temps de mesure propre au détecteur ATLAS. On a validé les mesures de luminosité premièrement en comparant les résultats obtenus par différents détecteurs MPX, et ensuite en comparant les valeurs de luminosité relevées à celles obtenues par les sous-détecteurs d’ATLAS dédiés spécifiquement à la mesure de la luminosité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La thèse est divisée principalement en deux parties. La première partie regroupe les chapitres 2 et 3. La deuxième partie regroupe les chapitres 4 et 5. La première partie concerne l'échantillonnage de distributions continues non uniformes garantissant un niveau fixe de précision. Knuth et Yao démontrèrent en 1976 comment échantillonner exactement n'importe quelle distribution discrète en n'ayant recours qu'à une source de bits non biaisés indépendants et identiquement distribués. La première partie de cette thèse généralise en quelque sorte la théorie de Knuth et Yao aux distributions continues non uniformes, une fois la précision fixée. Une borne inférieure ainsi que des bornes supérieures pour des algorithmes génériques comme l'inversion et la discrétisation figurent parmi les résultats de cette première partie. De plus, une nouvelle preuve simple du résultat principal de l'article original de Knuth et Yao figure parmi les résultats de cette thèse. La deuxième partie concerne la résolution d'un problème en théorie de la complexité de la communication, un problème qui naquit avec l'avènement de l'informatique quantique. Étant donné une distribution discrète paramétrée par un vecteur réel de dimension N et un réseau de N ordinateurs ayant accès à une source de bits non biaisés indépendants et identiquement distribués où chaque ordinateur possède un et un seul des N paramètres, un protocole distribué est établi afin d'échantillonner exactement ladite distribution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Problématique: Le virus du papillome humain (VPH) est présent dans près de 50% des cancers de l’oropharynx. Le potentiel oncogénique du VPH est encodé dans les oncoprotéines E6 et E7, qui agissent en modulant différents gènes, dont les gènes suppresseurs de tumeur p53 et pRb. Les cellules VPH positives démontrent une altération au niveau de la signalisation de la réponse aux dommages à l’ADN (RDA), un mécanisme de contrôle dans l’arrêt de la croissance des cellules ayant subit des dommages au niveau de leur ADN. Hypothèse et objectifs : Nous croyons que les défauts au niveau de la RDA des cancers VPH positifs peuvent être exploités afin de sensibiliser préférentiellement les cellules cancéreuses aux traitements de radiothérapie. Cette stratégie de recherche nécessite l’élaboration d’un modèle cellulaire de carcinogenèse isogénique pour le cancer de l’oropharynx que nous proposons de développer et de caractériser. L’étude vise à dériver des lignées isogéniques à partir de kératinocytes primaires et cellules épithéliales de l’oropharynx pour ensuite valider la carcinogenèse de notre modèle in vitro & in vivo Méthodologie : Des lignées cellulaires de kératinocytes primaires et de cellules épithéliales de l’oropharynx ont été successivement modifiées par transduction afin de présenter les mutations associées aux cancers de l’oropharynx induits par le VPH. Les cellules ont été modifiées avec des lentivirus codants pour la télomérase (hTERT), les oncogènes E6, E7 et RasV12. Afin de valider la cancérogenèse in vitro de notre modèle, des études d’invasion en matrigel et de croissance sans ancrage en agar mou ont été réalisées. Les populations cellulaires transformées ont été ensuite introduites dans des souris immunodéficientes afin d’évaluer leur tumorogénicité in vivo. Résultats : À partir des plasmides recombinés construits par méthodes de clonage traditionnelle et de recombinaison « Gateway », nous avons produit des lentivirus codants pour la télomérase humaine (hTERT), les oncogènes viraux E6 et E7 et l’oncogène Ras. Les kératinocytes primaires et cellules épithéliales de l’oropharynx ont été infectés successivement par transduction et sélectionnés. Nous avons validé l’expression de nos transgènes par méthode d’immunofluorescence, de Western Blot et de réaction de polymérisation en chaîne quantitative en temps réel (qRT-PCR). Nous avons établi trois lignées des cellules épithéliales de l’oropharynx (HNOE) à partir d’échantillons tissulaires prélevés lors d’amygdalectomie (HNOE42, HNO45, HNOE46). Les cellules transduites avec le lentivirus exprimant le promoteur fort CMV/TO de l’oncogène RasV12 ont présenté un changement morphologique compatible avec une sénescence prématurée induite par l’oncogène Ras. En exprimant des quantités plus faibles du RasV12 mutant, la lignée cellulaire HEKn hTERT-E6-E7 PGK RasV12 a réussi à échapper à la sénescence induite par l’oncogène Ras. La population cellulaire exprimant HEKn hTERT-E6-E7-PGK RasV12 a présenté un phénotype malin en culture et à l’étude d'invasion, mais n’a pas démontré de résultats positifs à l’étude de croissance sans ancrage en agar mou ni en xénogreffe en souris immunodéficientes. Conclusion : Nos résultats démontrent qu’en présence des oncogènes viraux E6 et E7, il y a un troisième mécanisme suppresseur de tumeur qui médie la sénescence induite par l’oncogène Ras. Nous avons identifié que la présence de E6 seule ne suffit pas à immortaliser les kératinocytes primaires humains (HEKn). Nous n’avons pas réussi à créer un modèle in vitro de carcinogenèse pour les cancers de l’oropharynx induits par le VPH.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'oxydoréduction des monocouches auto-assemblées («Self-assembled monolayers ou SAMs) de ferrocenyldodecanethiolates sur une surface d'or (Fc(CH2)12SAu) dans des solutions aqueuses de n-alkyle sulfate de sodium (6, 8, 10 et 12 atomes de carbone) est étudiée par spectroscopie de résonance des plasmons de surface («Surface Plasmons Resonance ou SPR) couplée avec de la voltampérométrie cyclique (VC). La technique SPR est utilisée pour suivre en temps réel l'adsorption des tensioactifs en fonction du potentiel appliqué. Elle permet de quantifier l'épaisseur et le recouvrement des molécules adsorbées pour déterminer l'organisation des tensioactifs anioniques sur la SAM. La VC est utilisée afin de caractériser l'oxydation du groupement ferrocène en présence des n-alkyle sulfate de sodium qui s'associent à la SAM grâce à l'appariement entre le ferrocénium et le groupement sulfate. Des mélanges binaires d'alkylesulfates de différentes compositions sont utilisés dans le but de déterminer l'organisation induite par une réaction d'oxydoréduction. L'effet de la longueur de la chaîne d'hydrocarbures sur la quantité de tensioactifs anioniques adsorbés ainsi que les affinités relatives d'appariement des anions alkyle sulfate aux ferrocéniums sont rapportés dans ce mémoire. Ces surfaces électrosensibles permettront la détection de molécules amphiphiles et la compréhension du comportement de mélanges binaires de tensioactifs. Ainsi, ces travaux apporteront une avancée sur la modulation électrochimique de l'organisation de matériaux sur des substrats solides basée sur l'appariement d'ions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les nanotechnologies appliquées aux sciences pharmaceutiques ont pour but d’améliorer l’administration de molécules actives par l’intermédiaire de transporteurs nanométriques. Parmi les différents types de véhicules proposés pour atteindre ce but, on retrouve les nanoparticules polymériques (NP) constituées de copolymères “en bloc”. Ces copolymères permettent à la fois l’encapsulation de molécules actives et confèrent à la particule certaines propriétés de surface (dont l’hydrophilicité) nécessaires à ses interactions avec les milieux biologiques. L’architecture retenue pour ces copolymères est une structure constituée le plus fréquemment de blocs hydrophiles de poly(éthylène glycol) (PEG) associés de façon linéaire à des blocs hydrophobes de type polyesters. Le PEG est le polymère de choix pour conférer une couronne hydrophile aux NPs et son l’efficacité est directement liée à son organisation et sa densité de surface. Néanmoins, malgré les succès limités en clinique de ces copolymères linéaires, peu de travaux se sont attardés à explorer les effets sur la structure des NPs d’architectures alternatives, tels que les copolymères en peigne ou en brosse. Durant ce travail, plusieurs stratégies ont été mises au point pour la synthèse de copolymères en peigne, possédant un squelette polymérique polyesters-co-éther et des chaines de PEG liées sur les groupes pendants disponibles (groupement hydroxyle ou alcyne). Dans la première partie de ce travail, des réactions d’estérification par acylation et de couplage sur des groupes pendants alcool ont permis le greffage de chaîne de PEG. Cette méthode génère des copolymères en peigne (PEG-g-PLA) possédant de 5 à 50% en poids de PEG, en faisant varier le nombre de chaînes branchées sur un squelette de poly(lactique) (PLA). Les propriétés structurales des NPs produites ont été étudiées par DLS, mesure de charge et MET. Une transition critique se situant autour de 15% de PEG (poids/poids) est observée avec un changement de morphologie, d’une particule solide à une particule molle (“nanoagrégat polymére”). La méthode de greffage ainsi que l’addition probable de chaine de PEG en bout de chaîne principale semblent également avoir un rôle dans les changements observés. L’organisation des chaînes de PEG-g-PLA à la surface a été étudiée par RMN et XPS, méthodes permettant de quantifier la densité de surface en chaînes de PEG. Ainsi deux propriétés clés que sont la résistance à l’agrégation en conditions saline ainsi que la résistance à la liaison aux protéines (étudiée par isothermes d’adsorption et microcalorimétrie) ont été reliées à la densité de surface de PEG et à l’architecture des polymères. Dans une seconde partie de ce travail, le greffage des chaînes de PEG a été réalisé de façon directe par cyclo-adition catalysée par le cuivre de mPEG-N3 sur les groupes pendants alcyne. Cette nouvelle stratégie a été pensée dans le but de comprendre la contribution possible des chaines de PEG greffées à l’extrémité de la chaine de PLA. Cette librairie de PEG-g-PLA, en plus d’être composée de PEG-g-PLA avec différentes densités de greffage, comporte des PEG-g-PLA avec des PEG de différent poids moléculaire (750, 2000 et 5000). Les chaines de PEG sont seulement greffées sur les groupes pendants. Les NPs ont été produites par différentes méthodes de nanoprécipitation, incluant la nanoprécipitation « flash » et une méthode en microfluidique. Plusieurs variables de formulation telles que la concentration du polymère et la vitesse de mélange ont été étudiées afin d’observer leur effet sur les caractéristiques structurales et de surface des NPs. Les tailles et les potentiels de charges sont peu affectés par le contenu en PEG (% poids/poids) et la longueur des chaînes de PEG. Les images de MET montrent des objets sphériques solides et l'on n’observe pas d’objets de type agrégat polymériques, malgré des contenus en PEG comparable à la première bibliothèque de polymère. Une explication possible est l’absence sur ces copolymères en peigne de chaine de PEG greffée en bout de la chaîne principale. Comme attendu, les tailles diminuent avec la concentration du polymère dans la phase organique et avec la diminution du temps de mélange des deux phases, pour les différentes méthodes de préparation. Finalement, la densité de surface des chaînes de PEG a été quantifiée par RMN du proton et XPS et ne dépendent pas de la méthode de préparation. Dans la troisième partie de ce travail, nous avons étudié le rôle de l’architecture du polymère sur les propriétés d’encapsulation et de libération de la curcumine. La curcumine a été choisie comme modèle dans le but de développer une plateforme de livraison de molécules actives pour traiter les maladies du système nerveux central impliquant le stress oxydatif. Les NPs chargées en curcumine, montrent la même transition de taille et de morphologie lorsque le contenu en PEG dépasse 15% (poids/poids). Le taux de chargement en molécule active, l’efficacité de changement et les cinétiques de libérations ainsi que les coefficients de diffusion de la curcumine montrent une dépendance à l’architecture des polymères. Les NPs ne présentent pas de toxicité et n’induisent pas de stress oxydatif lorsque testés in vitro sur une lignée cellulaire neuronale. En revanche, les NPs chargées en curcumine préviennent le stress oxydatif induit dans ces cellules neuronales. La magnitude de cet effet est reliée à l’architecture du polymère et à l’organisation de la NP. En résumé, ce travail a permis de mettre en évidence quelques propriétés intéressantes des copolymères en peigne et la relation intime entre l’architecture des polymères et les propriétés physico-chimiques des NPs. De plus les résultats obtenus permettent de proposer de nouvelles approches pour le design des nanotransporteurs polymériques de molécules actives.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire s'intéresse à la reconstruction d'un modèle 3D à partir de plusieurs images. Le modèle 3D est élaboré avec une représentation hiérarchique de voxels sous la forme d'un octree. Un cube englobant le modèle 3D est calculé à partir de la position des caméras. Ce cube contient les voxels et il définit la position de caméras virtuelles. Le modèle 3D est initialisé par une enveloppe convexe basée sur la couleur uniforme du fond des images. Cette enveloppe permet de creuser la périphérie du modèle 3D. Ensuite un coût pondéré est calculé pour évaluer la qualité de chaque voxel à faire partie de la surface de l'objet. Ce coût tient compte de la similarité des pixels provenant de chaque image associée à la caméra virtuelle. Finalement et pour chacune des caméras virtuelles, une surface est calculée basée sur le coût en utilisant la méthode de SGM. La méthode SGM tient compte du voisinage lors du calcul de profondeur et ce mémoire présente une variation de la méthode pour tenir compte des voxels précédemment exclus du modèle par l'étape d'initialisation ou de creusage par une autre surface. Par la suite, les surfaces calculées sont utilisées pour creuser et finaliser le modèle 3D. Ce mémoire présente une combinaison innovante d'étapes permettant de créer un modèle 3D basé sur un ensemble d'images existant ou encore sur une suite d'images capturées en série pouvant mener à la création d'un modèle 3D en temps réel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les organisations qui s’engagent dans une démarche de responsabilité sociale sont appelées à mieux prendre en considération les impacts environnementaux, sociaux et économiques de leurs activités et à communiquer publiquement les engagements qu’il prennent. Ces engagements sont véhiculés à travers différents médias réalisés par un designer graphique. Comme les notions de responsabilité sociale sont complexes et les engagements uniques à chaque organisation, le designer doit s’assurer de bien comprendre le message à transmettre pour rendre les médias cohérents autant dans leur forme que dans leur contenu. Pour aider le designer à répondre à ce défi, une démarche participative, qui vise la collaboration entre les parties prenantes en amont du processus, a été testée dans le cadre de cette recherche. Elle consistait à observer et à documenter, en contexte de pratique réel, comment une démarche participative pouvait soutenir la communication graphique de la responsabilité sociale d’une organisation. La création de l’identité visuelle et des médias de l’Institut de l’environnement, du développement durable et de l’économie circulaire a été choisi comme cas d’étude. Suivant une méthodologie inspirée de la recherche-action, nous avons pu identifier et valider les freins et les leviers de la démarche avec les participants. Les résultats obtenus soulignent l’apport positif de la démarche au processus de conception. Elle a permis aux parties prenantes de visualiser collectivement les valeurs de RS à communiquer grâce à un partage de connaissances. De plus, le processus itératif et participatif a facilité l’appropriation du projet par l’organisation. Le manque de temps, de ressources humaines et de ressources économiques constituent les principaux freins au maintien de la démarche au-delà de l’étape d’idéation et de rétroaction. L’analyse des données recueillies a permis de formuler des recommandations en vue d’améliorer la démarche pour en favoriser l’usage auprès de la communauté de pratique du design graphique et des organisations qui recourent à ses services pour communiquer leur responsabilité sociale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Campylobacter est l’agent pathogène zoonotique responsable de la majorité des gastro-entérites d’origine bactérienne chez l’homme. Les produits de volaille représentent la principale source d’infection; toutefois, l’exposition peut également découler de contacts directs avec les animaux ou avec l’eau. Une forte variation saisonnière est présente dans les cas rapportés, qui n’est toujours pas élucidée : les eaux environnementales, sources d’infection connues, sont soupçonnées. Cette étude transversale a été réalisée dans la région Sud-Est du Québec (Canada) où Campylobacter fut quantifié et génotypé à partir de différentes sources d’eau (eaux de captage, récréatives et usées) et de cas cliniques afin d’évaluer les risques potentiels posé par l’eau environnementale. Différents essais PCR en temps réel furent appliqués à l’eau environnementale et comparés: 2 ont été sélectionnés pour leur spécificité et sensibilité de quantification. Les courbes standards ont été calibrées en utilisant la PCR digitale pour déterminer précisément les concentrations. Les isolats environnementaux et cliniques furent comparés génétiquement en utilisant le CGF (« comparative genomic fingerprinting »). Les eaux usées étaient plus contaminées que les eaux de captage et récréatives (3.9Log, 1.7Log et 1.0Log cellules/L en moyenne, respectivement). Six pour cent des isolats d’eaux environnementales étaient génétiquement similaires (100 % homologie) aux isolats cliniques. Les cas cliniques de campylobactériose d’été montraient des isolats avec davantage de similarités génétiques avec les isolats retrouvés dans l’eau environnementale comparativement aux autres saisons (p<0.01). Les faibles concentrations et similarités génétiques entre les isolats d’eau et cliniques suggèrent un risque de transmission possible, mais faible.