999 resultados para modèles à volatilité stochastique par fonctions propres


Relevância:

30.00% 30.00%

Publicador:

Resumo:

La sialylation des N-glycanes du fragment Fc des immunogobulines G (IgG) est une modification peu fréquente des IgG humaines. Pourtant, elle est l’objet de beaucoup d’attention depuis que deux articles fondateurs ont été publiés, qui montrent l’un que la sialylation des IgG diminue leur capacité à déclencher la cytotoxicité cellulaire dépendant de l’anticorps (ADCC), et l’autre que les IgG sialylées en α2,6 seraient la fraction efficace des IgG intraveineuses (IgIV) anti-inflammatoires. Les anticorps monoclonaux thérapeutiques, qui sont le plus souvent des IgG recombinantes produites en culture de cellules de mammifère, connaissent depuis la fin des années 90 un succès et une croissance phénoménaux sur le marché pharmaceutique. La maîtrise de la N-glycosylation du Fc des IgG est une clé de l’efficacité des anticorps monoclonaux. Si les IgG sialylées sont des molécules peu fréquentes in vivo, elles sont très rares en culture cellulaire. Dans cette étude, nous avons développé une méthode de production d’IgG avec une sialylation de type humain en cellules CHO. Nous avons travaillé principalement sur la mise au point d’une stratégie de production d’IgG sialylées par co-expression transitoire d’une IgG1 avec la β1,4-galactosyltransférase I (β4GTI) et la β-galactoside-α2,6-sialyltransférase I (ST6GalI). Nous avons montré que cette méthode permettait d’enrichir l’IgG1 en glycane fucosylé di-galactosylé mono-α2,6-sialylé G2FS(6)1, qui est le glycane sialylé présent sur les IgG humaines. Nous avons ensuite adapté cette méthode à la production d’IgG présentant des profils de glycosylation riches en acides sialiques, riches en galactose terminal, et/ou appauvris en fucosylation. L’analyse des profils de glycosylation obtenus par la co-expression de diverses combinaisons enzymatiques avec l’IgG1 native ou une version mutante de l’IgG1 (F243A), a permis de discuter des influences respectives de la sous-galactosylation des IgG1 en CHO et des contraintes structurales du Fc dans la limitation de la sialylation des IgG en CHO. Nous avons ensuite utilisé les IgG1 produites avec différents profils de glycosylation afin d’évaluer l’impact de la sialylation α2,6 sur l’interaction de l’IgG avec le récepteur FcγRIIIa, principal récepteur impliqué dans la réponse ADCC. Nous avons montré que la sialylation α2,6 augmentait la stabilité du complexe formé par l’IgG avec le FcγRIIIa, mais que ce bénéfice n’était pas directement traduit par une augmentation de l’efficacité ADCC de l’anticorps. Enfin, nous avons débuté le développement d’une plateforme d’expression stable d’IgG sialylées compatible avec une production à l’échelle industrielle. Nous avons obtenu une lignée capable de produire des IgG enrichies en G2FS(6)1 à hauteur de 400 mg/L. Cette étude a contribué à une meilleure compréhension de l’impact de la sialylation sur les fonctions effectrices des IgG, et a permis d’augmenter la maîtrise des techniques de modulation du profil de glycosylation des IgG en culture cellulaire.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La Sclérose Latérale Amyotrophique (SLA) est une maladie neurodégénérative qui affecte les neurones moteurs. 10% des cas sont des cas familiaux et l’étude de ces familles a mené à la découverte de plusieurs gènes pouvant causer la SLA, incluant SOD1, TARDBP et FUS. L’expansion de la répétition GGGGCC dans le gène C9orf72 est, à ce jour, la cause la plus connue de SLA. L’impact de cette expansion est encore méconnu et il reste à déterminer si la toxicité est causée par un gain de fonction, une perte de fonction ou les deux. Plusieurs gènes impliqués dans la SLA sont conservés entre le nématode Caenorhabditis elegans et l’humain. C. elegans est un vers transparent fréquemment utilisé pour des études anatomiques, comportementales et génétiques. Il possède une lignée cellulaire invariable qui inclue 302 neurones. Aussi, les mécanismes de réponse au stress ainsi que les mécanismes de vieillissement sont très bien conservés entre ce nématode et l’humain. Donc, notre groupe, et plusieurs autres, ont utilisé C. elegans pour étudier plusieurs aspects de la SLA. Pour mieux comprendre la toxicité causée par l’expansion GGGGCC de C9orf72, nous avons développé deux modèles de vers pour étudier l’impact d’une perte de fonction ainsi que d’un gain de toxicité de l’ARN. Pour voir les conséquences d’une perte de fonction, nous avons étudié l’orthologue de C9orf72 dans C. elegans, alfa-1 (ALS/FTD associated gene homolog). Les vers mutants alfa-1(ok3062) développent des problèmes moteurs causant une paralysie et une dégénérescence spécifique des neurones moteurs GABAergiques. De plus, les mutants sont sensibles au stress osmotique qui provoque une dégénérescence. D’autre part, l’expression de la séquence d’ARN contenant une répétition pathogénique GGGGCC cause aussi des problèmes moteurs et de la dégénérescence affectant les neurones moteurs. Nos résultats suggèrent donc qu’un gain de toxicité de l’ARN ainsi qu’une perte de fonction de C9orf72 sont donc toxiques pour les neurones. Puisque le mouvement du vers peut être rapidement évalué en cultivant les vers dans un milieu liquide, nous avons développé un criblage de molécules pouvant affecter le mouvement des vers mutants alfa-1 en culture liquide. Plus de 4 000 composés ont été évalués et 80 ameliore la mobilité des vers alfa-1. Onze molécules ont aussi été testées dans les vers exprimant l’expansion GGGGCC et huit diminuent aussi le phénotype moteur de ces vers. Finalement, des huit molécules qui diminent la toxicité causée par la perte de fonction de C9orf72 et la toxicité de l’ARN, deux restaurent aussi l’expression anormale de plusieurs transcrits d’ARN observée dans des cellules dérivées de patient C9orf72. Avec ce projet, nous voulons identifier des molécules pouvant affecter tous les modes de toxicité de C9orf72 et possiblement ouvrir de nouvelles avenues thérapeutiques

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La muqueuse intestinale est exposée à des agents oxydants provenant de l’ingestion d’aliments modifiés, de cellules immuno-inflammatoires et de la flore intestinale. Une diète élevée en fruits et légumes peut diminuer le stress oxydant (SOx) ainsi que l’inflammation via plusieurs mécanismes. Ces effets bénéfiques peuvent être attribuables à leur contenu élevé en polyphénols. La première étude de mon doctorat consistait à tester l’hypothèse que les polyphénols extraits de pelures de pomme (DAPP) pouvaient diminuer le stress oxydant et l'inflammation impliqués dans les maladies inflammatoires de l'intestin (MII). Nous avons caractérisé les polyphénols des DAPP par spectrométrie de masse (LC-MS) et examiné leur potentiel antioxydant et anti-inflammatoire au niveau des cellules intestinales. L’identification des structures chimiques des polyphénols a été effectuée par LC-MS. Le SOx a été induit par l’ajout du complexe fer/ascorbate (Fe/Asc, 200 µM/2 mM) et l’inflammation par la lipopolysaccharide (LPS, 200µg/mL) à des cellules intestinales Caco-2/15 pré-incubées avec les DAPP (250 µg/mL). L’effet du SOx est déterminé par le dosage du malondialdéhyde (MDA), de la composition des acides gras polyinsaturés et de l’activité des enzymes antioxydantes endogènes (SOD et GPx). L’impact des DAPP sur l’inflammation a été testé par l’analyse de l’expression des marqueurs inflammatoires: cyclooxygénase-2 (COX-2), le facteur de nécrose tumorale alpha (TNF-a et l’interleukine-6 (IL-6) et les facteurs de transcription NF-KB, Nrf-2 et PGC1α par immunobuvardage. Nos données ont montré que les flavonols et les flavan-3-ols constituent les composés polyphénoliques majoritaires des DAPP. L’ajout de Fer2+/Asc a provoqué une augmentation de la peroxidation lipidique comparativement aux cellules contrôles, un appauvrissement des acides gras polyinsaturés n-3 et n-6, et une modulation des enzymes antioxydantes, se traduisant par une augmentation de l’activité de la SOD et une diminution de la GPx. En contrepartie, les DAPP ont exhibé leur potentiel à corriger la plupart des perturbations, y compris l’expression protéique anormalement élevée du COX-2 et la production de la prostaglandine E2 (PGE2), ainsi que l’inflammation telle que réflétée par les facteurs NF-κB, TNF-α et IL-6. Par ailleurs, les mécanismes sous-jacents à ces changements bénéfiques des DAPP ont fait intervenir les facteurs de transcription antioxydants (Nrf-2, PGC1α). Vraisemblablement, cette première étude a permis de démontrer la capacité des DAPP à amoindrir le SOx et à réduire l’inflammation, deux processus étroitement impliqués dans les MII. Dans la deuxième étape de mon doctorat, nous avons voulu comparer les résultats de DAPP à ceux des polyphénols dérivant de la canneberge qui est considérée par la communauté scientifique comme le fruit ayant le plus fort potentiel antioxydant. À cette fin, nous avons caractérisé l’effet des composés polyphénoliques de la canneberge (CPC) sur le SOx, la défense antioxydante et l’inflammation au niveau intestinal tout en définissant leur métabolisme intraluminal. Les différents CPC ont été séparés selon leur poids moléculaire par chromatographie et leurs structures chimiques ont été identifiées par LC-MS. Suite à une pré-incubation des cellules Caco-2/15 avec les extraits CPC (250 µg/mL), le Fe/Asc et la LPS ont été administrés comme inducteurs du SOx et de l’inflammation, respectivement. La caractérisation globale des CPC a révélé que les acides phénoliques composaient majoritairement l’extrait de canneberge de petit poids moléculaire (LC) alors que les flavonoïdes et les procyanidines dimériques/trimériques représentaient l’extrait de poids moléculaire moyen (MC) tout en laissant les procyanidines oligo et polymériques à l’extrait de haut poids moléculaire (HC). Les CPC ont permis de restaurer la plupart des perturbations engendrées dans les Caco-2/15 par le Fe/Asc et le LPS. Les CPC exhibaient le potentiel d’abaisser les niveaux de MDA, de corriger la composition des acides gras polyinsaturés n-3 et n-6, d’augmenter l’activité des enzymes antioxydantes (SOD, GPx et CAT) et d’élever l’expression de Nrf2 et PGC1α. En outre, les CPC pouvaient aussi réduire les niveaux élevés des protéines inflammatoires COX-2, TNF-α et IL-6 ainsi que la production des PGE2 par un mécanisme impliquant le NF-κB. Au niveau mitochondrial, les procyanidines oligomériques ont réussi à corriger les dysfonctions reliées à la production d’énergie (ATP), l’apoptose (Bcl-2, Cyt C et AIF) et le statut des facteurs de transcription mitochondriaux (mtTFA, mtTFB1, mtTFB2). Dans le but de bien comprendre les mécanismes d’action des CPC, nous avons défini par LC-MS les composés polyphénoliques qui ont été transportés ou absorbés par l’entérocyte. Nos analyses soulignent le transport (i) des acides cinnamiques et benzoïques (LC); (ii) la quercétine glycosylée et conjuguée et les procyanidines dimériques de type A (MC); et (iii) l’épicatéchine et les procyanidines oligomériques (HC). Les processus de métabolisation (méthylation, glucuronidation et sulfatation) au niveau de l’entérocyte ont probablement permis le transport de ces CPC surtout sous leur forme conjuguée. Les procyanidines oligomériques ayant un degré de polymérisation supérieur à 2 (HC) ont semblé adhérer aux cellules Caco-2/15. L’épicatéchine suivi par les procyanidines dimériques de type A ont été trouvés majoritaires au niveau des mitochondries. Même si nous ignorons encore l’action biologique de chaque composé polyphénolique, nous pouvons suggérer que leurs effets combinatoires exercent des fonctions antioxydantes, anti-inflammatoires et mitochondriales dans le modèle intestinal Caco-2/15. Dans une troisième étape, nous avons procédé à l’évaluation des aspects préventifs et thérapeutique des DAPP tout en sondant les mécanismes sous-jacents dans une étude préclinique. À cette fin, nous avons exploité le modèle de souris avec colite expérimentale provoquée par le Dextran Sulfate de Sodium (DSS). L’induction de l’inflammation intestinale chez la souris C57BL6 a été effectuée par l’administration orale de DSS à 2.5% pendant 10 jours. Des doses physiologiques et supra-physiologiques de DAPP (200 et 400 mg/kg/j, respectivement) ont été administrées par gavage pendant 10 jours pré- et post-DSS. L’inflammation par le DSS a provoqué une perte de poids, un raccourcissement du côlon, le décollement dystrophique de l’épithélium, l’exulcération et les infiltrations de cellules mono et polynucléaires au niveau du côlon. De plus, le DSS a induit une augmentation de la peroxidation lipidique, une régulation à la baisse des enzymes antioxydantes, une expression protéique à la hausse de la myéloperoxidase (MPO), du COX-2 et de la production des PGE2. Par ailleurs, les DAPP ont permis de corriger ou du moins d’alléger la plupart de ces anomalies en situation préventive ou thérapeutique, en plus d’abaisser l’expression protéique de NF-κB et des cytokines inflammatoires (TNF-a et l’IL-6) tout en stimulant les facteurs de transcription antioxydants (Nrf-2, PGC1α). Conséquemment, les polyphénols des DAPP ont exhibé leur puissant pouvoir antioxydant et anti-inflammatoire au niveau intestinal dans un modèle in vivo. Leurs actions sont associées à la régulation des voies de signalisation cellulaire et des changements dans la composition du microbiote. Ces trois projets de recherche permettent d’envisager l’évaluation des effets préventifs et thérapeutiques des DAPP cliniquement chez les patients avec des désordres inflammatoires de l’intestin.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les modèles d'optimalité postulent que les animaux en quête de ressources utilisent le taux de gain de valeur adaptative pour optimiser plusieurs comportements tels que la répartition du temps lors de l’exploitation d‘un agrégat et l'investissement en progénitures. Bien que la durée de plusieurs comportements doit être régulée, peu d’évidences de la perception du temps sont actuellement disponibles pour les insectes et aucune pour les guêpes parasitoïdes, et ce malgré leur importance en tant que modèles écologiques. De plus, puisque les guêpes parasitoïdes sont poïkilothermes, cette capacité pourrait être affectée par la température. Nous avons supposé que les guêpes parasitoïdes auraient la capacité de percevoir le temps, à la fois de façon prospective (mesure du temps écoulé) et rétrospective (durée d'un événement passé), afin d'optimiser les décisions liées à l'exploitation d’agrégats d’hôtes et à la reproduction. Nous avons également émis l'hypothèse que la température aurait une incidence sur la perception du temps des guêpes parasitoïdes. Pour la mesure prospective du temps, nous avons utilisé la capacité d’apprentissage associatif de Microplitis croceipes (Hymenoptera: Braconidae). Les guêpes ont été entraînées à associer une odeur à la durée d'un intervalle entre des hôtes. Après leur entraînement, elles ont été testées dans un tunnel de vol avec un choix d’odeurs. Les guêpes ont choisi majoritairement l'odeur associée à l'intervalle de temps auquel elles étaient testées. Nous avons également investigué le rôle de la dépense énergétique sur la mesure du temps. Suite à une restriction de mouvement des guêpes pendant l'intervalle de temps entre les hôtes, elles choisissaient aléatoirement dans le tunnel de vol. L'absence de dépense énergétique les aurait rendues incapables de mesurer le temps. La dépense d'énergie est donc un substitut essentiel pour mesurer le temps. Pour la mesure rétrospective du temps, nous avons utilisé le processus d'évaluation de l'hôte de Trichogramma euproctidis (Hymenoptera: Trichogrammatidae). Certains trichogrammes utilisent la durée du transit initial sur l'œuf hôte afin d’en évaluer la taille et d’ajuster le nombre d’œufs à y pondre. Nous avons augmenté artificiellement la durée de transit initiale de T. euproctidis en suspendant l'œuf hôte pour le faire paraître plus gros qu'un œuf de taille similaire. Une augmentation de la durée de transit initiale a augmenté la taille de la ponte. Ceci démontre la capacité de T. euproctidis de mesurer la durée du transit initial, et donc d’une mesure du temps rétrospective. Pour déterminer si la température modifie la mesure du temps dans les espèces poïkilothermes, nous avons utilisé le comportement d’exploitation d’agrégats d’hôtes de T. euproctidis. Les modèles d’optimalités prédisent que les guêpes devraient rester plus longtemps et quitter à un faible taux de gain de valeur adaptative suite à un déplacement de longue durée plutôt que pour un déplacement de courte durée. Nous avons testé l'impact d'un déplacement de 24 h à différentes températures sur l'exploitation d’agrégats d’hôtes. Un déplacement à température chaude augmente le temps de résidence dans l’agrégat et diminue le taux de gain de valeur adaptative au moment de quitter ; ces comportements sont associés à un trajet de longue durée. L'inverse a été observé lors d’un déplacement à une température froide. Les températures chaude et froide ont modulé la mesure du temps en accélérant ou ralentissant l'horloge biologique, faisant paraître le déplacement respectivement plus long ou plus court qu’il ne l’était réellement. Ces résultats démontrent clairement que les guêpes parasitoïdes ont la capacité de mesurer le temps, autant rétrospectivement que prospectivement. Des preuves directes de leur capacité sont maintenant disponibles pour au moins deux espèces de guêpes parasitoïdes, une composante essentielle des modèles d'optimalité. Le rôle de la dépense énergétique dans la mesure du temps a aussi été démontré. Nos résultats fournissent également la preuve de l'impact de la température sur la perception du temps chez les insectes. L'utilisation de la dépense énergétique en tant que proxy pour mesurer le temps pourrait expliquer une partie de sa thermosensibilité, puisque les guêpes parasitoïdes sont poïkilothermes. Cette mesure du temps sensible à la température pourrait affecter des stratégies de lutte biologique. Sur le terrain, au début de la journée, la température de l'air sera similaire à la température de l'air autour des plantes infestées par des parasites, alors qu'elle sera plus chaude pendant la journée. En lutte biologique augmentative, les guêpes parasitoïdes libérées resteraient plus longtemps dans les agrégats d’hôtes que celles relâchées en début de journée.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse se compose de trois articles sur les politiques budgétaires et monétaires optimales. Dans le premier article, J'étudie la détermination conjointe de la politique budgétaire et monétaire optimale dans un cadre néo-keynésien avec les marchés du travail frictionnels, de la monnaie et avec distortion des taux d'imposition du revenu du travail. Dans le premier article, je trouve que lorsque le pouvoir de négociation des travailleurs est faible, la politique Ramsey-optimale appelle à un taux optimal d'inflation annuel significativement plus élevé, au-delà de 9.5%, qui est aussi très volatile, au-delà de 7.4%. Le gouvernement Ramsey utilise l'inflation pour induire des fluctuations efficaces dans les marchés du travail, malgré le fait que l'évolution des prix est coûteuse et malgré la présence de la fiscalité du travail variant dans le temps. Les résultats quantitatifs montrent clairement que le planificateur s'appuie plus fortement sur l'inflation, pas sur l'impôts, pour lisser les distorsions dans l'économie au cours du cycle économique. En effet, il ya un compromis tout à fait clair entre le taux optimal de l'inflation et sa volatilité et le taux d'impôt sur le revenu optimal et sa variabilité. Le plus faible est le degré de rigidité des prix, le plus élevé sont le taux d'inflation optimal et la volatilité de l'inflation et le plus faible sont le taux d'impôt optimal sur le revenu et la volatilité de l'impôt sur le revenu. Pour dix fois plus petit degré de rigidité des prix, le taux d'inflation optimal et sa volatilité augmentent remarquablement, plus de 58% et 10%, respectivement, et le taux d'impôt optimal sur le revenu et sa volatilité déclinent de façon spectaculaire. Ces résultats sont d'une grande importance étant donné que dans les modèles frictionnels du marché du travail sans politique budgétaire et monnaie, ou dans les Nouveaux cadres keynésien même avec un riche éventail de rigidités réelles et nominales et un minuscule degré de rigidité des prix, la stabilité des prix semble être l'objectif central de la politique monétaire optimale. En l'absence de politique budgétaire et la demande de monnaie, le taux d'inflation optimal tombe très proche de zéro, avec une volatilité environ 97 pour cent moins, compatible avec la littérature. Dans le deuxième article, je montre comment les résultats quantitatifs impliquent que le pouvoir de négociation des travailleurs et les coûts de l'aide sociale de règles monétaires sont liées négativement. Autrement dit, le plus faible est le pouvoir de négociation des travailleurs, le plus grand sont les coûts sociaux des règles de politique monétaire. Toutefois, dans un contraste saisissant par rapport à la littérature, les règles qui régissent à la production et à l'étroitesse du marché du travail entraînent des coûts de bien-être considérablement plus faible que la règle de ciblage de l'inflation. C'est en particulier le cas pour la règle qui répond à l'étroitesse du marché du travail. Les coûts de l'aide sociale aussi baisse remarquablement en augmentant la taille du coefficient de production dans les règles monétaires. Mes résultats indiquent qu'en augmentant le pouvoir de négociation du travailleur au niveau Hosios ou plus, les coûts de l'aide sociale des trois règles monétaires diminuent significativement et la réponse à la production ou à la étroitesse du marché du travail n'entraîne plus une baisse des coûts de bien-être moindre que la règle de ciblage de l'inflation, qui est en ligne avec la littérature existante. Dans le troisième article, je montre d'abord que la règle Friedman dans un modèle monétaire avec une contrainte de type cash-in-advance pour les entreprises n’est pas optimale lorsque le gouvernement pour financer ses dépenses a accès à des taxes à distorsion sur la consommation. Je soutiens donc que, la règle Friedman en présence de ces taxes à distorsion est optimale si nous supposons un modèle avec travaie raw-efficace où seule le travaie raw est soumis à la contrainte de type cash-in-advance et la fonction d'utilité est homothétique dans deux types de main-d'oeuvre et séparable dans la consommation. Lorsque la fonction de production présente des rendements constants à l'échelle, contrairement au modèle des produits de trésorerie de crédit que les prix de ces deux produits sont les mêmes, la règle Friedman est optimal même lorsque les taux de salaire sont différents. Si la fonction de production des rendements d'échelle croissant ou decroissant, pour avoir l'optimalité de la règle Friedman, les taux de salaire doivent être égales.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les maladies cardiovasculaires sont la première cause de mortalité dans le monde et les anévrismes de l’aorte abdominale (AAAs) font partie de ce lot déplorable. Un anévrisme est la dilatation d’une artère pouvant conduire à la mort. Une rupture d’AAA s’avère fatale près de 80% du temps. Un moyen de traiter les AAAs est l’insertion d’une endoprothèse (SG) dans l’aorte, communément appelée la réparation endovasculaire (EVAR), afin de réduire la pression exercée par le flux sanguin sur la paroi. L’efficacité de ce traitement est compromise par la survenue d’endofuites (flux sanguins entre la prothèse et le sac anévrismal) pouvant conduire à la rupture de l’anévrisme. Ces flux sanguins peuvent survenir à n’importe quel moment après le traitement EVAR. Une surveillance par tomodensitométrie (CT-scan) annuelle est donc requise, augmentant ainsi le coût du suivi post-EVAR et exposant le patient à la radiation ionisante et aux complications des contrastes iodés. L’endotension est le concept de dilatation de l’anévrisme sans la présence d’une endofuite apparente au CT-scan. Après le traitement EVAR, le sang dans le sac anévrismal coagule pour former un thrombus frais, qui deviendra progressivement un thrombus plus fibreux et plus organisé, donnant lieu à un rétrécissement de l’anévrisme. Il y a très peu de données dans la littérature pour étudier ce processus temporel et la relation entre le thrombus frais et l’endotension. L’étalon d’or du suivi post-EVAR, le CT-scan, ne peut pas détecter la présence de thrombus frais. Il y a donc un besoin d’investir dans une technique sécuritaire et moins coûteuse pour le suivi d’AAAs après EVAR. Une méthode récente, l’élastographie dynamique, mesure l’élasticité des tissus en temps réel. Le principe de cette technique repose sur la génération d’ondes de cisaillement et l’étude de leur propagation afin de remonter aux propriétés mécaniques du milieu étudié. Cette thèse vise l’application de l’élastographie dynamique pour la détection des endofuites ainsi que de la caractérisation mécanique des tissus du sac anévrismal après le traitement EVAR. Ce projet dévoile le potentiel de l’élastographie afin de réduire les dangers de la radiation, de l’utilisation d’agent de contraste ainsi que des coûts du post-EVAR des AAAs. L’élastographie dynamique utilisant le « Shear Wave Imaging » (SWI) est prometteuse. Cette modalité pourrait complémenter l’échographie-Doppler (DUS) déjà utilisée pour le suivi d’examen post-EVAR. Le SWI a le potentiel de fournir des informations sur l’organisation fibreuse du thrombus ainsi que sur la détection d’endofuites. Tout d’abord, le premier objectif de cette thèse consistait à tester le SWI sur des AAAs dans des modèles canins pour la détection d’endofuites et la caractérisation du thrombus. Des SGs furent implantées dans un groupe de 18 chiens avec un anévrisme créé au moyen de la veine jugulaire. 4 anévrismes avaient une endofuite de type I, 13 avaient une endofuite de type II et un anévrisme n’avait pas d’endofuite. Des examens échographiques, DUS et SWI ont été réalisés à l’implantation, puis 1 semaine, 1 mois, 3 mois et 6 mois après le traitement EVAR. Une angiographie, un CT-scan et des coupes macroscopiques ont été produits au sacrifice. Les régions d’endofuites, de thrombus frais et de thrombus organisé furent identifiées et segmentées. Les valeurs de rigidité données par le SWI des différentes régions furent comparées. Celles-ci furent différentes de façon significative (P < 0.001). Également, le SWI a pu détecter la présence d’endofuites où le CT-scan (1) et le DUS (3) ont échoué. Dans la continuité de ces travaux, le deuxième objectif de ce projet fut de caractériser l’évolution du thrombus dans le temps, de même que l’évolution des endofuites après embolisation dans des modèles canins. Dix-huit anévrismes furent créés dans les artères iliaques de neuf modèles canins, suivis d’une endofuite de type I après EVAR. Deux gels embolisants (Chitosan (Chi) ou Chitosan-Sodium-Tetradecyl-Sulfate (Chi-STS)) furent injectés dans le sac anévrismal pour promouvoir la guérison. Des examens échographiques, DUS et SWI ont été effectués à l’implantation et après 1 semaine, 1 mois, 3 mois et 6 mois. Une angiographie, un CT-scan et un examen histologique ont été réalisés au sacrifice afin d’évaluer la présence, le type et la grosseur de l’endofuite. Les valeurs du module d’élasticité des régions d’intérêts ont été identifiées et segmentées sur les données pathologiques. Les régions d’endofuites et de thrombus frais furent différentes de façon significative comparativement aux autres régions (P < 0.001). Les valeurs d’élasticité du thrombus frais à 1 semaine et à 3 mois indiquent que le SWI peut évaluer la maturation du thrombus, de même que caractériser l’évolution et la dégradation des gels embolisants dans le temps. Le SWI a pu détecter des endofuites où le DUS a échoué (2) et, contrairement au CT-scan, détecter la présence de thrombus frais. Finalement, la dernière étape du projet doctoral consistait à appliquer le SWI dans une phase clinique, avec des patients humains ayant déjà un AAA, pour la détection d’endofuite et la caractérisation de l’élasticité des tissus. 25 patients furent sélectionnés pour participer à l’étude. Une comparaison d’imagerie a été produite entre le SWI, le CT-scan et le DUS. Les valeurs de rigidité données par le SWI des différentes régions (endofuite, thrombus) furent identifiées et segmentées. Celles-ci étaient distinctes de façon significative (P < 0.001). Le SWI a détecté 5 endofuites sur 6 (sensibilité de 83.3%) et a eu 6 faux positifs (spécificité de 76%). Le SWI a pu détecter la présence d’endofuites où le CT-scan (2) ainsi que le DUS (2) ont échoué. Il n’y avait pas de différence statistique notable entre la rigidité du thrombus pour un AAA avec endofuite et un AAA sans endofuite. Aucune corrélation n’a pu être établie de façon significative entre les diamètres des AAAs ainsi que leurs variations et l’élasticité du thrombus. Le SWI a le potentiel de détecter les endofuites et caractériser le thrombus selon leurs propriétés mécaniques. Cette technique pourrait être combinée au suivi des AAAs post-EVAR, complémentant ainsi l’imagerie DUS et réduisant le coût et l’exposition à la radiation ionisante et aux agents de contrastes néphrotoxiques.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse développe des méthodes bootstrap pour les modèles à facteurs qui sont couram- ment utilisés pour générer des prévisions depuis l'article pionnier de Stock et Watson (2002) sur les indices de diffusion. Ces modèles tolèrent l'inclusion d'un grand nombre de variables macroéconomiques et financières comme prédicteurs, une caractéristique utile pour inclure di- verses informations disponibles aux agents économiques. Ma thèse propose donc des outils éco- nométriques qui améliorent l'inférence dans les modèles à facteurs utilisant des facteurs latents extraits d'un large panel de prédicteurs observés. Il est subdivisé en trois chapitres complémen- taires dont les deux premiers en collaboration avec Sílvia Gonçalves et Benoit Perron. Dans le premier article, nous étudions comment les méthodes bootstrap peuvent être utilisées pour faire de l'inférence dans les modèles de prévision pour un horizon de h périodes dans le futur. Pour ce faire, il examine l'inférence bootstrap dans un contexte de régression augmentée de facteurs où les erreurs pourraient être autocorrélées. Il généralise les résultats de Gonçalves et Perron (2014) et propose puis justifie deux approches basées sur les résidus : le block wild bootstrap et le dependent wild bootstrap. Nos simulations montrent une amélioration des taux de couverture des intervalles de confiance des coefficients estimés en utilisant ces approches comparativement à la théorie asymptotique et au wild bootstrap en présence de corrélation sérielle dans les erreurs de régression. Le deuxième chapitre propose des méthodes bootstrap pour la construction des intervalles de prévision permettant de relâcher l'hypothèse de normalité des innovations. Nous y propo- sons des intervalles de prédiction bootstrap pour une observation h périodes dans le futur et sa moyenne conditionnelle. Nous supposons que ces prévisions sont faites en utilisant un ensemble de facteurs extraits d'un large panel de variables. Parce que nous traitons ces facteurs comme latents, nos prévisions dépendent à la fois des facteurs estimés et les coefficients de régres- sion estimés. Sous des conditions de régularité, Bai et Ng (2006) ont proposé la construction d'intervalles asymptotiques sous l'hypothèse de Gaussianité des innovations. Le bootstrap nous permet de relâcher cette hypothèse et de construire des intervalles de prédiction valides sous des hypothèses plus générales. En outre, même en supposant la Gaussianité, le bootstrap conduit à des intervalles plus précis dans les cas où la dimension transversale est relativement faible car il prend en considération le biais de l'estimateur des moindres carrés ordinaires comme le montre une étude récente de Gonçalves et Perron (2014). Dans le troisième chapitre, nous suggérons des procédures de sélection convergentes pour les regressions augmentées de facteurs en échantillons finis. Nous démontrons premièrement que la méthode de validation croisée usuelle est non-convergente mais que sa généralisation, la validation croisée «leave-d-out» sélectionne le plus petit ensemble de facteurs estimés pour l'espace généré par les vraies facteurs. Le deuxième critère dont nous montrons également la validité généralise l'approximation bootstrap de Shao (1996) pour les regressions augmentées de facteurs. Les simulations montrent une amélioration de la probabilité de sélectionner par- cimonieusement les facteurs estimés comparativement aux méthodes de sélection disponibles. L'application empirique revisite la relation entre les facteurs macroéconomiques et financiers, et l'excès de rendement sur le marché boursier américain. Parmi les facteurs estimés à partir d'un large panel de données macroéconomiques et financières des États Unis, les facteurs fortement correlés aux écarts de taux d'intérêt et les facteurs de Fama-French ont un bon pouvoir prédictif pour les excès de rendement.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

À la fin du 19e siècle, Dr. Ramón y Cajal, un pionnier scientifique, a découvert les éléments cellulaires individuels, appelés neurones, composant le système nerveux. Il a également remarqué la complexité de ce système et a mentionné l’impossibilité de ces nouveaux neurones à être intégrés dans le système nerveux adulte. Une de ses citations reconnues : “Dans les centres adultes, les chemins nerveux sont fixes, terminés, immuables. Tout doit mourir, rien ne peut être régénérer” est représentative du dogme de l’époque (Ramón y Cajal 1928). D’importantes études effectuées dans les années 1960-1970 suggèrent un point de vue différent. Il a été démontré que les nouveaux neurones peuvent être générés à l’âge adulte, mais cette découverte a créé un scepticisme omniprésent au sein de la communauté scientifique. Il a fallu 30 ans pour que le concept de neurogenèse adulte soit largement accepté. Cette découverte, en plus de nombreuses avancées techniques, a ouvert la porte à de nouvelles cibles thérapeutiques potentielles pour les maladies neurodégénératives. Les cellules souches neurales (CSNs) adultes résident principalement dans deux niches du cerveau : la zone sous-ventriculaire des ventricules latéraux et le gyrus dentelé de l’hippocampe. En condition physiologique, le niveau de neurogenèse est relativement élevé dans la zone sous-ventriculaire contrairement à l’hippocampe où certaines étapes sont limitantes. En revanche, la moelle épinière est plutôt définie comme un environnement en quiescence. Une des principales questions qui a été soulevée suite à ces découvertes est : comment peut-on activer les CSNs adultes afin d’augmenter les niveaux de neurogenèse ? Dans l’hippocampe, la capacité de l’environnement enrichi (incluant la stimulation cognitive, l’exercice et les interactions sociales) à promouvoir la neurogenèse hippocampale a déjà été démontrée. La plasticité de cette région est importante, car elle peut jouer un rôle clé dans la récupération de déficits au niveau de la mémoire et l’apprentissage. Dans la moelle épinière, des études effectuées in vitro ont démontré que les cellules épendymaires situées autour du canal central ont des capacités d’auto-renouvellement et de multipotence (neurones, astrocytes, oligodendrocytes). Il est intéressant de noter qu’in vivo, suite à une lésion de la moelle épinière, les cellules épendymaires sont activées, peuvent s’auto-renouveller, mais peuvent seulement ii donner naissance à des cellules de type gliale (astrocytes et oligodendrocytes). Cette nouvelle fonction post-lésion démontre que la plasticité est encore possible dans un environnement en quiescence et peut être exploité afin de développer des stratégies de réparation endogènes dans la moelle épinière. Les CSNs adultes jouent un rôle important dans le maintien des fonctions physiologiques du cerveau sain et dans la réparation neuronale suite à une lésion. Cependant, il y a peu de données sur les mécanismes qui permettent l'activation des CSNs en quiescence permettant de maintenir ces fonctions. L'objectif général est d'élucider les mécanismes sous-jacents à l'activation des CSNs dans le système nerveux central adulte. Pour répondre à cet objectif, nous avons mis en place deux approches complémentaires chez les souris adultes : 1) L'activation des CSNs hippocampales par l'environnement enrichi (EE) et 2) l'activation des CSNs de la moelle épinière par la neuroinflammation suite à une lésion. De plus, 3) afin d’obtenir plus d’information sur les mécanismes moléculaires de ces modèles, nous utiliserons des approches transcriptomiques afin d’ouvrir de nouvelles perspectives. Le premier projet consiste à établir de nouveaux mécanismes cellulaires et moléculaires à travers lesquels l’environnement enrichi module la plasticité du cerveau adulte. Nous avons tout d’abord évalué la contribution de chacune des composantes de l’environnement enrichi à la neurogenèse hippocampale (Chapitre II). L’exercice volontaire promeut la neurogenèse, tandis que le contexte social augmente l’activation neuronale. Par la suite, nous avons déterminé l’effet de ces composantes sur les performances comportementales et sur le transcriptome à l’aide d’un labyrinthe radial à huit bras afin d’évaluer la mémoire spatiale et un test de reconnaissante d’objets nouveaux ainsi qu’un RNA-Seq, respectivement (Chapitre III). Les coureurs ont démontré une mémoire spatiale de rappel à court-terme plus forte, tandis que les souris exposées aux interactions sociales ont eu une plus grande flexibilité cognitive à abandonner leurs anciens souvenirs. Étonnamment, l’analyse du RNA-Seq a permis d’identifier des différences claires dans l’expression des transcripts entre les coureurs de courte et longue distance, en plus des souris sociales (dans l’environnement complexe). iii Le second projet consiste à découvrir comment les cellules épendymaires acquièrent les propriétés des CSNs in vitro ou la multipotence suite aux lésions in vivo (Chapitre IV). Une analyse du RNA-Seq a révélé que le transforming growth factor-β1 (TGF-β1) agit comme un régulateur, en amont des changements significatifs suite à une lésion de la moelle épinière. Nous avons alors confirmé la présence de cette cytokine suite à la lésion et caractérisé son rôle sur la prolifération, différentiation, et survie des cellules initiatrices de neurosphères de la moelle épinière. Nos résultats suggèrent que TGF-β1 régule l’acquisition et l’expression des propriétés de cellules souches sur les cellules épendymaires provenant de la moelle épinière.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La description des termes dans les ressources terminologiques traditionnelles se limite à certaines informations, comme le terme (principalement nominal), sa définition et son équivalent dans une langue étrangère. Cette description donne rarement d’autres informations qui peuvent être très utiles pour l’utilisateur, surtout s’il consulte les ressources dans le but d’approfondir ses connaissances dans un domaine de spécialité, maitriser la rédaction professionnelle ou trouver des contextes où le terme recherché est réalisé. Les informations pouvant être utiles dans ce sens comprennent la description de la structure actancielle des termes, des contextes provenant de sources authentiques et l’inclusion d’autres parties du discours comme les verbes. Les verbes et les noms déverbaux, ou les unités terminologiques prédicatives (UTP), souvent ignorés par la terminologie classique, revêtent une grande importance lorsqu’il s’agit d’exprimer une action, un processus ou un évènement. Or, la description de ces unités nécessite un modèle de description terminologique qui rend compte de leurs particularités. Un certain nombre de terminologues (Condamines 1993, Mathieu-Colas 2002, Gross et Mathieu-Colas 2001 et L’Homme 2012, 2015) ont d’ailleurs proposé des modèles de description basés sur différents cadres théoriques. Notre recherche consiste à proposer une méthodologie de description terminologique des UTP de la langue arabe, notamment l’arabe standard moderne (ASM), selon la théorie de la Sémantique des cadres (Frame Semantics) de Fillmore (1976, 1977, 1982, 1985) et son application, le projet FrameNet (Ruppenhofer et al. 2010). Le domaine de spécialité qui nous intéresse est l’informatique. Dans notre recherche, nous nous appuyons sur un corpus recueilli du web et nous nous inspirons d’une ressource terminologique existante, le DiCoInfo (L’Homme 2008), pour compiler notre propre ressource. Nos objectifs se résument comme suit. Premièrement, nous souhaitons jeter les premières bases d’une version en ASM de cette ressource. Cette version a ses propres particularités : 1) nous visons des unités bien spécifiques, à savoir les UTP verbales et déverbales; 2) la méthodologie développée pour la compilation du DiCoInfo original devra être adaptée pour prendre en compte une langue sémitique. Par la suite, nous souhaitons créer une version en cadres de cette ressource, où nous regroupons les UTP dans des cadres sémantiques, en nous inspirant du modèle de FrameNet. À cette ressource, nous ajoutons les UTP anglaises et françaises, puisque cette partie du travail a une portée multilingue. La méthodologie consiste à extraire automatiquement les unités terminologiques verbales et nominales (UTV et UTN), comme Ham~ala (حمل) (télécharger) et taHmiyl (تحميل) (téléchargement). Pour ce faire, nous avons adapté un extracteur automatique existant, TermoStat (Drouin 2004). Ensuite, à l’aide des critères de validation terminologique (L’Homme 2004), nous validons le statut terminologique d’une partie des candidats. Après la validation, nous procédons à la création de fiches terminologiques, à l’aide d’un éditeur XML, pour chaque UTV et UTN retenue. Ces fiches comprennent certains éléments comme la structure actancielle des UTP et jusqu’à vingt contextes annotés. La dernière étape consiste à créer des cadres sémantiques à partir des UTP de l’ASM. Nous associons également des UTP anglaises et françaises en fonction des cadres créés. Cette association a mené à la création d’une ressource terminologique appelée « DiCoInfo : A Framed Version ». Dans cette ressource, les UTP qui partagent les mêmes propriétés sémantiques et structures actancielles sont regroupées dans des cadres sémantiques. Par exemple, le cadre sémantique Product_development regroupe des UTP comme Taw~ara (طور) (développer), to develop et développer. À la suite de ces étapes, nous avons obtenu un total de 106 UTP ASM compilées dans la version en ASM du DiCoInfo et 57 cadres sémantiques associés à ces unités dans la version en cadres du DiCoInfo. Notre recherche montre que l’ASM peut être décrite avec la méthodologie que nous avons mise au point.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les gènes, qui servent à encoder les fonctions biologiques des êtres vivants, forment l'unité moléculaire de base de l'hérédité. Afin d'expliquer la diversité des espèces que l'on peut observer aujourd'hui, il est essentiel de comprendre comment les gènes évoluent. Pour ce faire, on doit recréer le passé en inférant leur phylogénie, c'est-à-dire un arbre de gènes qui représente les liens de parenté des régions codantes des vivants. Les méthodes classiques d'inférence phylogénétique ont été élaborées principalement pour construire des arbres d'espèces et ne se basent que sur les séquences d'ADN. Les gènes sont toutefois riches en information, et on commence à peine à voir apparaître des méthodes de reconstruction qui utilisent leurs propriétés spécifiques. Notamment, l'histoire d'une famille de gènes en terme de duplications et de pertes, obtenue par la réconciliation d'un arbre de gènes avec un arbre d'espèces, peut nous permettre de détecter des faiblesses au sein d'un arbre et de l'améliorer. Dans cette thèse, la réconciliation est appliquée à la construction et la correction d'arbres de gènes sous trois angles différents: 1) Nous abordons la problématique de résoudre un arbre de gènes non-binaire. En particulier, nous présentons un algorithme en temps linéaire qui résout une polytomie en se basant sur la réconciliation. 2) Nous proposons une nouvelle approche de correction d'arbres de gènes par les relations d'orthologie et paralogie. Des algorithmes en temps polynomial sont présentés pour les problèmes suivants: corriger un arbre de gènes afin qu'il contienne un ensemble d'orthologues donné, et valider un ensemble de relations partielles d'orthologie et paralogie. 3) Nous montrons comment la réconciliation peut servir à "combiner'' plusieurs arbres de gènes. Plus précisément, nous étudions le problème de choisir un superarbre de gènes selon son coût de réconciliation.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans les dernières années, les études sur les maladies neurodégénératives telles que la maladie d’Alzheimer (MA) et la maladie de Parkinson sans démence (MP) et avec démence (MPD) ont été nombreuses, mais la différenciation de ces patients sur la base de leur profil cognitif doit être encore améliorée. Effectivement, l’évaluation clinique peut s’avérer difficile en raison du peu de spécificité dans la présentation de leurs déficits neuropsychologiques. Ceci s’explique par la variabilité et le chevauchement des processus cliniques et pathologiques affectant essentiellement les mêmes régions/fonctions, soit celles liées aux lobes temporaux médians (LTM)/Mémoire (fonction LTM/Mémoire) et aux lobes frontaux (LF)/Fonctions exécutives (fonction LF/Exécutive). Toutefois, il existerait une distinction critique au niveau de l’intégrité relative de ces fonctions dans ces maladies neurodégénératives, ce qui permettrait d’identifier des déficits cognitifs spécifiques à la MA, la MP et la MPD. La présente thèse s’inscrit dans cette volonté de caractériser les profils cognitifs propres à la MA, la MP et la MPD, plus précisément par l’étude novatrice de la mémoire de source et des faux souvenirs. Les quatre chapitres qui composent cette thèse servent donc à documenter la nature de ces mécanismes mnésiques, leurs patrons de performance spécifiques dans la MA, la MP et la MPD, et leur sensibilité aux atteintes des fonctions LTM/Mémoire et LF/Exécutive. Ainsi, le Chapitre I démontre la pertinence d’étudier la mémoire de source et les faux souvenirs dans la MA, la MP et la MPD, en décrivant leurs interactions avec les fonctions LTM/Mémoire et LF/Exécutive, toutes les deux atteintes dans ces maladies. Le Chapitre II, présenté sous forme d’article, révèle des déficits en mémoire de source chez des patients MP, mais seulement dans l’une des tâches employées. Également, malgré des atteintes des fonctions LF/Exécutive et LTM/Mémoire, il est démontré que seule la fonction LTM/Mémoire est liée à l’altération de la mémoire de source chez les patients MP. Le Chapitre III, également sous forme d’article, illustre un taux anormal de faux souvenirs chez des patients MA, tandis que chez des patients MP et MPD, il est démontré qu’ils ont un taux de faux souvenirs comparable à celui des participants contrôles. Il est également rapporté que malgré l’atteinte de la fonction LF/Exécutive chez les patients MA, MP et MPD, elle est seulement liée à l’augmentation des faux souvenirs chez les patients MA. Finalement, dans le dernier Chapitre (IV), les résultats obtenus sont discutés dans leur ensemble à la lumière des prédictions et connaissances actuelles, tout en identifiant les limites afin d’orienter les perspectives de recherche.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L étude se fonde sur la recherche du processus inhérent à la conception du projet par le biais de l approche architecturologique proposée par Philippe Boudon et al (2000) ; un modèle théorique qui sert de fondement à la construction d une connaissance de l architecture au moyen d une étude de la nature des opérations mentales de chaque architecte lorsqu il organise son travail de conception. La modélisation de l architecturologie concentre son étude sur le travail qui a lieu avant même la confection matérielle du projet (représentation graphique finale). De cette façon, douze projets furent analysés d architecture résidencielle unifamiliale; conçus récemment par six architectes « potiguares » pour Natal et sa région périphérique. Les résultats mettent en évidence un ensemble de modèles substrats (comme point de départ) et téléologiques (comme point d arrivée) adoptés par les auteurs au cours de la conception de leurs projets. Ces modèles, de façon générale, sont liés aux pertinences socio-culturelles (conventions, formes traditionnelles ou coutumes) du contexte pour lesquels ils sont conçus (lotissements privés de co-propriété des classes moyennes et moyennes-supérieures) et en même temps, ils sont le fruit de croyances, d idéologies et d expériences antérieures propres à l espace de la conception de chaque architecte

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’émergence du postmodernisme aux Etats-unis, mouvement esthétique rejetant les dogmes modernistes, date des années 1960. En s’imposant, durant les dernières décennies du 20ème siècle, comme le paradigme esthétique de l’architecture, des arts et de la littérature, le postmodernisme a également créé les conditions propres à une renaissance du roman historique. Cependant, la fiction historique postmoderne constitue maintenant une nouvelle forme du genre basée sur la parodie, l’ironie et le scepticisme envers les discours dominants. Cette nouvelle forme ne se limite plus à la présentation des récits dans un cadre historique réaliste. Elle remet plutôt en question la validité et par conséquent la nature même du discours historique, problématisant et mettant ainsi à l’avant le processus d’interprétation et de reconstruction du passé. Dans cette optique, la fiction historique contemporaine reflète les débats actuels sur les formes de l’historiographie, débats lancés par Hayden White. Dans les années 1980, la fiction historique a de nouveau fleuri dans l'espace culturel allemand tout comme ailleurs. Le présent mémoire analyse des formes postmodernes de la fiction historique en se basant sur trois romans historiques de langue allemande parus entre 1981 et 2005: Die Schrecken des Eises und der Finsternis de Christoph Ransmayr, Die Vermessung der Welt de Daniel Kehlmann et Marbot : Eine Biographie de Wolfgang Hildesheimer. L’analyse s'appuie sur divers modèles de la fiction postmoderne, en particulier sur le schéma de catégorisation du roman historique élaboré par Ansgar Nünning. Le mémoire montre dans quelle mesure ces romans appliquent des moyens stylistiques typiques pour le postmodernisme et portent un regard critique ou comique sur l’histoire et la culture allemande et autrichienne.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les patients atteints de maladies inflammatoires de l'intestin (MII) ont un risque accru de développer un cancer colorectal dû aux lésions épithéliales secondaires à l’inflammation chronique. La vitamine D (vD) régule NOD2, gène impliqué dans la réponse inflammatoire et dans la susceptibilité aux MII, et induit son expression dans les monocytes et dans l’épithélium intestinal. Dans ce projet, nous avons d’abord induit le cancer colorectal associé à la colite ulcéreuse (CAC) en administrant un traitement combiné d’azoxyméthane (AOM) et de dextran de sulfate de sodium (DSS) aux souris C57BL/6J. Par la suite, nous avons étudié l'effet d’une carence en vD3 sur le développement du CAC et évalué la capacité préventive d’une supplémentation en vD3 sur la tumorigenèse, et vérifié si cet effet est médié par NOD2, en utilisant les souris Nod2-/-. Les C57BL/6J et les Nod2-/-, ayant reçu une diète déficiente en vD3, étaient moins résistantes au CAC par rapport aux souris supplémentées. Le pourcentage de perte de poids, l’indice d’activation de la maladie (DAI), le taux de mortalité et le poids relatif du côlon (mg/cm) chez les souris déficientes en vD3 étaient plus élevés en comparaison avec celles supplémentées en vD3. Une augmentation du score d'inflammation et de la multiplicité tumorale corrélait avec une expression accentuée de l’Il6 dans les colonocytes des souris déficientes en vD3. La vD3 régulait l’expression génétique de Cyp24, Vdr et de gènes pro-inflammatoires chez les C57BL/6, comme chez les Nod2-/-. En conclusion, la supplémentation en vD3 peut prévenir le développement du CAC indépendamment de NOD2.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cet essai est présenté en tant que mémoire de maîtrise dans le cadre du programme de droit des technologies de l’information. Ce mémoire traite de différents modèles d’affaires qui ont pour caractéristique commune de commercialiser les données dans le contexte des technologies de l’information. Les pratiques commerciales observées sont peu connues et l’un des objectifs est d’informer le lecteur quant au fonctionnement de ces pratiques. Dans le but de bien situer les enjeux, cet essai discutera d’abord des concepts théoriques de vie privée et de protection des renseignements personnels. Une fois ce survol tracé, les pratiques de « data brokerage », de « cloud computing » et des solutions « analytics » seront décortiquées. Au cours de cette description, les enjeux juridiques soulevés par chaque aspect de la pratique en question seront étudiés. Enfin, le dernier chapitre de cet essai sera réservé à deux enjeux, soit le rôle du consentement et la sécurité des données, qui ne relèvent pas d’une pratique commerciale spécifique, mais qui sont avant tout des conséquences directes de l’évolution des technologies de l’information.