200 resultados para Stability (Stabilité)


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le LiFePO4 est un matériau prometteur pour les cathodes des batteries au lithium. Il possède une bonne stabilité à haute température et les précurseurs utilisés pour la synthèse sont peu couteux. Malheureusement, sa faible conductivité nuit aux performances électrochimiques. Le fait de diminuer la taille des particules ou d’enrober les particules d’une couche de carbone permet d’augmenter la conductivité. Nous avons utilisé une nouvelle méthode appelée « synthèse par voie fondue » pour synthétiser le LiFePO4. Cette synthèse donne des gros cristaux et aucune impureté n’est détectée par analyse Rayon-X. En revanche, la synthèse de LiXFePO4 donne un mélange de LiFePO4 pur et d’impureté à base de lithium ou de fer selon l’excès de fer ou de lithium utilisé. La taille des particules de LiFePO4 est réduite à l’aide d’un broyeur planétaire et plusieurs paramètres de broyage sont étudiés. Une couche de carbone est ensuite déposée sur la surface des particules broyées par un traitement thermique sur le LiFePO4 avec du -lactose. L’influence de plusieurs paramètres comme la température du traitement thermique ou la durée du chauffage sont étudiés. Ces expériences sont réalisées avec un appareil d’analyse thermogravimétrique (ATG) qui donne la quantité de chaleur ainsi que la variation de masse durant le chauffage de l’échantillon. Ce nouveau chauffage pour la couche de carbone donne des échantillons dont les performances électrochimiques sont similaires à celles obtenues précédemment avec la méthode de chauffage pour la couche de carbone utilisant le four tubulaire.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Avec les nouvelles technologies des réseaux optiques, une quantité de données de plus en plus grande peut être transportée par une seule longueur d'onde. Cette quantité peut atteindre jusqu’à 40 gigabits par seconde (Gbps). Les flots de données individuels quant à eux demandent beaucoup moins de bande passante. Le groupage de trafic est une technique qui permet l'utilisation efficace de la bande passante offerte par une longueur d'onde. Elle consiste à assembler plusieurs flots de données de bas débit en une seule entité de données qui peut être transporté sur une longueur d'onde. La technique demultiplexage en longueurs d'onde (Wavelength Division Multiplexing WDM) permet de transporter plusieurs longueurs d'onde sur une même fibre. L'utilisation des deux techniques : WDM et groupage de trafic, permet de transporter une quantité de données de l'ordre de terabits par seconde (Tbps) sur une même fibre optique. La protection du trafic dans les réseaux optiques devient alors une opération très vitale pour ces réseaux, puisqu'une seule panne peut perturber des milliers d'utilisateurs et engendre des pertes importantes jusqu'à plusieurs millions de dollars à l'opérateur et aux utilisateurs du réseau. La technique de protection consiste à réserver une capacité supplémentaire pour acheminer le trafic en cas de panne dans le réseau. Cette thèse porte sur l'étude des techniques de groupage et de protection du trafic en utilisant les p-cycles dans les réseaux optiques dans un contexte de trafic dynamique. La majorité des travaux existants considère un trafic statique où l'état du réseau ainsi que le trafic sont donnés au début et ne changent pas. En plus, la majorité de ces travaux utilise des heuristiques ou des méthodes ayant de la difficulté à résoudre des instances de grande taille. Dans le contexte de trafic dynamique, deux difficultés majeures s'ajoutent aux problèmes étudiés, à cause du changement continuel du trafic dans le réseau. La première est due au fait que la solution proposée à la période précédente, même si elle est optimisée, n'est plus nécessairement optimisée ou optimale pour la période courante, une nouvelle optimisation de la solution au problème est alors nécessaire. La deuxième difficulté est due au fait que la résolution du problème pour une période donnée est différente de sa résolution pour la période initiale à cause des connexions en cours dans le réseau qui ne doivent pas être trop dérangées à chaque période de temps. L'étude faite sur la technique de groupage de trafic dans un contexte de trafic dynamique consiste à proposer différents scénarios pour composer avec ce type de trafic, avec comme objectif la maximisation de la bande passante des connexions acceptées à chaque période de temps. Des formulations mathématiques des différents scénarios considérés pour le problème de groupage sont proposées. Les travaux que nous avons réalisés sur le problème de la protection considèrent deux types de p-cycles, ceux protégeant les liens (p-cycles de base) et les FIPP p-cycles (p-cycles protégeant les chemins). Ces travaux ont consisté d’abord en la proposition de différents scénarios pour gérer les p-cycles de protection dans un contexte de trafic dynamique. Ensuite, une étude sur la stabilité des p-cycles dans un contexte de trafic dynamique a été faite. Des formulations de différents scénarios ont été proposées et les méthodes de résolution utilisées permettent d’aborder des problèmes de plus grande taille que ceux présentés dans la littérature. Nous nous appuyons sur la méthode de génération de colonnes pour énumérer implicitement les cycles les plus prometteurs. Dans l'étude des p-cycles protégeant les chemins ou FIPP p-cycles, nous avons proposé des formulations pour le problème maître et le problème auxiliaire. Nous avons utilisé une méthode de décomposition hiérarchique du problème qui nous permet d'obtenir de meilleurs résultats dans un temps raisonnable. Comme pour les p-cycles de base, nous avons étudié la stabilité des FIPP p-cycles dans un contexte de trafic dynamique. Les travaux montrent que dépendamment du critère d'optimisation, les p-cycles de base (protégeant les liens) et les FIPP p-cycles (protégeant les chemins) peuvent être très stables.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La préparation de formulations à libération contrôlée est le domaine des sciences pharmaceutiques qui vise à modifier l’environnement immédiat des principes actifs pour en améliorer l’efficacité et l’innocuité. Cet objectif peut être atteint en modifiant la cinétique de circulation dans le sang ou la distribution dans l’organisme. Le but de ce projet de recherche était d’étudier le profil pharmacocinétique (PK) de différentes formulations liposomales. L’analyse PK, généralement employée pour représenter et prédire les concentrations plasmatiques des médicaments et de leurs métabolites, a été utilisée ici pour caractériser in vivo des formulations sensibles au pH servant à modifier la distribution intracellulaire de principes actifs ainsi que des liposomes destinés au traitement des intoxications médicamenteuses. Dans un premier temps, la PK d’un copolymère sensible au pH, à base de N-isopropylacrylamide (NIPAM) et d’acide méthacrylique (MAA) a été étudiée. Ce dernier, le p(NIPAM-co-MAA) est utilisé dans notre laboratoire pour la fabrication de liposomes sensibles au pH. L’étude de PK conduite sur les profils de concentrations sanguines de différents polymères a défini les caractéristiques influençant la circulation des macromolécules dans l’organisme. La taille des molécules, leur point de trouble ainsi que la présence d’un segment hydrophobe à l’extrémité des chaînes se sont avérés déterminants. Le seuil de filtration glomérulaire du polymère a été évalué à 32 000 g/mol. Finalement, l’analyse PK a permis de s’assurer que les complexes formés par la fixation du polymère à la surface des liposomes restaient stables dans le sang, après injection par voie intraveineuse. Ces données ont établi qu’il était possible de synthétiser un polymère pouvant être adéquatement éliminé par filtration rénale et que les liposomes sensibles au pH préparés avec celui-ci demeuraient intacts dans l’organisme. En second lieu, l’analyse PK a été utilisée dans le développement de liposomes possédant un gradient de pH transmembranaire pour le traitement des intoxications médicamenteuses. Une formulation a été développée et optimisée in vitro pour capturer un médicament modèle, le diltiazem (DTZ). La formulation liposomale s’est avérée 40 fois plus performante que les émulsions lipidiques utilisées en clinique. L’analyse PK des liposomes a permis de confirmer la stabilité de la formulation in vivo et d’analyser l’influence des liposomes sur la circulation plasmatique du DTZ et de son principal métabolite, le desacétyldiltiazem (DAD). Il a été démontré que les liposomes étaient capables de capturer et de séquestrer le principe actif dans la circulation sanguine lorsque celui-ci était administré, par la voie intraveineuse. L’injection des liposomes 2 minutes avant l’administration du DTZ augmentait significativement l’aire sous la courbe du DTZ et du DAD tout en diminuant leur clairance plasmatique et leur volume de distribution. L’effet de ces modifications PK sur l’activité pharmacologique du médicament a ensuite été évalué. Les liposomes ont diminué l’effet hypotenseur du principe actif administré en bolus ou en perfusion sur une période d’une heure. Au cours de ces travaux, l’analyse PK a servi à établir la preuve de concept que des liposomes possédant un gradient de pH transmembranaire pouvaient modifier la PK d’un médicament cardiovasculaire et en diminuer l’activité pharmacologique. Ces résultats serviront de base pour le développement de la formulation destinée au traitement des intoxications médicamenteuses. Ce travail souligne la pertinence d’utiliser l’analyse PK dans la mise au point de vecteurs pharmaceutiques destinés à des applications variées. À ce stade de développement, l’aspect prédictif de l’analyse n’a pas été exploité, mais le côté descriptif a permis de comparer adéquatement diverses formulations et de tirer des conclusions pertinentes quant à leur devenir dans l’organisme.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La méditation par le ‘mindfulness’ favorise la stabilité émotionelle, mais les mécanismes neuroneux qui sous-tendent ces effets sont peu connus. Ce projet investiga l’effet du ‘mindfulness’ sur les réponses cérébrales et subjectives à des images négatives, positives et neutres chez des méditants expérimentés et des débutants au moyen de l’imagerie par résonance magnétique fonctionnelle (IRMf). Le ‘mindfulness’ atténua l’intensité émotionelle via différents mécanismes cérébraux pour chaque groupe. Comparés aux méditants, les débutants manifestèrent une déactivation de l’amygdale en réponse aux stimuli émotifs durant le ‘mindfulness’. Comparés aux débutants, les méditants exhibèrent une déactivation de régions du réseau du mode par défaut (RMD) pendant le ‘mindfulness’ pour tous stimuli (cortex médian préfrontal [CMP], cortex cingulaire postérieur [CCP]). Le RMD est constitué de régions fonctionnellement connectées, activées au repos et déactivées lors de tâches explicites. Cependant, nous ne connaissons pas les impacts de l’entraînement par la méditation sur la connectivité entre régions du RMD et si ces effets persistent au-delà d’un état méditatif. La connectivité fonctionnelle entre régions du RMD chez les méditants et débutants au repos fut investiguée au moyen de l’IRMf. Comparés aux débutants, les méditants montrèrent une connectivité affaiblie entre subdivisions du CMP, et une connectivité accrue entre le lobule pariétal inférieur et trois regions du RMD. Ces résultats reflètent que les bienfaits immédiats du ‘mindfulness’ sur la psychopathologie pourraient être dûs à une déactivation de régions limbiques impliquées dans la réactivité émotionelle. De plus, les bienfaits à long-terme de la méditation sur la stabilité émotionelle pourrait être dûs à une déactivation de régions corticales et cingulaires impliquées dans l’évaluation de la signification émotive et une connectivité altérée entre régions du RMD à l’état de repos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le sujet de ce mémoire est l’étude ab initio des nanotubes de carbone. Premièrement, une introduction du sujet est présentée. Elle porte sur l’historique, la structure géométrique et électronique et les applications possibles des nanotubes de carbone. En deuxième lieu, la stabilité énergétique des nanotubes de carbones double parois ainsi que leur structure électronique sont étudiées. On trouve entre autres que le changement d’hybridation provoque une chute de l’énergie du dernier niveau occupé pour les petits nanotubes. Troisièmement, nous présenterons une étude sur la dépendance en diamètre et en métallicité du greffage d’unité bromophényle sur la surface des nanotubes. La principale conclusion est qu’il est plus facile de fonctionnaliser les nanotubes de petit diamètre puisque ceux-ci ont déjà une partie d’hybridation sp3 dans leur structure électronique. Finalement, le dernier chapitre aborde la combustion des nanotubes par le dioxyde de carbone. On constate que cette combustion ne peut pas débuter sur une surface intacte, ni par un pontage d’oxygène dû à la grande quantité d’énergie requise. La réaction privilégiée est alors la combustion par les extrémités du nanotube. Nous proposons une dynamique de réaction qui contient une sélectivité en diamètre.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Contexte : La détérioration de l’état nutritionnel liée à la perte d’autonomie qui accompagne l’évolution de la démence du type Alzheimer (DTA) peut être limitée par un proche aidant efficace. À long terme, le rôle soignant du proche aidant peut affecter sa propre santé physique et psychologique. Objectifs : (1) décrire les caractéristiques sociodémographiques des patients et de leurs proches aidants; (2) examiner l’évolution de la maladie et des variables à l’étude au cours de la période de suivi; (3) explorer la relation possible entre le fardeau perçu du proche aidant, l’état nutritionnel des patients et la stabilité du poids corporel du proche aidant. Hypothèses : L’absence du fardeau chez l’aidant est associée à un meilleur état nutritionnel chez le patient; la détérioration de la fonction cognitive chez le patient s’accompagne d’une augmentation du fardeau perçu par l’aidant; la dégradation du fardeau chez l’aidant conduit à sa perte de poids. Méthode : Les données analysées proviennent de l’étude « Nutrition-mémoire » menée entre 2003 et 2006 dans les trois cliniques de cognition situées dans des hôpitaux universitaires à Montréal. Quarante-deux patients avec une DTA probable vivant dans la communauté et leurs aidants ont été suivis en dyades pendant une période de dix-huit mois. Les analyses ont porté sur les données colligées du recrutement à douze mois plus tard en raison du nombre restreint des patients interviewés à la dernière mesure. La relation entre le fardeau de l’aidant et les variables caractérisant l’état nutritionnel chez les patients a été évaluée à l’aide des analyses de corrélations, du test khi-carré ou du test de Fisher. L’état cognitif des patients était évalué à l’aide du score au Mini-Mental State Examination, le fardeau de l’aidant était estimé par le score au « Zarit Burden Interview », l’état nutritionnel des patients était défini par la suffisance en énergie et en protéines, le score à l’outil de dépistage nutritionnel des aînés, le poids et l’indice de masse corporelle des patients. Résultats : Le fardeau perçu des aidants était associé à la suffisance en énergie chez les patients. Le nombre de patients ayant des apports insuffisants en énergie était plus important chez les dyades où les aidants percevaient un fardeau plus élevé. Toutefois, aucune association n’a été observée entre le fardeau des aidants et le risque nutritionnel ou la suffisance en protéines chez les patients. La détérioration de la fonction cognitive des patients ne semble pas avoir provoqué une augmentation du fardeau chez leurs aidants. De plus, l’augmentation du fardeau de l’aidant n’était pas accompagnée d’une perte de son poids corporel. Par ailleurs, un fardeau plus important a été observé chez les aidants des patients obèses ou présentant un embonpoint. Conclusion : La réduction du fardeau perçu des aidants permettrait d’améliorer les apports alimentaires des patients et ainsi de limiter ou minimiser le risque de détérioration de leur état nutritionnel et de perte de poids.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'assemblage des nucléosomes est étroitement couplée à la synthèse des histones ainsi qu’à la réplication et la réparation de l’ADN durant la phase S. Ce processus implique un mécanisme de contrôle qui contribue soigneusement et de manière régulée à l’assemblage de l’ADN en chromatine. L'assemblage des nucléosomes durant la synthèse de l’ADN est crucial et contribue ainsi au maintien de la stabilité génomique. Cette thèse décrit la caractérisation par spectrométrie de masse(SM) des protéines jouant un rôle critique dans l’assemblage et le maintien de la structure chromatinienne. Plus précisément, la phosphorylation de deux facteurs d’assemblage des nucléosome, le facteur CAF-1, une chaperone d’histone qui participe à l'assemblage de la chromatine spécifiquement couplée à la réplication de l'ADN, ainsi que le complexe protéique Hir, jouant de plus un rôle important dans la régulation transcriptionelle des gènes d’histones lors de la progression normale du cycle cellulaire et en réponse aux dommages de l'ADN, a été examiné. La caractérisation des sites de phosphorylation par SM nécéssite la séparation des protéines par éléctrophorèse suivi d’une coloration a l’argent. Dans le chapitre 2, nous demontrons que la coloration à l’argent induit un artéfact de sulfatation. Plus précisément, cet artéfact est causé par un réactif spécifiquement utilisé lors de la coloration. La sulfatation présente de fortes similitudes avec la phosphorylation. Ainsi, l’incrément de masse observé sur les peptides sulfatés et phosphorylés (+80 Da) nécéssite des instruments offrant une haute résolution et haute précision de masse pour différencier ces deux modifications. Dans les chapitres 3 et 4, nous avons d’abord démontré par SM que Cac1, la plus grande sous-unité du facteur CAF-1, est cible de plusieurs sites de phosphorylation. Fait intéréssant, certains de ces sites contiennent des séquences consensus pour les kinases Cdc7-Dbf4 et CDKs. Ainsi, ces résultats fournissent les premières évidences que CAF-1 est potentiellement régulé par ces deux kinases in vivo. La fonction de tous les sites de phosphorylation identifiés a ensuite été évaluée. Nous avons démontré que la phosphorylation de la Ser-503, un site consensus de la DDK, est essentielle à la répréssion transcriptionelle des gènes au niveau des télomères. Cependant, cette phosphorylation ne semble pas être nécéssaire pour d’autres fonctions connues de CAF-1, indiquant que le blocage de la phsophorylation de Cac1 Ser-503 affecte spécifiquement la fonction de CAF-1 aux structures hétérochromatiques des télomères. Ensuite, nous avons identifiés une intéraction physique entre CAF-1 et Cdc7-Dbf4. Des études in vitro ont également demontré que cette kinase phosphoryle spécifiquement Cac1 Ser-503, suggérant un rôle potential pour la kinase Cdc7-Dbf4 dans l’assemblage et la stabilité de la structure hétérochromatique aux télomères. Finalement, les analyses par SM nous ont également permi de montrer que la sous-unité Hpc2 du complexe Hir est phosphorylée sur plusieurs sites consensus des CDKs et de Cdc7-Dbf4. De plus, la quantification par SM d’un site spécifique de phosphorylation de Hpc2, la Ser-330, s’est révélée être fortement induite suite à l’activation du point de contrôle de réplication (le “checkpoint”) suite au dommage a l’ADN. Nous montrons que la Ser-330 de Hpc2 est phopshorylée par les kinases de point de contrôle de manière Mec1/Tel1- et Rad53-dépendante. Nos données préliminaires suggèrent ainsi que la capacité du complex Hir de réguler la répréssion transcriptionelle des gènes d'histones lors de la progression du cycle cellulaire normal et en réponse au dommage de l'ADN est médiée par la phosphorylation de Hpc2 par ces deux kinases. Enfin, ces deux études mettent en évidence l'importance de la spectrométrie de masse dans la caractérisation des sites de phosphorylation des protéines, nous permettant ainsi de comprendre plus précisement les mécanismes de régulation de l'assemblage de la chromatine et de la synthèse des histones.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

De nos jours, la voiture est devenue le mode de transport le plus utilisé, mais malheureusement, il est accompagné d’un certain nombre de problèmes (accidents, pollution, embouteillages, etc.), qui vont aller en s’aggravant avec l’augmentation prévue du nombre de voitures particulières, malgré les efforts très importants mis en œuvre pour tenter de les réduire ; le nombre de morts sur les routes demeure très important. Les réseaux sans fil de véhicules, appelés VANET, qui consistent de plusieurs véhicules mobiles sans infrastructure préexistante pour communiquer, font actuellement l’objet d'une attention accrue de la part des constructeurs et des chercheurs, afin d’améliorer la sécurité sur les routes ou encore les aides proposées aux conducteurs. Par exemple, ils peuvent avertir d’autres automobilistes que les routes sont glissantes ou qu’un accident vient de se produire. Dans VANET, les protocoles de diffusion (broadcast) jouent un rôle très important par rapport aux messages unicast, car ils sont conçus pour transmettre des messages de sécurité importants à tous les nœuds. Ces protocoles de diffusion ne sont pas fiables et ils souffrent de plusieurs problèmes, à savoir : (1) Tempête de diffusion (broadcast storm) ; (2) Nœud caché (hidden node) ; (3) Échec de la transmission. Ces problèmes doivent être résolus afin de fournir une diffusion fiable et rapide. L’objectif de notre recherche est de résoudre certains de ces problèmes, tout en assurant le meilleur compromis entre fiabilité, délai garanti, et débit garanti (Qualité de Service : QdS). Le travail de recherche de ce mémoire a porté sur le développement d’une nouvelle technique qui peut être utilisée pour gérer le droit d’accès aux médias (protocole de gestion des émissions), la gestion de grappe (cluster) et la communication. Ce protocole intègre l'approche de gestion centralisée des grappes stables et la transmission des données. Dans cette technique, le temps est divisé en cycles, chaque cycle est partagé entre les canaux de service et de contrôle, et divisé en deux parties. La première partie s’appuie sur TDMA (Time Division Multiple Access). La deuxième partie s’appuie sur CSMA/CA (Carrier Sense Multiple Access / Collision Avoidance) pour gérer l’accès au medium. En outre, notre protocole ajuste d’une manière adaptative le temps consommé dans la diffusion des messages de sécurité, ce qui permettra une amélioration de la capacité des canaux. Il est implanté dans la couche MAC (Medium Access Control), centralisé dans les têtes de grappes (CH, cluster-head) qui s’adaptent continuellement à la dynamique des véhicules. Ainsi, l’utilisation de ce protocole centralisé nous assure une consommation efficace d’intervalles de temps pour le nombre exact de véhicules actifs, y compris les nœuds/véhicules cachés; notre protocole assure également un délai limité pour les applications de sécurité, afin d’accéder au canal de communication, et il permet aussi de réduire le surplus (overhead) à l’aide d’une propagation dirigée de diffusion.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La réparation de l’ADN par excision des nucléotides (NER) est un mécanisme capable de retirer une large variété de lésions causant une distorsion de la double hélice, comme celles causées par les rayons ultraviolets (UV). Comme toutes les voies de réparation de l’ADN, la NER contribue à la prévention de la carcinogénèse en prévenant la mutation de l’ADN. Lors de ce processus, il y a d’abord reconnaissance de la lésion par la protéine XPC/Rad4 (humain/levure) qui recrute ensuite TFIIH. Ce complexe déroule l’ADN par son activité hélicase et recrute l’endonucléase XPG/Rad2 ainsi que d’autres protéines nécessaires à l’excision de l’ADN. Lors de son arrivée au site de lésion, XPG/Rad2 déplace XPC/Rad4. TFIIH agit également lors de la transcription de l’ADN, entre autres par son activité hélicase. Outre cette similarité de la présence de TFIIH lors de la transcription et la réparation, il est possible de se demander en quoi les deux voies sont similaires. Nous nous sommes donc intéressés aux interactions impliquant TFIIH et la machinerie de réparation de l’ADN. Nous avons donc entrepris une caractérisation structurale et fonctionnelle de ces interactions. Nous avons découvert que Rad2 et Rad4 possèdent un motif d’interaction en nous basant sur d’autres interactions de la sous-unité Tfb1 de TFIIH. Par calorimétrie à titrage isotherme, nous avons observé que les segments de ces deux protéines contenant ce motif interagissent avec une grande affinité au domaine PH de Tfb1. Le site de liaison de ces segments sur Tfb1PH est très semblable au site de liaison du domaine de transactivation de p53 et au domaine carboxy-terminal de TFIIEα avec Tfb1PH, tel que démontré par résonance magnétique nucléaire (RMN). De plus, tous ces segments peuvent faire compétition les uns aux autres pour la liaison à Tfb1PH. Nous avons aussi démontré in vivo chez la levure qu’une délétion de Tfb1PH crée une sensibilité aux radiations UV. De plus, la délétion de multiples segments de Rad2 et Rad4, dont les segments d’interaction à Tfb1PH, est nécessaire pour voir une sensibilité aux rayons UV. Ainsi, de multiples interactions sont impliquées dans la liaison de Rad2 et Rad4 à TFIIH. Finalement, les structures des complexes Rad2-Tfb1PH et Rad4-Tfb1PH ont été résolues par RMN. Ces structures sont identiques entre elles et impliquent des résidus hydrophobes interagissant avec des cavités peu profondes de Tfb1PH. Ces structures sont très semblables à la structure de TFIIEα-p62PH. Ces découvertes fournissent ainsi un lien important entre la transcription et la réparation de l’ADN. De plus, elles permettent d’émettre un modèle du mécanisme de déplacement de XPC/Rad4 par XPG/Rad2 au site de dommage à l’ADN. Ces connaissances aident à mieux comprendre les mécanismes de maintient de la stabilité génomique et peuvent ainsi mener à développer de nouvelles thérapies contre le cancer.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Peu de personnes se rappellent de la présence de la France en Inde. Quelques parties de l’Inde sont restées françaises jusqu’en 1954. À cette date, l’Inde française, consistant de quatre petits établissements (Pondichéry, Yanaon, Karikal et Mahé), était en pleine décadence et éclipsée par d’autres colonies françaises, plus grandes, plus lucratives et plus importantes pour la Métropole. L’Indochine et l’Algérie ne sont que deux exemples. Toutefois, les Français n’étaient pas disposés à abandonner leurs possessions en Inde sans résistance. Le présent mémoire cherche à expliquer la valeur des possessions françaises en Inde et les raisons de la fin de la tutelle française. Le titre du mémoire indique qu’un certain changement a eu lieu dans la politique française vis-à-vis de ses possessions en Inde. L’étude commence par un résumé de la situation politique et économique de l’Inde française depuis la fin de la dernière occupation anglaise en 1814 jusqu’à la fin de la Première Guerre mondiale. L’année 1920 est choisie comme point de départ de la période visée par le mémoire. Portant sur les années 1920, le premier chapitre examine l’hégémonie du parti Gaebelé qui a eu toutes les caractéristiques d’une dictature. Indifférentes à la vie politique de l’Inde française, les autorités métropolitaines étaient surtout attirées par le commerce que la colonie offrait dans la production de tissus et l’exportation d’arachides. Après la chute du parti Gaebelé, l’Inde française a été plongée dans une longue période d’agitation, un thème clé du deuxième chapitre sur les années 1930. Inconscientes de la réalité politique, les autorités métropolitaines ont toujours accordé la priorité au commerce. Durant les années 1940, l’Inde française n’a jamais arrêté de se rapprocher de l’Inde britannique. Ce rapprochement a aussi persisté lorsque l’Inde britannique est devenue l’Union indienne en 1947. Soudainement, les Français ont senti le besoin de réaffirmer leur position d’autorité en Inde française. Le commerce est passé au second plan au profit d’une série de réformes politiques. Toutefois, ce brusque changement de politique fut trop tardif. Le quatrième chapitre, centré surtout sur la période de 1950 à 1954 et vu à travers l’exemple d’Édouard Goubert, a souligné la méconnaissance des autorités métropolitaines des réalités qui confrontaient l’Inde française. Lorsque Goubert a cessé de servir comme porte-parole et principal allié du gouvernement français en Inde, les possessions françaises en Inde furent rattachées une par une à l’Union indienne. Rétrospectivement, les faits économiques, vitaux pour le début du mémoire, sont quasiment absents de deux derniers chapitres. Se retrouvant face à la menace de perdre leurs possessions en Inde, les Français ont compris que l’Inde française était précieuse pour des raisons autres que le commerce. Un accent particulier fut mis pour souligner ces avantages culturels et politiques. De petite taille, les possessions françaises étaient importantes pour l’ordre et la stabilité dans les autres colonies de l’Empire. Parallèlement, elles représentaient des points d’appui pour l’expansion de la culture française dans l’immense sous-continent indien.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les nanoparticules polymériques biodégradable (NPs) sont apparues ces dernières années comme des systèmes prometteurs pour le ciblage et la libération contrôlée de médicaments. La première partie de cette étude visait à développer des NPs biodégradables préparées à partir de copolymères fonctionnalisés de l’acide lactique (poly (D,L)lactide ou PLA). Les polymères ont été étudiés comme systèmes de libération de médicaments dans le but d'améliorer les performances des NPs de PLA conventionnelles. L'effet de la fonctionnalisation du PLA par insertion de groupements chimiques dans la chaîne du polymère sur les propriétés physico-chimiques des NPs a été étudié. En outre, l'effet de l'architecture du polymère (mode d'organisation des chaînes de polymère dans le copolymère obtenu) sur divers aspects de l’administration de médicament a également été étudié. Pour atteindre ces objectifs, divers copolymères à base de PLA ont été synthétisés. Plus précisément il s’agit de 1) copolymères du poly (éthylène glycol) (PEG) greffées sur la chaîne de PLA à 2.5% et 7% mol. / mol. de monomères d'acide lactique (PEG2.5%-g-PLA et PEG7%-g-PLA, respectivement), 2) des groupements d’acide palmitique greffés sur le squelette de PLA à une densité de greffage de 2,5% (palmitique acid2.5%-g-PLA), 3) de copolymère « multibloc » de PLA et de PEG, (PLA-PEG-PLA)n. Dans la deuxième partie, l'effet des différentes densités de greffage sur les propriétés des NPs de PEG-g-PLA (propriétés physico-chimiques et biologiques) a été étudié pour déterminer la densité optimale de greffage PEG nécessaire pour développer la furtivité (« long circulating NPs »). Enfin, les copolymères de PLA fonctionnalisé avec du PEG ayant montré les résultats les plus satisfaisants en regard des divers aspects d’administration de médicaments, (tels que taille et de distribution de taille, charge de surface, chargement de drogue, libération contrôlée de médicaments) ont été sélectionnés pour l'encapsulation de l'itraconazole (ITZ). Le but est dans ce cas d’améliorer sa solubilité dans l'eau, sa biodisponibilité et donc son activité antifongique. Les NPs ont d'abord été préparées à partir de copolymères fonctionnalisés de PLA, puis ensuite analysés pour leurs paramètres physico-chimiques majeurs tels que l'efficacité d'encapsulation, la taille et distribution de taille, la charge de surface, les propriétés thermiques, la chimie de surface, le pourcentage de poly (alcool vinylique) (PVA) adsorbé à la surface, et le profil de libération de médicament. L'analyse de la chimie de surface par la spectroscopie de photoélectrons rayon X (XPS) et la microscopie à force atomique (AFM) ont été utilisés pour étudier l'organisation des chaînes de copolymère dans la formulation des NPs. De manière générale, les copolymères de PLA fonctionnalisés avec le PEG ont montré une amélioration du comportement de libération de médicaments en termes de taille et distribution de taille étroite, d’amélioration de l'efficacité de chargement, de diminution de l'adsorption des protéines plasmatiques sur leurs surfaces, de diminution de l’internalisation par les cellules de type macrophages, et enfin une meilleure activité antifongique des NPs chargées avec ITZ. En ce qui concerne l'analyse de la chimie de surface, l'imagerie de phase en AFM et les résultats de l’XPS ont montré la possibilité de la présence de davantage de chaînes de PEG à la surface des NPs faites de PEG-g-PLA que de NPS faites à partie de (PLA-PEG-PLA)n. Nos résultats démontrent que les propriétés des NPs peuvent être modifiées à la fois par le choix approprié de la composition en polymère mais aussi par l'architecture de ceux-ci. Les résultats suggèrent également que les copolymères de PEG-g-PLA pourraient être utilisés efficacement pour préparer des transporteurs nanométriques améliorant les propriétés de certains médicaments,notamment la solubilité, la stabilité et la biodisponibilité.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire vise à comprendre les motivations des États à intervenir militairement dans un autre État pour mettre fin aux violations graves des droits de l’homme tel que le nettoyage ethnique et le génocide. Plus précisément, nous cherchons à comprendre pourquoi il y a eu une variation dans la position américaine face aux cas de génocide au Rwanda en 1994, au Kosovo en 1999 et au Darfour de 2003 à 2008. À partir d’une approche réaliste en Relations Internationales qui met l’accent sur l’intérêt national égoïste comme facteur principal explicatif du comportement des États, nous procédons à l’étude des cas de la position américaine lors de trois crises humanitaires. Plus précisément, nous cherchons à comprendre la non intervention des États-Unis lors du génocide des Tutsis au Rwanda en 1994, l’intervention américaine au Kosovo en 1999, et enfin la non intervention américaine au Darfour de 2003 à 2008. En somme, nos études de cas démontrent que c’est l’intérêt national qui motive les États d’intervenir ou de ne pas intervenir lors des cas de nettoyage ethnique ou de génocide. D’une part, lors du génocide des Tutsis au Rwanda en 1994, les États-Unis ne sont pas intervenus car l’intérêt national interprété comme le repli sur les affaires internes américaines ne serait pas maximisé par l’intervention militaire. Ensuite, l’intervention des États-Unis et de l’OTAN au Kosovo en 1999 est expliquée par l’intérêt national américain dans un contexte de l’après guerre froide d’approfondir son engagement sécuritaire en Europe et de préserver sa position hégémonique et son prestige sur la scène internationale, d’assurer la stabilité régionale et de préserver la crédibilité de l’OTAN. Finalement, l’intérêt national défini en termes de sécurité dans un contexte de la guerre au terrorisme explique la non intervention américaine au Darfour de 2003 à 2008.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'ensemble de mon travail a été réalisé grâce a l'utilisation de logiciel libre.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Doctorat réalisé en cotutelle avec le laboratoire de François Payre au Centre de Biologie du Développement à Toulouse, France (Université de Toulouse III - Paul Sabatier)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’objectif principal de cette recherche est de contribuer au développement de biocapteurs commerciaux utilisant des surfaces de papier comme matrices d’immobilisation, capables de produire un signal colorimétrique perceptible dans les limites sensorielles humaines. Ce type de biocapteur, appelé papier bioactif, pourrait servir par exemple à la détection de substances toxiques ou d’organismes pathogènes. Pour atteindre l’objectif énoncé, ce travail propose l’utilisation de systèmes enzymatiques microencapsulés couchés sur papier. Les enzymes sont des catalyseurs biologiques dotés d’une haute sélectivité, et capables d'accélérer la vitesse de certaines réactions chimiques spécifiques jusqu’à des millions des fois. Les enzymes sont toutefois des substances très sensibles qui perdent facilement leur fonctionnalité, raison pour laquelle il faut les protéger des conditions qui peuvent les endommager. La microencapsulation est une technique qui permet de protéger les enzymes sans les isoler totalement de leur environnement. Elle consiste à emprisonner les enzymes dans une sphère poreuse de taille micrométrique, faite de polymère, qui empêche l’enzyme de s’echapper, mais qui permet la diffusion de substrats à l'intérieur. La microencapsulation utilisée est réalisée à partir d’une émulsion contenant un polymère dissous dans une phase aqueuse avec l’enzyme désirée. Un agent réticulant est ensuite ajouté pour provoquer la formation d'un réseau polymérique à la paroi des gouttelettes d'eau dans l'émulsion. Le polymère ainsi réticulé se solidifie en enfermant l’enzyme à l'intérieur de la capsule. Par la suite, les capsules enzymatiques sont utilisées pour donner au papier les propriétés de biocapteur. Afin d'immobiliser les capsules et l'enzyme sur le papier, une méthode courante dans l’industrie du papier connu sous le nom de couchage à lame est utilisée. Pour ce faire, les microcapsules sont mélangées avec une sauce de couchage qui sera appliquée sur des feuilles de papier. Les paramètres de viscosité i de la sauce et ceux du couchage ont été optimisés afin d'obtenir un couchage uniforme répondant aux normes de l'industrie. Les papiers bioactifs obtenus seront d'abord étudiés pour évaluer si les enzymes sont toujours actives après les traitements appliqués; en effet, tel que mentionné ci-dessus, les enzymes sont des substances très sensibles. Une enzyme très étudiée et qui permet une évaluation facile de son activité, connue sous le nom de laccase, a été utilisée. L'activité enzymatique de la laccase a été évaluée à l’aide des techniques analytiques existantes ou en proposant de nouvelles techniques d’analyse développées dans le laboratoire du groupe Rochefort. Les résultats obtenus démontrent la possibilité d’inclure des systèmes enzymatiques microencapsulés sur papier par couchage à lame, et ce, en utilisant des paramètres à grande échelle, c’est à dire des surfaces de papier de 0.75 x 3 m2 modifiées à des vitesses qui vont jusqu’à 800 m/min. Les biocapteurs ont retenu leur activité malgré un séchage par évaporation de l’eau à l’aide d’une lampe IR de 36 kW. La microencapsulation s’avère une technique efficace pour accroître la stabilité d’entreposage du biocapteur et sa résistance à l’exposition au NaN3, qui est un inhibiteur connu de ce biocapteur. Ce projet de recherche fait partie d'un effort national visant à développer et à mettre sur le marché des papiers bioactifs; il est soutenu par Sentinel, un réseau de recherche du CRSNG.