991 resultados para Radicaux libres
Resumo:
L'ensemble de mon travail a été réalisé grâce a l'utilisation de logiciel libre.
Resumo:
Dans les cellules somatotropes, la liaison du facteur de libération de l’hormone de croissance (GHRH) à son récepteur (GHRH-R) stimule la synthèse et la sécrétion de l’hormone de croissance (GH) ainsi que la prolifération cellulaire. Chez les mammifères, le vieillissement est caractérisé par une diminution de la sécrétion de GH, liée à une perte de sensibilité des somatotropes au GHRH. Chez le rat âgé, des modifications de niveaux d'ARNm du GHRH-R et une diminution d'affinité et de capacité de liaison du GHRH sont rapportés. Au cours du vieillissement, une augmentation des niveaux de glucose et d’acides gras libres sérique suggère qu’une gluco- ou lipotoxicité puisse contribuer au dysfonctionnement de la fonction somatotrope. À ce jour, la restriction calorique modérée de longue durée (RCMLD) constitue l’intervention la plus efficace pour prévenir ou retarder les détériorations liées à l’âge. Des études ont montré des effets bénéfiques de la RCMLD sur l’axe somatotrope au cours du vieillissement via un maintien des paramètres de liaison du GHRH-R. Compte tenu de l’importance de cet axe, la compréhension des mécanismes menant à la somatopause ainsi que ceux associés aux effets bénéfiques de la RCMLD s’avère importante. Les objectifs principaux de la présente thèse étaient : 1) de déterminer les effets de la RCMLD chez le rat, sur le GHRH-R hypophysaire et la sensibilité des somatotropes au GHRH, 2) d’identifier les mécanismes associés à la somatopause et aux effets bénéfiques de la RCMLD, et 3) de préciser les effets d’une gluco-ou lipotoxicité sur l’axe somatotrope de rats et leur implication dans la somatopause. Des rats de 8 mois ont été soumis à une restriction calorique de 40% jusqu’à l’âge de 18-20 mois et ont été comparés à des rats jeunes et âgés nourris ad libitum. Cette étude a permis de mettre en évidence des effets bénéfiques de la RCMLD sur la régulation et la fonctionnalité du GHRH-R et de proposer que le glucose et les acides gras libres (AGL) circulants soient impliqués dans le vieillissement de la somatotrope. Une étude de micro-puce à ADN à permis d’identifier des gènes associés à des mécanismes de protection et de réparation des dommages cellulaires mis en place dans l’hypophyse antérieure au cours du vieillissement et par la RCMLD. Finalement, les effets d’un stress gluco- ou lipotoxique sur la fonction somatotrope ont été étudiés chez des rats de 2 et 6 mois, infusés 72 h avec une solution de glucose ou d’Intralipides, mimant les niveaux circulants de glucose et d’AGL retrouvés chez le rat âgé. Les résultats obtenus montrent que la glucotoxicité affecte la régulation de certains gènes de la somatotrope, dont le GHRH-R, et suggèrent que la capacité de réponse à ce type de stress est altérée. Les mécanismes par lesquels la glucotoxicité exerce ces effets pourraient inclure la génération de stress oxydant. L’ensemble de ces résultats proposent de nouvelles pistes mécanistiques qui pourraient contribuer au retardement de la somatopause et, ultimement, à l’élaboration de nouvelles stratégies d’intervention nutritionnelles ou pharmacologiques ciblant les mêmes voies que la RCMLD, avec une efficacité similaire ou supérieure.
Resumo:
Le virus Herpès simplex de type 1 (HSV-1), agent étiologique des feux sauvages, possède une structure multicouche comprenant une capside icosaédrale qui protège le génome viral d’ADN, une couche protéique très structurée appelée tégument et une enveloppe lipidique dérivant de la cellule hôte et parsemée de glycoprotéines virales. Tous ces constituants sont acquis séquentiellement à partir du noyau, du cytoplasme et du réseau trans-golgien. Cette structure multicouche confère à HSV-1 un potentiel considérable pour incorporer des protéines virales et cellulaires. Toutefois, l’ensemble des protéines qui composent ce virus n’a pas encore été élucidé. De plus, malgré son rôle critique à différentes étapes de l’infection, le tégument demeure encore mal défini et ce, tant dans sa composition que dans la séquence d’addition des protéines qui le composent. Toutes ces incertitudes quant aux mécanismes impliqués dans la morphogenèse du virus nous amènent à l’objectif de ce projet, soit la caractérisation du processus de maturation d’HSV-1. Le premier article présenté dans cette thèse et publié dans Journal of Virology s’attarde à la caractérisation protéique des virus extracellulaires matures. Grâce à l’élaboration d’un protocole d’isolation et de purification de ces virions, une étude protéomique a pu être effectuée. Celle-ci nous a permis de réaliser une cartographie de la composition globale en protéines virales des virus matures (8 protéines de la capside, 23 protéines du tégument et 13 glycoprotéines) qui a fait la page couverture de Journal of Virology. De plus, l’incorporation potentielle de 49 protéines cellulaires différentes a été révélée. Lors de cette étude protéomique, nous avons aussi relevé la présence de nouveaux composants du virion dont UL7, UL23, ICP0 et ICP4. Le deuxième article publié dans Journal of General Virology focalise sur ces protéines via une analyse biochimique afin de mieux comprendre les interactions et la dynamique du tégument. Ces résultats nous révèlent que, contrairement aux protéines ICP0 et ICP4, UL7 et UL23 peuvent être relâchées de la capside en présence de sels et que les cystéines libres jouent un rôle dans cette relâche. De plus, cet article met en évidence la présence d’ICP0 et d’ICP4 sur les capsides nucléaires suggérant une acquisition possible du tégument au noyau. La complexité du processus de morphogenèse du virus ainsi que la mise en évidence d’acquisition de protéines du tégument au noyau nous ont incités à poursuivre nos recherches sur la composition du virus à un stade précoce de son cycle viral. Les capsides C matures, prémisses des virus extracellulaires, ont donc été isolées et purifiées grâce à un protocole innovateur basé sur le tri par cytométrie en flux. L’analyse préliminaire de ces capsides par protéomique a permis d’identifier 28 protéines virales et 39 protéines cellulaires. Les données recueilles, comparées à celles obtenues avec les virus extracellulaires, suggèrent clairement un processus séquentiel d’acquisition des protéines du tégument débutant dans le noyau, site d’assemblage des capsides. Finalement, tous ces résultats contribuent à une meilleure compréhension du processus complexe de maturation d’HSV-1 via l’utilisation de techniques variées et innovatrices, telles que la protéomique et la cytométrie en flux, pouvant être appliquées à d’autres virus mais aussi permettre le développement de meilleurs traitements pour vaincre l’HSV-1.
Resumo:
CONTEXTE: L'inefficacité de captation des acides gras libres (AGL) par le tissu adipeux blanc (TAB) est connue pour favoriser la résistance à l'insuline (RI) dans les tissus périphériques, mais dans le foie, elle favorise également la production accrue de lipoprotéines contenant l'apolipoprotéine B100 (lipoprotéines apoB). Nous avons récemment démontré que les femmes post-ménopausées obèses avec un nombre élevé de lipoprotéines apoB à jeun (apoB plasmatique > 1,2 g/L) avaient plus de RI que les femmes avec un taux d’apoB normal. Notre objectif était donc d'examiner si l'inefficacité de captation des AGL pourrait être un mécanisme expliquant la RI, in vivo dans cette population. HYPOTHÈSES: Les femmes ménopausées en surpoids/obèses avec un taux d’apoB élevé ont moins d'efficacité à capter les AGL par le TAB que les femmes avec un taux d’apoB faible. MÉTHODES/RÉSULTATS: L'efficacité de captation des AGL a été examinée dans 22 femmes non diabétiques en surpoids/obèses. La population a été séparée selon la médiane d’apoB (0.9 g/L) en 2 groupes; les femmes ayant un taux d’apoB inférieur vs supérieur à la médiane (N=11/groupe). L'efficacité de captation des AGL par le TAB a été indirectement évaluée en suivant le sort d'un repas riche en gras (0.0162g 13C-trioléine/g de matières grasses, 66% de gras, 47g gras/m2 surface corporelle) marqué au 13C-trioléine, sur 6h en circulation ([13C]TG et [13C]AGL plasmatiques) et en oxydation (13CO2 dans l’air expiré [AE]). L’enrichissement en 13C des échantillons d’AE et du plasma a été mesuré par spectrométrie de masse pour ratio isotopique. Les femmes ayant un apoB élevé avaient une clairance plasmatique totale postprandiale des TG (p <0,05) réduite sans diminuer de la clairance plasmatique totale des AGL, par rapport aux femmes ayant un faible taux d’apoB. Cependant, en examinant le sort du 13C-trioléine, les femmes ayant un apoB élevé avait une réduction de la clairance des [13C]TG plasmatiques (44,78 μM vs 7,81 μM; p <0,05) et des [13C]AGL plasmatiques (2,64 uM vs 0,06 uM; p <0,05) à 6h, sans aucune différence en % récupéré de 13C-trioléine dans le CO2 de l’AE. Ces données suggèrent que les femmes ayant un taux d’apoB élevé ont une réduction postprandiale de la clairance et de la captation de 13Ctrioléine par le TAB. CONCLUSION: La captation inefficace des AGL par le TAB des femmes post-ménopausées en surpoids et obèses avec un surplus d’apoB peut être un mécanisme sousjacent à la RI chez ces sujets.
Resumo:
Traditionnellement, les applications orientées objets légataires intègrent différents aspects fonctionnels. Ces aspects peuvent être dispersés partout dans le code. Il existe différents types d’aspects : • des aspects qui représentent des fonctionnalités métiers ; • des aspects qui répondent à des exigences non fonctionnelles ou à d’autres considérations de conception comme la robustesse, la distribution, la sécurité, etc. Généralement, le code qui représente ces aspects chevauche plusieurs hiérarchies de classes. Plusieurs chercheurs se sont intéressés à la problématique de la modularisation de ces aspects dans le code : programmation orientée sujets, programmation orientée aspects et programmation orientée vues. Toutes ces méthodes proposent des techniques et des outils pour concevoir des applications orientées objets sous forme de composition de fragments de code qui répondent à différents aspects. La séparation des aspects dans le code a des avantages au niveau de la réutilisation et de la maintenance. Ainsi, il est important d’identifier et de localiser ces aspects dans du code légataire orienté objets. Nous nous intéressons particulièrement aux aspects fonctionnels. En supposant que le code qui répond à un aspect fonctionnel ou fonctionnalité exhibe une certaine cohésion fonctionnelle (dépendances entre les éléments), nous proposons d’identifier de telles fonctionnalités à partir du code. L’idée est d’identifier, en l’absence des paradigmes de la programmation par aspects, les techniques qui permettent l’implémentation des différents aspects fonctionnels dans un code objet. Notre approche consiste à : • identifier les techniques utilisées par les développeurs pour intégrer une fonctionnalité en l’absence des techniques orientées aspects • caractériser l’empreinte de ces techniques sur le code • et développer des outils pour identifier ces empreintes. Ainsi, nous présentons deux approches pour l’identification des fonctionnalités existantes dans du code orienté objets. La première identifie différents patrons de conception qui permettent l’intégration de ces fonctionnalités dans le code. La deuxième utilise l’analyse formelle de concepts pour identifier les fonctionnalités récurrentes dans le code. Nous expérimentons nos deux approches sur des systèmes libres orientés objets pour identifier les différentes fonctionnalités dans le code. Les résultats obtenus montrent l’efficacité de nos approches pour identifier les différentes fonctionnalités dans du code légataire orienté objets et permettent de suggérer des cas de refactorisation.
Resumo:
L’athérosclérose est étroitement liée au diabète de type 2. De fortes concentrations plasmatiques en acides gras libres (AGL) et en insuline sont des caractéristiques retrouvées chez les patients souffrant de ces deux pathologies. Les AGL, présents dans notre alimentation, font partie de l’environnement auquel les cellules sont exposées. Leurs effets dépendent de leur nature, les acides gras saturés (AGS) étant néfastes et les acides gras monoinsaturés (AGMI) plus protecteurs. Ils ont donc des effets variés sur les cellules musculaires lisses vasculaires (CMLV) impliquées dans la pathogénèse de l’athérosclérose. Ainsi, l’objectif principal de ce projet de maîtrise était d’évaluer l’impact de deux combinaisons d’AGL sur la viabilité des CMLV, en condition hyperinsulinémique ou non. Les deux combinaisons renfermaient les mêmes AGL mais en proportions différentes, l’une étant plus riche en AGS et l’autre en AGMI. Nos résultats ont montré que les combinaisons d’AGL ont un effet pro-apoptotique principalement dû aux AGS. L’acide oléique présent dans les combinaisons atténue cependant cet effet. Il diminue même plus fortement l’apoptose des CMLV lorsqu’associé à un AGS que lorsqu’utilisé seul. Cet impact est significatif uniquement dans certaines proportions de ces AGL et est plus efficace en présence d’insuline. Ces résultats mettent en lumière la présence d’une compétition entre mécanismes anti- et pro-apoptotiques en fonction des proportions d’AGS versus AGMI et de l’insulinémie chez les CMLV. Ils soulignent également l’importance de la présence des AGMI dans les diètes riches en AGS et pourraient être utiles pour l’élaboration de nouvelles diètes adaptées aux patients athérosclérotiques et diabétiques.
Resumo:
Le récepteur CD36 est impliqué dans le transport des acides gras libres non estérifiés (AGNE) au niveau des tissus cardiaque et périphériques. Les dommages tissulaires et la dysfonction cardiaque observés après une ischémie-reperfusion (I/R) du myocarde sont en partie liés à l’internalisation et au métabolisme oxydatif accrus des AGNE dont la concentration sanguine augmente transitoirement après un infarctus du myocarde, contrairement à ce qui est observé chez des souris déficientes en CD36. Nous avons émis l’hypothèse selon laquelle le EP 80317, un ligand synthétique du récepteur CD36, exercerait un effet cardioprotecteur contre les dommages induits par une ischémie transitoire du myocarde. Nos objectifs étaient 1) de vérifier l’effet cardioprotecteur du EP 80317 et 2) de définir son mécanisme, plus précisément de documenter l’effet du traitement sur le métabolisme lipidique. À cette fin, des souris de type sauvage ont été traitées par le EP 80317 (289 nmol/kg) par voie sous-cutanée pendant 14 jours avant d’être soumises à 30 minutes d’ischémie suivant la ligature de l’artère coronaire gauche descendante et de sa reperfusion pendant une période de 6 ou 48 heures. Le cœur et les tissus périphériques (foie, muscle squelettique et dépôts adipeux) ont été prélevés pour déterminer le profil de certains gènes impliqués dans la régulation du métabolisme lipidique. Nos travaux ont montré que l’effet cardioprotecteur d’un traitement préventif par le EP 80317 est associé à une augmentation transitoire du stockage des triglycérides et d’une réduction des AGNE circulants.
Resumo:
Les azapeptides sont des mimes peptidiques où le carbone alpha d’un ou de plusieurs acides aminés est remplacé par un atome d’azote. Cette modification tend à stabiliser une conformation en repliement beta en raison de la répulsion électronique entre les paires d’électrons libres des atomes d’azote adjacents et de la géométrie plane de l’urée. De plus, le résidu semicarbazide a une meilleure résistance face aux protéases en plus d’être chimiquement plus stable qu’une liaison amide. Bien que les propriétés des azapeptides en fassent des mimes peptidiques intéressants, leurs méthodes de synthèses font appel à la synthèse laborieuse d’hydrazines substituées en solution. Le peptide sécréteur d’hormone de croissance 6 (GHRP-6, His-D-Trp-Ala-Trp-D-Phe-Lys-NH2) est un hexapeptide synthétique qui possède une affinité pour deux récepteurs distincts: les récepteurs GHS-R1a et CD36. Les travaux effectués au cours de mon doctorat qui seront détaillés dans cet ouvrage visent à atteindre deux objectifs: (1) le développement d’analogues du peptide GHRP-6 sélectif à un seul récepteur et (2) la mise au point d’une nouvelle méthodologie pour la synthèse combinatoire d’azapeptides. En réponse au premier objectif, la synthèse parallèle de 49 analogues aza-GHRP-6 a été effectuée et certains candidats sélectifs au récepteur CD36 ont été identifiés. L’étude de leurs propriétés anti-angiogéniques, effectuée par nos collaborateurs, a également permis d’identifier des candidats intéressants pour le traitement potentiel de la dégénérescence maculaire liée à l’âge. Une nouvelle approche pour la synthèse combinatoire d’azapeptides, faisant appel à l’alkylation et la déprotection chimiosélective d’une sous-unité semicarbazone ancrée sur support solide, a ensuite été développée. La portée de cette méthodologie a été augmentée par la découverte de conditions permettant l’arylation régiosélective de cette sous-unité semicarbazone, donnant accès à treize nouveaux dérivés aza-GHRP-6 possédant des résidus aza-arylglycines aux positions D-Trp2 et Trp4. L’élaboration de conditions propices à l’alkylation et la déprotection chimiosélective de la semicarbazone a donné accès à une variété de chaînes latérales sur l’acide aminé « aza » préalablement inaccessibles. Nous avons, entre autres, démontré qu’une chaîne latérale propargyl pouvait être incorporée sur l’acide aminé « aza ». Tenant compte de la réactivité des alcynes, nous avons ensuite élaboré des conditions réactionnelles permettant la formation in situ d’azotures aromatiques, suivie d’une réaction de cycloaddition 1,3-dipolaire sur support solide, dans le but d’obtenir des mimes de tryptophane. Sept analogues du GHRP-6 ont été synthétisés et testés pour affinité au récepteur CD36 par nos collaborateurs. De plus, nous avons effectué une réaction de couplage en solution entre un dipeptide possédant un résidu aza-propargylglycine, du paraformaldehyde et une variété d’amines secondaires (couplage A3) afin d’accéder à des mimes rigides d’aza-lysine. Ces sous-unités ont ensuite été incorporées sur support solide afin de générer sept nouveaux azapeptides avec des dérivés aza-lysine à la position Trp4 du GHRP-6. Enfin, une réaction de cyclisation 5-exo-dig a été développée pour la synthèse de N-amino imidazolin-2-ones en tant que nouveaux mimes peptidiques. Leur fonctionnalisation par une série de groupements benzyliques à la position 4 de l’hétérocycle a été rendue possible grâce à un couplage Sonogashira précédant la réaction de cyclisation. Les propriétés conformationnelles de cette nouvelle famille de composés ont été étudiées par cristallographie aux rayons X et spectroscopie RMN d’un tétrapeptide modèle. L’activité biologique de deux mimes peptidiques, possédant un résidu N-amino-4-méthyl- et 4-benzyl-imidazolin-2-one à la position Trp4 du GHRP-6, a aussi été examinée. L’ensemble de ces travaux devrait contribuer à l’avancement des connaissances au niveau des facteurs structurels et conformationnels requis pour le développement d’azapeptides en tant que ligands du récepteur CD36. De plus, les résultats obtenus devraient encourager davantage l’utilisation d’azapeptides comme peptidomimétiques grâce à leur nouvelle facilité de synthèse et la diversité grandissante au niveau de la chaîne latérale des acides aminés « aza ».
Resumo:
Ce mémoire veut, de prime abord, porter un regard sur la rue Saint-Laurent qui, depuis ses débuts, joue un rôle fondamental dans le tissu montréalais. Grâce à son visage bigarré et à son hétérogénéité, elle a su marquer l’histoire de la métropole et alimenter l’imaginaire d’un bon nombre d’écrivains. Michel Tremblay demeure un de ceux qui, dans l’ensemble de son oeuvre, explore le plus abondamment les clairs-obscurs et l’étrangeté de ce corridor urbain. Son écriture à la fois crue, marginale et théâtrale, s’inscrit pertinemment dans l’univers de la Main et, plus particulièrement, dans la partie du Redlight où aboutissent et se meuvent ses personnages les plus colorés. Ayant délaissé leur milieu d’origine, ces derniers s’imposent des changements radicaux afin de mieux cadrer avec la nature et les activités de leur terre d’accueil. Ce mémoire visera donc à penser l’« identité trafiquée » des personnages de Tremblay comme condition de leur inscription sur la rue Saint-Laurent. En outre, il sera question de l’esprit théâtral de cette artère qui pousse les travestis et les artistes en tout genre à se donner « en représentation » et à incarner un rôle de composition. Par l’entremise des masques – notamment celui du déguisement, du maquillage et du travestissement, mais aussi celui de la langue qu’ils modulent afin de mieux coller à leur personnage –, ils projettent une identité individuelle instable qui dévoile l’ambiguïté qui les habite. Plus largement, la présente étude s’intéressera à l’ensemble des marginaux qui arpentent la Main et qui cherchent à (re)définir leur identité culturelle, au milieu des cultures américaine et française. Bien qu’elle essaie de se forger une identité propre, cette collectivité peine à se définir sans calquer les modèles dont elle tente de se dissocier. Une telle contradiction évoque à bien des égards le paradoxe auquel se sont heurtées les communautés immigrantes de la rue Saint-Laurent, dont la lente adaptation à la culture nord-américaine s’est faite non sans un difficile constat de pertes et de gains face à la culture d’origine. Il s’agira donc de voir comment ces groupes, en apparence irréconciliables, trouvent dans le même univers un contexte favorable pour mener leur quête identitaire.
Resumo:
Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.
Resumo:
L’insécurité routière chez les conducteurs âgés est attribuable en partie, aux effets délétères du vieillissement normal sur le fonctionnement cognitif. Les méthodes d’évaluation neuropsychologique par les tests ayant montré une certaine efficacité dans le cas du dépistage des habiletés de conduite chez les conducteurs âgés atteints d’affections neurologiques pathologiques, la présente thèse vise à évaluer la pertinence de cette approche chez les conducteurs vieillissants de la population générale. Le principal objectif de cette thèse est ainsi d’obtenir une vue d’ensemble sur le rôle et la sensibilité des mesures neuropsychologiques dans la prédiction des habiletés et habitudes de conduite automobile sécuritaire chez les conducteurs âgés. Dans la même perspective, la thèse explore d’autre part le rôle de variables sociodémographiques et psychologiques. L’article 1 évalue la validité prédictive de sept tests des fonctions visuo-attentionnelles et de la mémoire de travail en regard des habiletés de détection périphérique chez 50 conducteurs âgés de 62 à 83 ans. L’étude sur simulateur de conduite comprend une condition de conduite simple et une condition plus soutenue incluant une distraction téléphonique de type « mains-libres ». Selon les résultats, certains tests cognitifs prédisent bien les temps de détection. En outre, la validité prédictive des tests est plus importante dans la situation de conduite plus exigeante. Cela dit, les résultats de l’article 2 révèlent que le recours aux stratégies d’évitement des situations exigeantes est plus prononcé chez les individus qui présentent des faiblesses à certains des tests neuropsychologiques proposés. Les résultats indiquent en outre que l’utilisation des stratégies d’évitement routier est plus fréquente chez les conducteurs ayant tendance à déprécier leurs habiletés de conduite générales, à exprimer une moindre perception de contrôle ainsi qu’une attitude défavorable à l’endroit des situations de conduite complexes ou risquées. Les stratégies d’évitement se révèlent donc comme des réponses autorégulatrices proportionnelles aux limitations cognitives et aux perceptions individuelles. Dans les deux études, l’âge ne permet pas d’expliquer les différences individuelles, ceci ni en termes d’habiletés de détection périphérique ni de tendances autorégulatrices. Le rôle du genre est cependant plus nuancé. Ainsi, le principal apport de la présente thèse réside dans la constatation que si d’une part, certaines limitations neuropsychologiques sont associées à une réduction des habiletés de détection périphérique, ces mêmes limitations s’accompagnent aussi de mesures autorégulatrices qui peuvent contribuer à réduire le risque routier. Il appert conséquemment que les méthodes de dépistage de l’insécurité routière chez les conducteurs âgés se basant sur l’évaluation des limitations cognitives et attentionnelles doivent également rechercher et évaluer la teneur de leurs comportements routiers autorégulateurs. Dans le contexte de vieillissement de la population, des interventions pourront également miser sur le renforcement de ces comportements.
Resumo:
Le recours au plasma pour stériliser des dispositifs médicaux (DM) est un domaine de recherche ne datant véritablement que de la fin des années 1990. Les plasmas permettent, dans les conditions adéquates, de réaliser la stérilisation à basse température (≤ 65°C), tel qu’exigé par la présence de polymères dans les DM et ce contrairement aux procédés par chaleur, et aussi de façon non toxique, contrairement aux procédés chimiques comme, par exemple, l’oxyde d’éthylène (OEt). Les laboratoires du Groupe de physique des plasmas à l’Université de Montréal travaillent à l’élaboration d’un stérilisateur consistant plus particulièrement à employer les effluents d’une décharge N2-%O2 basse pression (2-8 Torrs) en flux, formant ce que l’on appelle une post-décharge en flux. Ce sont les atomes N et O de cette décharge qui viendront, dans les conditions appropriées, entrer en collisions dans la chambre de stérilisation pour y créer des molécules excitées NO*, engendrant ainsi l’émission d’une quantité appréciable de photons UV. Ceux-ci constituent, dans le cas présent, l’agent biocide qui va s’attaquer directement au bagage génétique du micro-organisme (bactéries, virus) que l’on souhaite inactiver. L’utilisation d’une lointaine post-décharge évite du même coup la présence des agents érosifs de la décharge, comme les ions et les métastables. L’un des problèmes de cette méthode de stérilisation est la réduction du nombre de molécules NO* créées par suite de la perte des atomes N et O, qui sont des radicaux connus pour interagir avec les surfaces, sur les parois des matériaux des DM que l’on souhaite stériliser. L’objectif principal de notre travail est de déterminer l’influence d’une telle perte en surface, dite aussi réassociation en surface, par l’introduction de matériaux comme le Téflon, l’acier inoxydable, l’aluminium et le cuivre sur le taux d’inactivation des spores bactériennes. Nous nous attendons à ce que la réassociation en surface de ces atomes occasionne ainsi une diminution de l’intensité UV et subséquemment, une réduction du taux d’inactivation. Par spectroscopie optique d’émission (SOE), nous avons déterminé les concentrations perdues de N et de O par la présence des matériaux dans le stérilisateur, ainsi que la diminution de l’émission UV en découlant. Nous avons observé que cette diminution des concentrations atomiques est d’autant plus importante que les surfaces sont catalytiques. Au cours de l’étude du phénomène de pertes sur les parois pour un mélange N2-%O2 nous avons constaté l’existence d’une compétition en surface entre les atomes N et O, dans laquelle les atomes d’oxygènes semblent dominer largement. Cela implique qu’au-delà d’un certain %O2 ajouté à la décharge N2, seuls les atomes O se réassocient en surface. Par ailleurs, l’analyse des courbes de survie bi-phasiques des micro-organismes a permis d’établir une étroite corrélation, par lien de cause à effet, entre la consommation des atomes N et O en surface et la diminution du taux d’inactivation des spores dans la première phase. En revanche, nous avons constaté que notre principal agent biocide (le rayonnement ultraviolet) est moins efficace dans la deuxième phase et, par conséquent, il n’a pas été possible d’établir un lien entre la diminution des concentrations et le taux d’inactivation de cette phase-là.
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
Dans cette thèse, nous présentons une nouvelle méthode smoothed particle hydrodynamics (SPH) pour la résolution des équations de Navier-Stokes incompressibles, même en présence des forces singulières. Les termes de sources singulières sont traités d'une manière similaire à celle que l'on retrouve dans la méthode Immersed Boundary (IB) de Peskin (2002) ou de la méthode régularisée de Stokeslets (Cortez, 2001). Dans notre schéma numérique, nous mettons en oeuvre une méthode de projection sans pression de second ordre inspirée de Kim et Moin (1985). Ce schéma évite complètement les difficultés qui peuvent être rencontrées avec la prescription des conditions aux frontières de Neumann sur la pression. Nous présentons deux variantes de cette approche: l'une, Lagrangienne, qui est communément utilisée et l'autre, Eulerienne, car nous considérons simplement que les particules SPH sont des points de quadrature où les propriétés du fluide sont calculées, donc, ces points peuvent être laissés fixes dans le temps. Notre méthode SPH est d'abord testée à la résolution du problème de Poiseuille bidimensionnel entre deux plaques infinies et nous effectuons une analyse détaillée de l'erreur des calculs. Pour ce problème, les résultats sont similaires autant lorsque les particules SPH sont libres de se déplacer que lorsqu'elles sont fixes. Nous traitons, par ailleurs, du problème de la dynamique d'une membrane immergée dans un fluide visqueux et incompressible avec notre méthode SPH. La membrane est représentée par une spline cubique le long de laquelle la tension présente dans la membrane est calculée et transmise au fluide environnant. Les équations de Navier-Stokes, avec une force singulière issue de la membrane sont ensuite résolues pour déterminer la vitesse du fluide dans lequel est immergée la membrane. La vitesse du fluide, ainsi obtenue, est interpolée sur l'interface, afin de déterminer son déplacement. Nous discutons des avantages à maintenir les particules SPH fixes au lieu de les laisser libres de se déplacer. Nous appliquons ensuite notre méthode SPH à la simulation des écoulements confinés des solutions de polymères non dilués avec une interaction hydrodynamique et des forces d'exclusion de volume. Le point de départ de l'algorithme est le système couplé des équations de Langevin pour les polymères et le solvant (CLEPS) (voir par exemple Oono et Freed (1981) et Öttinger et Rabin (1989)) décrivant, dans le cas présent, les dynamiques microscopiques d'une solution de polymère en écoulement avec une représentation bille-ressort des macromolécules. Des tests numériques de certains écoulements dans des canaux bidimensionnels révèlent que l'utilisation de la méthode de projection d'ordre deux couplée à des points de quadrature SPH fixes conduit à un ordre de convergence de la vitesse qui est de deux et à une convergence d'ordre sensiblement égale à deux pour la pression, pourvu que la solution soit suffisamment lisse. Dans le cas des calculs à grandes échelles pour les altères et pour les chaînes de bille-ressort, un choix approprié du nombre de particules SPH en fonction du nombre des billes N permet, en l'absence des forces d'exclusion de volume, de montrer que le coût de notre algorithme est d'ordre O(N). Enfin, nous amorçons des calculs tridimensionnels avec notre modèle SPH. Dans cette optique, nous résolvons le problème de l'écoulement de Poiseuille tridimensionnel entre deux plaques parallèles infinies et le problème de l'écoulement de Poiseuille dans une conduite rectangulaire infiniment longue. De plus, nous simulons en dimension trois des écoulements confinés entre deux plaques infinies des solutions de polymères non diluées avec une interaction hydrodynamique et des forces d'exclusion de volume.
Resumo:
"L’auteure Lucie Guibault aborde la question des ""logiciels libres"" dans le cadre des droits d’auteurs et des brevets. Ces logiciels sont des programmes informatiques qui sont gratuitement distribués au public, dont la modification et la redistribution sont fortement encouragées, mais dont la vente ou la commercialisation est découragée ou même carrément prohibée. Ces caractéristiques particulières distinguent les logiciels libres des ""programmes propriétés"" traditionnels, qui se basent sur le principe que le créateur d’un programme en possède les droits de propriété et qu’il est le seul autorisé à le modifier ou le vendre, sous réserve de sa capacité à faire cession de ces droits. Les logiciels libres sont fondés sur une idéologie de coopération, qui promeut la propagation des idées et des connaissances et qui favorise ainsi la création de meilleurs logiciels. L’auteure présente les grandes caractéristiques des trois principales licences de logiciels libres, soit la ""General Public License"", la licence ""Berkeley Software Distribution"" et la ""Mozilla Public License"". Elle soutient que ces logiciels libres et les régimes normatifs qui les encadrent sont à l’origine d’un changement de paradigme au sein des régimes européens et hollandais de protection des droits d’auteurs et des brevets. La première partie de l’article analyse les régimes des droits d’auteur des trois licences de logiciels libres. L’auteure souligne que ces régimes ont été établis en se basant sur la prémisse qu’il n’y a pas de distinction significative entre les créateurs et les utilisateurs de logiciels libres. Les régimes normatifs reflètent cette situation en prévoyant un ensemble de droits et d’obligations pour les utilisateurs dans le cadre de l’utilisation, de la reproduction, de la modification et de la redistribution gratuite des logiciels libres. L’auteur explique comment ces régimes normatifs s’intègrent au sein de la législation européenne et hollandaise, entre autre au niveau du droit de propriété, du droit commercial, du droit des communications et du droit des obligations. L’auteur démontre que, de façon générale, ces régimes normatifs législatifs semblent s’être adéquatement adaptés aux nouvelles réalités posées par les règles de droits d’auteurs des logiciels libres. La seconde partie aborde la problématique du droit des brevets, tel que défini par la législation européenne et hollandaise. La plupart des utilisateurs et créateurs de logiciels libres s’opposent aux régimes de brevets traditionnels, qui limitent l’innovation et les possibilités de développement techniques. L’auteur décrit les différents régimes alternatifs de brevets offerts par les trois licences de logiciels libres. De plus, l’auteur présente l’encadrement légal pour ces nouveaux brevets, tel que défini par les législations européennes et hollandaises. Elle soutient que cet encadrement légal est inadéquat et qu’il n’est pas adapté aux besoins des utilisateurs de logiciels libres."