17 resultados para Obtained results

em Université de Montréal, Canada


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Au niveau clinique, il a été observé que de 15 à 30 % des patients qui ont subi un infarctus du myocarde développent une dépression majeure. De plus, la population atteinte de dépression post-infarctus présente un risque de mortalité de trois à quatre fois plus élevé, et ce, en comparaison avec la population non dépressive post-infarctus. Dans un modèle de rat développé pour étudier la dépression post-infarctus, des cellules apoptotiques ont été retrouvées au niveau du système limbique. Il apparaît que les cytokines seraient en partie responsables de cette mort cellulaire qui relie le cœur en ischémie et le système nerveux central. Donc, les objectifs de cette thèse sont : 1) de caractériser spatialement et temporellement la survenue de la mort cellulaire par apoptose dans les structures du système limbique du rat, à la suite d’un infarctus du myocarde ; 2) de déterminer l’effet de l’anti-inflammatoire celecoxib sur cette apoptose observée au niveau de l’amygdale et de déterminer l’implication de l’enzyme COX-2 ; 3) de déterminer l’implication de la cytokine pro-inflammatoire TNF-α dans l’apoptose observée au niveau des structures du système limbique du rat, à la suite d’un infarctus du myocarde. Afin d’atteindre ces objectifs, les rats ont subi une ischémie de 40 minutes, suivi d’une période de reperfusion qui varie d’un protocole à l’autre (15 minutes, 24, 48, 72 heures ou 7 jours). De plus, en fonction du protocole, ces rats ont été traités avec soit du célécoxib (inhibiteur sélectif de la COX-2), soit avec du PEG sTNF-R1 (inhibiteur du TNF-α). À la suite de ces protocoles, les rats ont été sacrifiés, la taille de l’infarctus a été déterminée et les différentes structures cérébrales du système limbique prélevées. Des tests biochimiques propres à chaque protocole ont été réalisés afin de documenter l'apoptose. Il a alors été observé qu’aucun des deux traitements ne présentait d’effet sur la taille de l’infarctus. L’étude de l’apoptose dans le système limbique a révélé que : 1) le processus apoptotique se mettait en place dans l’hippocampe dès les 15 premières minutes de reperfusion suivant l’infarctus du myocarde et que ce processus était spatialement dynamique dans le système limbique jusqu’au septième jour postreperfusion ; 2) il est apparu que la COX-2 était impliquée dans l'apoptose du système limbique ; 3) il a été observé que le TNF-α périphérique était impliqué dans ce processus apoptotique après 72 heures de reperfusion en activant la voie extrinsèque de l'apoptose. Ces résultats ont permis de caractériser la survenue de l’apoptose au niveau du système limbique chez le rat à la suite d’un infarctus du myocarde et de documenter l'implication de la COX-2 et du TNF-α dans ce processus. Bien que ces résultats n’apportent pas de schémas thérapeutiques clairs ou de mécanismes physiopathologiques globaux ces derniers permettent une meilleure compréhension de la relation existante entre le cœur et le système nerveux central dans le cadre de l’infarctus du myocarde. De manière moins spécifique ils précisent la relation entre le système inflammatoire et le système nerveux central.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Une première partie de ce mémoire portera sur l’analyse des états fondamentaux ma- gnétiques de deux composés isolants et magnétiquement frustrés SrDy2O4 et SrHo2O4. Une étude de la chaleur spécifique à basse température sous l’effet de champs magné- tiques de ces échantillons a été menée afin de détecter la présence de transitions de phases. L’utilisation d’un composé isotructurel non magnétique, le SrLu2O4, a permis l’isolement de la composante magnétique à la chaleur spécifique. Les comportements observés sont non conformes avec les transitions magnétiques conventionnelles. De plus, le calcul de l’entropie magnétique ne montre qu’un recouvrement partiel de l’entropie associée à un système d’ions magnétiques. En second lieu, une analyse des oscillations quantiques de Haas-van Alphen a été effectuée dans le LuCoIn5, composé apparenté au supraconducteur à fermions lourds CeCoIn5. Les résultats obtenus montrent une topologie de la surface de Fermi très différente comparativement aux CeCoIn5 et LaCoIn5, ayant un comportement beaucoup plus tridimensionnel sans les cylindres caractéristiques présents chez les autres membres de cette famille. Finalement, le montage d’un système de détection PIXE a permis l’analyse nucléaire d’échantillons afin de déterminer la concentration de chacun des éléments les constituant. L’analyse a été effectuée sur une série d’échantillons YbxCe1−xCoIn5 dont le changement de concentration a des effets importants sur les propriétés du système.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Le concept d’Hôpital Promoteur de Santé (HPS) a pris beaucoup d’importance depuis son élaboration vers la fin des années quatre-vingt. Dans le contexte de la dernière réforme, le réseau montréalais des HPS et CSSS a été créé. Le Centre Universitaire de Santé McGill (CUSM) fait partie de ce réseau depuis 2007. Cette étude vise la création d’un milieu hospitalier promoteur de la santé pour les patients et s’adresse à l’expérience d’un repas pour les personnes âgées nécessitant une diète purée. Une étude de cas qualitative a été utilisée pour explorer la perception de patients vis-à-vis les aspects relatifs à leur cabaret, l’assistance qu’ils recevaient et le contexte social de leur repas. Les impressions des professionnels de la santé quant à l’expérience des patients ont aussi été obtenues. Les résultats indiquent que l’identification difficile des aliments en purée, la saveur, l’apparence et la variété sont tous des éléments qui affectent négativement leur expérience repas. Des sentiments d’impuissance ont aussi été rapportés par les patients et les professionnels de la santé. Le contexte social du repas a été souligné comme étant un aspect à cibler pour améliorer l’expérience des patients. Un programme utilisant des purées formées pourrait contrecarrer les effets négatifs de la prescription d’une diète purée. Des changements dans les pratiques infirmières, à savoir la création d’une ambiance sociale agréable au moment des repas, semble être une option peu couteuse qui pourrait améliorer l’expérience repas des patients et diminuer les sentiments d’impuissance relevés par les professionnels de la santé à l’égard de cet aspect de soin.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Introduction : L’expansion palatine rapide assistée chirurgicalement (EPRAC) est une option de traitement privilégiée chez les patients ayant atteint la maturité squelettique et présentant une déficience transverse du maxillaire. L’effet bénéfique de l’EPRAC sur la fonction respiratoire est régulièrement mentionné, toutefois, encore peu d’études ont évalué son impact sur les voies aériennes supérieures. L’objectif de cette étude clinique prospective comparative consistait à évaluer les effets tridimensionnels de l’EPRAC sur la cavité nasale, le nasopharynx et l’oropharynx à l’aide de la tomodensitométrie. Méthodologie : L’échantillon était constitué de 14 patients (5 hommes, 9 femmes) dont l’âge moyen était de 23,0 ± 1,9 ans (16 ans 4 mois à 39 ans 7 mois). Tous ont été traités avec un appareil d’expansion de type Hyrax collé et l’expansion moyenne a été de 9,82 mm (7,5 - 12,0 mm). Tous ont eu une période de contention d’une année avant le début de tout autre traitement orthodontique. Une évaluation par tomodensitométrie volumique à faisceau conique a été réalisée aux temps T0 (initial), T1 (6 mois post-expansion) et T2 (1an post-expansion) et le volume des fosses nasales, du nasopharynx et de l’oropharynx ainsi que les dimensions de la zone de constriction maximale de l’oropharynx ont été mesurés sur les volumes tridimensionnels obtenus. Résultats : Les résultats radiologiques ont démontré une augmentation significative du volume des fosses nasales et du nasopharynx ainsi qu’une augmentation de la zone de constriction maximale de l’oropharynx à 6 mois post-expansion. Par la suite, une portion du gain enregistré pour ces trois paramètres était perdue à un an post-EPRAC sans toutefois retourner aux valeurs initiales. Aucun effet significatif sur le volume de l’oropharynx n’a été observé. De plus, aucune corrélation significative entre la quantité d’expansion réalisée et l’ensemble des données radiologiques n’a été observée. L’analyse de la corrélation intra-classe a démontré une excellente fiabilité intra-examinateur. Conclusions : L’EPRAC entraîne un changement significatif du volume de la cavité nasale et du nasopharynx. L’EPRAC ne modifie pas le volume de l’oropharynx, par contre, un effet significatif sur la zone de constriction maximale de l’oropharynx est noté. Les effets observés n’ont pas de corrélation avec le montant d’activation de la vis d’expansion.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Les astrocytes sont des cellules gliales présentes dans le système nerveux central, qui exercent de nombreuses fonctions physiologiques essentielles et sont impliquées dans la réponse aux lésions et dans plusieurs pathologies du cerveau. Les astrocytes sont générés par les cellules de la glie radiale, les précurseurs communs de la plupart des cellules neuronales et gliales du cerveau, après le début de la production des neurones. Le passage de la neurogenèse à la gliogenèse est le résultat de mécanismes moléculaires complexes induits par des signaux intrinsèques et extrinsèques responsables du changement de propriété des précurseurs et de leur spécification. Le gène Pax6 code pour un facteur de transcription hautement conservé, impliqué dans plusieurs aspects du développement du système nerveux central, tels que la régionalisation et la neurogenèse. Il est exprimé à partir des stades les plus précoces dans les cellules neuroépithéliales (les cellules souches neurales) et dans la glie radiale, dérivant de la différenciation de ces cellules. L’objectif de cette étude est d’analyser le rôle de Pax6 dans la différenciation et dans le développement des astrocytes. À travers l’utilisation d’un modèle murin mutant nul pour Pax6, nous avons obtenu des résultats suggérant que la suppression de ce gène cause l'augmentation de la prolifération et de la capacité d'auto-renouvellement des cellules souches neurales embryonnaires. In vitro, les cellules mutantes prolifèrent de façon aberrante et sous-expriment les gènes p57Kip2, p16Ink4a, p19Arf et p21Cip1, qui inhibent la progression du le cycle cellulaire. De plus, Pax6 promeut la différenciation astrocytaire des cellules souches neurales embryonnaires et est requis pour la différenciation des astrocytes dans la moëlle épinière. Les mutants nuls pour Pax6 meurent après la naissance à cause de graves défauts développementaux dus aux fonctions essentielles de ce gène dans le développement embryonnaire de plusieurs organes. En utilisant un modèle murin conditionnel basé sur le système CRE/ loxP (hGFAP-CRE/ Pax6flox/flox) qui présente l’inactivation de Pax6 dans les cellules de la glie radiale, viable après la naissance, nous avons montré que Pax6 est impliqué dans la maturation et dans le développement post-natal des astrocytes. Le cortex cérébral des souris mutantes conditionnelles ne présente pas d’astrocytes matures à l’âge de 16 jours et une très faible quantité d’astrocytes immatures à l’âge de trois mois, suggérant que Pax6 promeut la différenciation et la maturation des astrocytes. De plus, Pax6 semble jouer un rôle même dans le processus de différenciation et de maturation de cellules gliales rétiniennes. L’étude des gènes et des mécanismes moléculaires impliqués dans la génération des astrocytes est crucial pour mieux comprendre le rôle physiologique et les altérations pathologiques des ces cellules.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La transformation de modèles consiste à transformer un modèle source en un modèle cible conformément à des méta-modèles source et cible. Nous distinguons deux types de transformations. La première est exogène où les méta-modèles source et cible représentent des formalismes différents et où tous les éléments du modèle source sont transformés. Quand elle concerne un même formalisme, la transformation est endogène. Ce type de transformation nécessite généralement deux étapes : l’identification des éléments du modèle source à transformer, puis la transformation de ces éléments. Dans le cadre de cette thèse, nous proposons trois principales contributions liées à ces problèmes de transformation. La première contribution est l’automatisation des transformations des modèles. Nous proposons de considérer le problème de transformation comme un problème d'optimisation combinatoire où un modèle cible peut être automatiquement généré à partir d'un nombre réduit d'exemples de transformations. Cette première contribution peut être appliquée aux transformations exogènes ou endogènes (après la détection des éléments à transformer). La deuxième contribution est liée à la transformation endogène où les éléments à transformer du modèle source doivent être détectés. Nous proposons une approche pour la détection des défauts de conception comme étape préalable au refactoring. Cette approche est inspirée du principe de la détection des virus par le système immunitaire humain, appelée sélection négative. L’idée consiste à utiliser de bonnes pratiques d’implémentation pour détecter les parties du code à risque. La troisième contribution vise à tester un mécanisme de transformation en utilisant une fonction oracle pour détecter les erreurs. Nous avons adapté le mécanisme de sélection négative qui consiste à considérer comme une erreur toute déviation entre les traces de transformation à évaluer et une base d’exemples contenant des traces de transformation de bonne qualité. La fonction oracle calcule cette dissimilarité et les erreurs sont ordonnées selon ce score. Les différentes contributions ont été évaluées sur d’importants projets et les résultats obtenus montrent leurs efficacités.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Nous avons déjà démontré que les probiotiques réduisaient l'apoptose observée dans le système limbique après un infarctus du myocarde (IM), suggérant un rôle anti-dépresseur potentiel des probiotiques. Cette étude a été conçue pour déterminer si les probiotiques pouvaient atténuer le comportement dépressif observé après un infarctus du myocarde. Un autre objectif visait à démontrer qu’une altération de la barrière intestinale pourrait avoir lieu lors d’un IM et que les probiotiques pourraient empêcher cette altération de la perméabilité intestinale. Méthodes: Des rats mâles Sprague-Dawley ont reçu des probiotiques (1 milliard de cellules bactériennes vivantes de Lactobacillus helveticus R0052 et Bifidobacterium longum R0175) ou le véhicule tous les jours en dilution dans leur eau, débutant 1 semaine avant l'induction d'une ischémie myocardique. Un infarctus a ensuite été induit chez la moitié des rats, par l'occlusion de l'artère coronaire antérieure gauche (40 minutes) suivie d'une reperfusion. Les rats témoins, l'autre moitié de la cohorte, ont été soumis à la même procédure sans occlusion coronarienne. Une semaine après l'infarctus, les animaux ont été resoumis au traitement préalable jusqu'au moment du sacrifice. Le comportement dépressif a été évalué par trois tests soit: l'interaction sociale, le test de nage forcée et le test d'évitement passif. Résultats: Les résultats obtenus indiquent qu'en absence d'infarctus, les probiotiques n'ont pas d'effet significatif. Toutefois, en dépit de taille similaire IM, des rats traités avec des probiotiques, ont démontré davantage d'interactions sociales et une meilleure performance dans le test de nage forcée et d'évitement passif, comparativement à des rats du groupe IM sans probiotique (p<0,05). Conclusion: Les probiotiques atténuent le comportement dépressif observé après infarctus du myocarde par un mécanisme qui pourrait impliquer l'intégrité des intestins.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Mondialement, l’infanticide est une cause importante de mortalité infantile. Dans ce mémoire, les infanticides sont analysés en fonction du statut parental, du mode de décès et de l’âge de l’enfant. La première hypothèse de ce mémoire propose qu’il y ait une surreprésentation des parents non biologiques dans les cas d’infanticides chez les enfants de moins de douze ans, et ce, en regard des taux de base de la population. L’hypothèse 2 prédit que les infanticides des parents biologiques devraient revêtir un caractère plus létal (utilisation d’arme à feu, empoisonnement, etc.) que ceux des parents non biologiques qui devraient être caractérisés principalement par des mauvais traitements et de la négligence. D’autres hypothèses sont examinées en fonction des taux de suicide et du sexe de l’agresseur. La présente étude porte sur les cas d’infanticides d’enfants de douze ans et moins sur le territoire du Québec provenant des archives du bureau du coroner pour la période se situant entre 1990 et 2007 (n=182). Les résultats obtenus appuient partiellement l’hypothèse 1 et confirment l’hypothèse 2. En ce sens, les résultats de cette étude viennent appuyer les hypothèses évolutionnistes qui soutiennent une influence du statut parental sur le comportement de l’infanticide. De façon générale, ces résultats mettent en lumière les différences qualitatives qui existent entre les parents biologiques et les parents non biologiques dans les cas d’infanticides. Les implications des résultats obtenus sont discutées.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Le cancer épithélial de l’ovaire (CÉO) est le cancer gynécologique le plus létal. Le CÉO de type séreux, la forme la plus commune avec plus de 50% des cas, est souvent diagnostiqué tardivement et associé à un mauvais pronostic. Le CÉO avancé, surtout traité par chimiothérapie, va devenir chimiorésistant chez la majorité des patientes traitées. Bien que des lignées cellulaires du CÉO aient été dérivées à partir de tumeurs solides et d’ascites de patientes ayant ou non subi une chimiothérapie, aucune des lignées cellulaires du CÉO provenant d’une même patiente avant et après ses traitements de chimiothérapie n’ont été établies précédemment. Notre laboratoire est le premier à développer de telles lignées cellulaires. Nos nouvelles lignées cellulaires sont dérivées de trois patientes différentes (1369, 2295 et 3133) et classées selon leur provenance, soit la tumeur solide (TOV) ou l’ascite (OV). Nous avons donc caractérisé ces nouvelles lignées de cellules pré-chimiothérapie (TOV1369TR, OV2295, TOV3133D et TOV3133G) et post-chimiothérapie (OV1369(2), OV2295(2), TOV2295, OV3133 et OV3133(2)) par diverses approches. Par immunohistochimie et immunobuvardage de type Western, nous avons caractérisé les niveaux d’expression de marqueurs épithéliaux typiques de kératines (KRT7, KRT8, KRT18, KRT19, KRT20) pour confirmer l’origine épithéliale et ovarienne des cellules. Nous avons également analysé le niveau d’expression de HER2 et p53, deux marqueurs importants dans le CÉO. Cependant, il ne semble pas y avoir d’expression différentielle évidente de ces marqueurs entre les lignées pré-chimiothérapie et post-chimiothérapie. Plus encore, nous avons étudié plusieurs caractéristiques tumorigéniques des lignées cellulaires, dont la prolifération cellulaire (par compte cellulaire), la migration cellulaire (par recouvrement de plaie), la capacité à former des sphéroïdes en 3D (par la méthode des gouttelettes inversées), et la formation de tumeurs in vivo dans des souris SCID (xénogreffes sous-cutanées). En général, il ne semble pas y avoir de différences claires entre les cellules pré-chimiothérapie et post-chimiothérapie au niveau du comportement cellulaire, à l’exception du fait qu’aucune des lignées post-chimiothérapie semblent être en mesure de former des structures tridimensionnelles compactes, contrairement à certaines lignées post-chimiothérapie. Nos résultats pourront servir à mieux comprendre les différents mécanismes régissant les tumeurs malignes du CÉO de type séreux et à mieux comprendre la progression de la maladie à travers les différents traitements, ce qui nous permettra d’acquérir des informations essentielles pour mieux évaluer et traiter différentes patientes.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Depuis quelques temps, on note que les objets d’apparence artisanale symbolisent souvent des qualités écologiques telles que des matériaux naturels et une fabrication éthique. Les visées de l’étude ont été d’explorer les perceptions à l’égard des objets à caractère artisanal et cela, en vue de reconnaître quelles qualités écologiques sont attribuées à ces derniers, tout en tentant de comprendre les raisons qui se cachent derrière ces associations. Une étude auprès d’usagers a permis d’explorer l’ensemble des qualités pouvant être liées à ce type d’objet, en considérant plus précisément le rapport entre les qualités écologiques leur étant accordées et leur durée de vie projetée. Pour ce faire, au cours d’entretiens individuels, des thèmes comme l’appréciation à long terme, la signification et la considération de la diversité culturelle ont été examinés. Les résultats montrent entre autres que les objets à caractère artisanal sont caractérisés comme étant composés de matériaux naturels et sains pour la santé des usagers. Leur usure est reconnue comme éveillant les représentations quant à leur « histoire », alors que leur originalité leur confère une « âme ». Enfin, car ils sont considérés comme ayant été fabriqués par des créateurs autonomes, ces objets sont associés à des conditions de travail éthiques et sont perçus comme étant capables de faire tourner l’économie locale. Les renseignements recueillis peuvent informer les théories et la pratique en design industriel quant à la disposition des objets à caractère artisanal à être appréciés par les usagers, de leur durée de vie projetée et du désir de les entretenir et de les léguer. Ce projet constitue un premier répertoire des perceptions entourant ce type d’objet, un champ de recherche encore très peu documenté, malgré qu’il s’inscrive à l’intérieur d’un contexte environnemental et social bien actuel. Les résultats obtenus contribuent à leur façon à la perspective d’une conception, d’une fabrication et d’une consommation davantage viables.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Le processus d’enseignement ne se limite pas à un ensemble de méthodes pédagogiques à appliquer et de contenus programmés à transmettre. Il se déploie également dans la construction par l’enseignant d’une relation pédagogique avec ses élèves. Cette relation est considérée comme étant optimale lorsqu’elle est caractérisée par un niveau élevé de chaleur et un faible niveau de conflits. Plusieurs études démontrent l’existence de liens significatifs entre la qualité de cette relation et les différents indicateurs d’adaptation à l’école. En général, les résultats des études démontrent l’influence positive d’une relation élève-enseignant chaleureuse sur le comportement des élèves, leur réussite scolaire ainsi que sur leurs sentiments et attitudes envers l’école. Certaines recherches soulignent également que l’incidence de la qualité de la relation élève-enseignant est particulièrement importante pour les élèves considérés à risque en raison de présence chez eux des certains facteurs de vulnérabilité tels que la pauvreté (facteurs sociaux), la relation parent-enfant difficile (facteurs familiaux) ou le manque d’habiletés sociales (facteurs individuels). La majorité de recherches ne permet toutefois pas de déterminer quels sont précisément les aspects de cette relation qui influencent significativement la qualité de la relation entre l’enseignant et ses élèves. Souhaitant pallier cette lacune, la présente étude poursuit deux objectifs : 1) examiner le lien entre les perceptions des élèves de niveau secondaire considérés à risque concernant les différents aspects de la qualité de la relation élève-enseignant et les problèmes de comportement extériorisés ; 2) vérifier si ce lien évolue avec le temps. Afin d’atteindre ces objectifs, nous avons pris en considération deux dimensions qui permettent de qualifier les profils de la relation élève-enseignant, soit la chaleur et les conflits (Pianta, 1992). La classification de ces deux dimensions en fonction de leur pôle positif et négatif permet de distinguer quatre profils relationnels que l’élève est susceptible d’établir avec ses enseignants soient le profil dit chaleureux, controversé, négligent ou conflictuel. II Cette étude repose sur un devis longitudinal grâce aux données recueillies dans le cadre de l’évaluation de la stratégie d’intervention Agir Autrement réalisée entre 2002 et 2008 (SIAA). Il s’agit donc ici d’analyses secondaires menées sur un échantillon aléatoire tiré de cette vaste recherche. Un échantillon de 563 élèves de 1re secondaire incluant 273 filles et 290 garçons a été constitué. Les analyses ont été effectuées auprès de ces élèves alors qu’ils étaient en premier et en cinquième année de secondaire ce qui a permis d’observer les changements dans le comportement des élèves à risque en fonction de la qualité de la relation élève-enseignant. De façon générale, les résultats obtenus montrent que les liens entre les différents profils de la relation élève-enseignant et les problèmes de comportement extériorisés sont fort complexes et loin d’être univoques. En particulier, ces résultats permettent de constater que le profil chaleureux représente le profil relationnel le moins associé aux problèmes de comportement extériorisés chez les élèves à risque et ce, autant en première qu’en cinquième secondaire. Selon nos résultats, les profils conflictuel et controversé sont significativement liés aux problèmes de comportement extériorisés chez les élèves à risque de 1re secondaire et de 5e secondaire. En ce qui a trait au profil négligent, les résultats de la présente recherche montrent l’existence d’un lien corrélationnel entre ce profil relationnel et les problèmes de comportement extériorisés. Toutefois, la force de l’association s’est avérée plus significative pour les élèves à risque en 5e secondaire secondaire comparativement aux mêmes élèves alors qu’ils étaient en 1re secondaire. Finalement, l’ensemble de résultats obtenus montre que les profils relationnels restent relativement stables dans le temps, tandis que la fréquence de comportements problématiques tels que le vol grave et la consommation de psychotropes augmentent d’une manière significative. De plus, les résultats que nous avons obtenus montrent l’existence d’un lien entre la dimension de conflits de la relation élève-enseignant et la consommation de substances psychotropes chez les élèves de notre échantillon. La présente recherche permet de constater que la dimension de conflits est aussi importante dans la relation élève-enseignant que la dimension de la chaleur, car les III conflits agiraient comme facteurs de risque pouvant augmenter la fréquence de problèmes de comportement extériorisés chez les élèves de secondaire considérés à risque. Ainsi, la réduction de niveau de conflits dans la relation entre les élèves et leurs enseignants peut jouer un rôle important en termes de prévention de ce type de problèmes chez les élèves de niveau secondaire.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La leucémie aiguë lymphoblastique (LAL) est le cancer pédiatrique le plus fréquent. Elle est la cause principale de mortalité liée au cancer chez les enfants due à un groupe de patient ne répondant pas au traitement. Les patients peuvent aussi souffrir de plusieurs toxicités associées à un traitement intensif de chimiothérapie. Les études en pharmacogénétique de notre groupe ont montré une corrélation tant individuelle que combinée entre les variants génétiques particuliers d’enzymes dépendantes du folate, particulièrement la dihydrofolate réductase (DHFR) ainsi que la thymidylate synthase (TS), principales cibles du méthotrexate (MTX) et le risque élevé de rechute chez les patients atteints de la LAL. En outre, des variations dans le gène ATF5 impliqué dans la régulation de l’asparagine synthetase (ASNS) sont associées à un risque plus élevé de rechute ou à une toxicité ASNase dépendante chez les patients ayant reçu de l’asparaginase d’E.coli (ASNase). Le but principal de mon projet de thèse est de comprendre davantage d’un point de vue fonctionnel, le rôle de variations génétiques dans la réponse thérapeutique chez les patients atteints de la LAL, en se concentrant sur deux composants majeurs du traitement de la LAL soit le MTX ainsi que l’ASNase. Mon objectif spécifique était d’analyser une association trouvée dans des paramètres cliniques par le biais d’essais de prolifération cellulaire de lignées cellulaires lymphoblastoïdes (LCLs, n=93) et d’un modèle murin de xénogreffe de la LAL. Une variation génétique dans le polymorphisme TS (homozygosité de l’allèle de la répétition triple 3R) ainsi que l’haplotype *1b de DHFR (défini par une combinaison particulière d’allèle dérivé de six sites polymorphiques dans le promoteur majeur et mineur de DHFR) et de leurs effets sur la sensibilité au MTX ont été évalués par le biais d’essais de prolifération cellulaire. Des essais in vitro similaires sur la réponse à l’ASNase de E. Coli ont permis d’évaluer l’effet de la variation T1562C de la région 5’UTR de ATF5 ainsi que des haplotypes particuliers du gène ASNS (définis par deux variations génétiques et arbitrairement appelés haplotype *1). Le modèle murin de xénogreffe ont été utilisé pour évaluer l’effet du génotype 3R3R du gène TS. L’analyse de polymorphismes additionnels dans le gène ASNS a révélé une diversification de l’haplotype *1 en 5 sous-types définis par deux polymorphismes (rs10486009 et rs6971012,) et corrélé avec la sensibilité in vitro à l’ASNase et l’un d’eux (rs10486009) semble particulièrement important dans la réduction de la sensibilité in vitro à l’ASNase, pouvant expliquer une sensibilité réduite de l’haplotype *1 dans des paramètres cliniques. Aucune association entre ATF5 T1562C et des essais de prolifération cellulaire en réponse à ASNase de E.Coli n’a été détectée. Nous n’avons pas détecté une association liée au génotype lors d’analyse in vitro de sensibilité au MTX. Par contre, des résultats in vivo issus de modèle murin de xénogreffe ont montré une relation entre le génotype TS 3R/3R et la résistance de manière dose-dépendante au traitement par MTX. Les résultats obtenus ont permis de fournir une explication concernant un haut risque significatif de rechute rencontré chez les patients au génotype TS 3R/3R et suggèrent que ces patients pourraient recevoir une augmentation de leur dose de MTX. À travers ces expériences, nous avons aussi démontré que les modèles murins de xénogreffe peuvent servir comme outil préclinique afin d’explorer l’option d’un traitement individualisé. En conclusion, la connaissance acquise à travers mon projet de thèse a permis de confirmer et/ou d’identifier quelques variants dans la voix d’action du MTX et de l’ASNase qui pourraient faciliter la mise en place de stratégies d’individualisation de la dose, permettant la sélection d’un traitement optimum ou moduler la thérapie basé sur la génétique individuelle.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Le cancer du sein est le cancer le plus fréquent chez la femme. Il demeure la cause de mortalité la plus importante chez les femmes âgées entre 35 et 55 ans. Au Canada, plus de 20 000 nouveaux cas sont diagnostiqués chaque année. Les études scientifiques démontrent que l'espérance de vie est étroitement liée à la précocité du diagnostic. Les moyens de diagnostic actuels comme la mammographie, l'échographie et la biopsie comportent certaines limitations. Par exemple, la mammographie permet de diagnostiquer la présence d’une masse suspecte dans le sein, mais ne peut en déterminer la nature (bénigne ou maligne). Les techniques d’imagerie complémentaires comme l'échographie ou l'imagerie par résonance magnétique (IRM) sont alors utilisées en complément, mais elles sont limitées quant à la sensibilité et la spécificité de leur diagnostic, principalement chez les jeunes femmes (< 50 ans) ou celles ayant un parenchyme dense. Par conséquent, nombreuses sont celles qui doivent subir une biopsie alors que leur lésions sont bénignes. Quelques voies de recherche sont privilégiées depuis peu pour réduire l`incertitude du diagnostic par imagerie ultrasonore. Dans ce contexte, l’élastographie dynamique est prometteuse. Cette technique est inspirée du geste médical de palpation et est basée sur la détermination de la rigidité des tissus, sachant que les lésions en général sont plus rigides que le tissu sain environnant. Le principe de cette technique est de générer des ondes de cisaillement et d'en étudier la propagation de ces ondes afin de remonter aux propriétés mécaniques du milieu via un problème inverse préétabli. Cette thèse vise le développement d'une nouvelle méthode d'élastographie dynamique pour le dépistage précoce des lésions mammaires. L'un des principaux problèmes des techniques d'élastographie dynamiques en utilisant la force de radiation est la forte atténuation des ondes de cisaillement. Après quelques longueurs d'onde de propagation, les amplitudes de déplacement diminuent considérablement et leur suivi devient difficile voir impossible. Ce problème affecte grandement la caractérisation des tissus biologiques. En outre, ces techniques ne donnent que l'information sur l'élasticité tandis que des études récentes montrent que certaines lésions bénignes ont les mêmes élasticités que des lésions malignes ce qui affecte la spécificité de ces techniques et motive la quantification de d'autres paramètres mécaniques (e.g.la viscosité). Le premier objectif de cette thèse consiste à optimiser la pression de radiation acoustique afin de rehausser l'amplitude des déplacements générés. Pour ce faire, un modèle analytique de prédiction de la fréquence de génération de la force de radiation a été développé. Une fois validé in vitro, ce modèle a servi pour la prédiction des fréquences optimales pour la génération de la force de radiation dans d'autres expérimentations in vitro et ex vivo sur des échantillons de tissu mammaire obtenus après mastectomie totale. Dans la continuité de ces travaux, un prototype de sonde ultrasonore conçu pour la génération d'un type spécifique d'ondes de cisaillement appelé ''onde de torsion'' a été développé. Le but est d'utiliser la force de radiation optimisée afin de générer des ondes de cisaillement adaptatives, et de monter leur utilité dans l'amélioration de l'amplitude des déplacements. Contrairement aux techniques élastographiques classiques, ce prototype permet la génération des ondes de cisaillement selon des parcours adaptatifs (e.g. circulaire, elliptique,…etc.) dépendamment de la forme de la lésion. L’optimisation des dépôts énergétiques induit une meilleure réponse mécanique du tissu et améliore le rapport signal sur bruit pour une meilleure quantification des paramètres viscoélastiques. Il est aussi question de consolider davantage les travaux de recherches antérieurs par un appui expérimental, et de prouver que ce type particulier d'onde de torsion peut mettre en résonance des structures. Ce phénomène de résonance des structures permet de rehausser davantage le contraste de déplacement entre les masses suspectes et le milieu environnant pour une meilleure détection. Enfin, dans le cadre de la quantification des paramètres viscoélastiques des tissus, la dernière étape consiste à développer un modèle inverse basé sur la propagation des ondes de cisaillement adaptatives pour l'estimation des paramètres viscoélastiques. L'estimation des paramètres viscoélastiques se fait via la résolution d'un problème inverse intégré dans un modèle numérique éléments finis. La robustesse de ce modèle a été étudiée afin de déterminer ces limites d'utilisation. Les résultats obtenus par ce modèle sont comparés à d'autres résultats (mêmes échantillons) obtenus par des méthodes de référence (e.g. Rheospectris) afin d'estimer la précision de la méthode développée. La quantification des paramètres mécaniques des lésions permet d'améliorer la sensibilité et la spécificité du diagnostic. La caractérisation tissulaire permet aussi une meilleure identification du type de lésion (malin ou bénin) ainsi que son évolution. Cette technique aide grandement les cliniciens dans le choix et la planification d'une prise en charge adaptée.