979 resultados para Obtained results


Relevância:

60.00% 60.00%

Publicador:

Resumo:

La transformation de modèles consiste à transformer un modèle source en un modèle cible conformément à des méta-modèles source et cible. Nous distinguons deux types de transformations. La première est exogène où les méta-modèles source et cible représentent des formalismes différents et où tous les éléments du modèle source sont transformés. Quand elle concerne un même formalisme, la transformation est endogène. Ce type de transformation nécessite généralement deux étapes : l’identification des éléments du modèle source à transformer, puis la transformation de ces éléments. Dans le cadre de cette thèse, nous proposons trois principales contributions liées à ces problèmes de transformation. La première contribution est l’automatisation des transformations des modèles. Nous proposons de considérer le problème de transformation comme un problème d'optimisation combinatoire où un modèle cible peut être automatiquement généré à partir d'un nombre réduit d'exemples de transformations. Cette première contribution peut être appliquée aux transformations exogènes ou endogènes (après la détection des éléments à transformer). La deuxième contribution est liée à la transformation endogène où les éléments à transformer du modèle source doivent être détectés. Nous proposons une approche pour la détection des défauts de conception comme étape préalable au refactoring. Cette approche est inspirée du principe de la détection des virus par le système immunitaire humain, appelée sélection négative. L’idée consiste à utiliser de bonnes pratiques d’implémentation pour détecter les parties du code à risque. La troisième contribution vise à tester un mécanisme de transformation en utilisant une fonction oracle pour détecter les erreurs. Nous avons adapté le mécanisme de sélection négative qui consiste à considérer comme une erreur toute déviation entre les traces de transformation à évaluer et une base d’exemples contenant des traces de transformation de bonne qualité. La fonction oracle calcule cette dissimilarité et les erreurs sont ordonnées selon ce score. Les différentes contributions ont été évaluées sur d’importants projets et les résultats obtenus montrent leurs efficacités.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Nous avons déjà démontré que les probiotiques réduisaient l'apoptose observée dans le système limbique après un infarctus du myocarde (IM), suggérant un rôle anti-dépresseur potentiel des probiotiques. Cette étude a été conçue pour déterminer si les probiotiques pouvaient atténuer le comportement dépressif observé après un infarctus du myocarde. Un autre objectif visait à démontrer qu’une altération de la barrière intestinale pourrait avoir lieu lors d’un IM et que les probiotiques pourraient empêcher cette altération de la perméabilité intestinale. Méthodes: Des rats mâles Sprague-Dawley ont reçu des probiotiques (1 milliard de cellules bactériennes vivantes de Lactobacillus helveticus R0052 et Bifidobacterium longum R0175) ou le véhicule tous les jours en dilution dans leur eau, débutant 1 semaine avant l'induction d'une ischémie myocardique. Un infarctus a ensuite été induit chez la moitié des rats, par l'occlusion de l'artère coronaire antérieure gauche (40 minutes) suivie d'une reperfusion. Les rats témoins, l'autre moitié de la cohorte, ont été soumis à la même procédure sans occlusion coronarienne. Une semaine après l'infarctus, les animaux ont été resoumis au traitement préalable jusqu'au moment du sacrifice. Le comportement dépressif a été évalué par trois tests soit: l'interaction sociale, le test de nage forcée et le test d'évitement passif. Résultats: Les résultats obtenus indiquent qu'en absence d'infarctus, les probiotiques n'ont pas d'effet significatif. Toutefois, en dépit de taille similaire IM, des rats traités avec des probiotiques, ont démontré davantage d'interactions sociales et une meilleure performance dans le test de nage forcée et d'évitement passif, comparativement à des rats du groupe IM sans probiotique (p<0,05). Conclusion: Les probiotiques atténuent le comportement dépressif observé après infarctus du myocarde par un mécanisme qui pourrait impliquer l'intégrité des intestins.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Mondialement, l’infanticide est une cause importante de mortalité infantile. Dans ce mémoire, les infanticides sont analysés en fonction du statut parental, du mode de décès et de l’âge de l’enfant. La première hypothèse de ce mémoire propose qu’il y ait une surreprésentation des parents non biologiques dans les cas d’infanticides chez les enfants de moins de douze ans, et ce, en regard des taux de base de la population. L’hypothèse 2 prédit que les infanticides des parents biologiques devraient revêtir un caractère plus létal (utilisation d’arme à feu, empoisonnement, etc.) que ceux des parents non biologiques qui devraient être caractérisés principalement par des mauvais traitements et de la négligence. D’autres hypothèses sont examinées en fonction des taux de suicide et du sexe de l’agresseur. La présente étude porte sur les cas d’infanticides d’enfants de douze ans et moins sur le territoire du Québec provenant des archives du bureau du coroner pour la période se situant entre 1990 et 2007 (n=182). Les résultats obtenus appuient partiellement l’hypothèse 1 et confirment l’hypothèse 2. En ce sens, les résultats de cette étude viennent appuyer les hypothèses évolutionnistes qui soutiennent une influence du statut parental sur le comportement de l’infanticide. De façon générale, ces résultats mettent en lumière les différences qualitatives qui existent entre les parents biologiques et les parents non biologiques dans les cas d’infanticides. Les implications des résultats obtenus sont discutées.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Le cancer épithélial de l’ovaire (CÉO) est le cancer gynécologique le plus létal. Le CÉO de type séreux, la forme la plus commune avec plus de 50% des cas, est souvent diagnostiqué tardivement et associé à un mauvais pronostic. Le CÉO avancé, surtout traité par chimiothérapie, va devenir chimiorésistant chez la majorité des patientes traitées. Bien que des lignées cellulaires du CÉO aient été dérivées à partir de tumeurs solides et d’ascites de patientes ayant ou non subi une chimiothérapie, aucune des lignées cellulaires du CÉO provenant d’une même patiente avant et après ses traitements de chimiothérapie n’ont été établies précédemment. Notre laboratoire est le premier à développer de telles lignées cellulaires. Nos nouvelles lignées cellulaires sont dérivées de trois patientes différentes (1369, 2295 et 3133) et classées selon leur provenance, soit la tumeur solide (TOV) ou l’ascite (OV). Nous avons donc caractérisé ces nouvelles lignées de cellules pré-chimiothérapie (TOV1369TR, OV2295, TOV3133D et TOV3133G) et post-chimiothérapie (OV1369(2), OV2295(2), TOV2295, OV3133 et OV3133(2)) par diverses approches. Par immunohistochimie et immunobuvardage de type Western, nous avons caractérisé les niveaux d’expression de marqueurs épithéliaux typiques de kératines (KRT7, KRT8, KRT18, KRT19, KRT20) pour confirmer l’origine épithéliale et ovarienne des cellules. Nous avons également analysé le niveau d’expression de HER2 et p53, deux marqueurs importants dans le CÉO. Cependant, il ne semble pas y avoir d’expression différentielle évidente de ces marqueurs entre les lignées pré-chimiothérapie et post-chimiothérapie. Plus encore, nous avons étudié plusieurs caractéristiques tumorigéniques des lignées cellulaires, dont la prolifération cellulaire (par compte cellulaire), la migration cellulaire (par recouvrement de plaie), la capacité à former des sphéroïdes en 3D (par la méthode des gouttelettes inversées), et la formation de tumeurs in vivo dans des souris SCID (xénogreffes sous-cutanées). En général, il ne semble pas y avoir de différences claires entre les cellules pré-chimiothérapie et post-chimiothérapie au niveau du comportement cellulaire, à l’exception du fait qu’aucune des lignées post-chimiothérapie semblent être en mesure de former des structures tridimensionnelles compactes, contrairement à certaines lignées post-chimiothérapie. Nos résultats pourront servir à mieux comprendre les différents mécanismes régissant les tumeurs malignes du CÉO de type séreux et à mieux comprendre la progression de la maladie à travers les différents traitements, ce qui nous permettra d’acquérir des informations essentielles pour mieux évaluer et traiter différentes patientes.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Depuis quelques temps, on note que les objets d’apparence artisanale symbolisent souvent des qualités écologiques telles que des matériaux naturels et une fabrication éthique. Les visées de l’étude ont été d’explorer les perceptions à l’égard des objets à caractère artisanal et cela, en vue de reconnaître quelles qualités écologiques sont attribuées à ces derniers, tout en tentant de comprendre les raisons qui se cachent derrière ces associations. Une étude auprès d’usagers a permis d’explorer l’ensemble des qualités pouvant être liées à ce type d’objet, en considérant plus précisément le rapport entre les qualités écologiques leur étant accordées et leur durée de vie projetée. Pour ce faire, au cours d’entretiens individuels, des thèmes comme l’appréciation à long terme, la signification et la considération de la diversité culturelle ont été examinés. Les résultats montrent entre autres que les objets à caractère artisanal sont caractérisés comme étant composés de matériaux naturels et sains pour la santé des usagers. Leur usure est reconnue comme éveillant les représentations quant à leur « histoire », alors que leur originalité leur confère une « âme ». Enfin, car ils sont considérés comme ayant été fabriqués par des créateurs autonomes, ces objets sont associés à des conditions de travail éthiques et sont perçus comme étant capables de faire tourner l’économie locale. Les renseignements recueillis peuvent informer les théories et la pratique en design industriel quant à la disposition des objets à caractère artisanal à être appréciés par les usagers, de leur durée de vie projetée et du désir de les entretenir et de les léguer. Ce projet constitue un premier répertoire des perceptions entourant ce type d’objet, un champ de recherche encore très peu documenté, malgré qu’il s’inscrive à l’intérieur d’un contexte environnemental et social bien actuel. Les résultats obtenus contribuent à leur façon à la perspective d’une conception, d’une fabrication et d’une consommation davantage viables.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Le processus d’enseignement ne se limite pas à un ensemble de méthodes pédagogiques à appliquer et de contenus programmés à transmettre. Il se déploie également dans la construction par l’enseignant d’une relation pédagogique avec ses élèves. Cette relation est considérée comme étant optimale lorsqu’elle est caractérisée par un niveau élevé de chaleur et un faible niveau de conflits. Plusieurs études démontrent l’existence de liens significatifs entre la qualité de cette relation et les différents indicateurs d’adaptation à l’école. En général, les résultats des études démontrent l’influence positive d’une relation élève-enseignant chaleureuse sur le comportement des élèves, leur réussite scolaire ainsi que sur leurs sentiments et attitudes envers l’école. Certaines recherches soulignent également que l’incidence de la qualité de la relation élève-enseignant est particulièrement importante pour les élèves considérés à risque en raison de présence chez eux des certains facteurs de vulnérabilité tels que la pauvreté (facteurs sociaux), la relation parent-enfant difficile (facteurs familiaux) ou le manque d’habiletés sociales (facteurs individuels). La majorité de recherches ne permet toutefois pas de déterminer quels sont précisément les aspects de cette relation qui influencent significativement la qualité de la relation entre l’enseignant et ses élèves. Souhaitant pallier cette lacune, la présente étude poursuit deux objectifs : 1) examiner le lien entre les perceptions des élèves de niveau secondaire considérés à risque concernant les différents aspects de la qualité de la relation élève-enseignant et les problèmes de comportement extériorisés ; 2) vérifier si ce lien évolue avec le temps. Afin d’atteindre ces objectifs, nous avons pris en considération deux dimensions qui permettent de qualifier les profils de la relation élève-enseignant, soit la chaleur et les conflits (Pianta, 1992). La classification de ces deux dimensions en fonction de leur pôle positif et négatif permet de distinguer quatre profils relationnels que l’élève est susceptible d’établir avec ses enseignants soient le profil dit chaleureux, controversé, négligent ou conflictuel. II Cette étude repose sur un devis longitudinal grâce aux données recueillies dans le cadre de l’évaluation de la stratégie d’intervention Agir Autrement réalisée entre 2002 et 2008 (SIAA). Il s’agit donc ici d’analyses secondaires menées sur un échantillon aléatoire tiré de cette vaste recherche. Un échantillon de 563 élèves de 1re secondaire incluant 273 filles et 290 garçons a été constitué. Les analyses ont été effectuées auprès de ces élèves alors qu’ils étaient en premier et en cinquième année de secondaire ce qui a permis d’observer les changements dans le comportement des élèves à risque en fonction de la qualité de la relation élève-enseignant. De façon générale, les résultats obtenus montrent que les liens entre les différents profils de la relation élève-enseignant et les problèmes de comportement extériorisés sont fort complexes et loin d’être univoques. En particulier, ces résultats permettent de constater que le profil chaleureux représente le profil relationnel le moins associé aux problèmes de comportement extériorisés chez les élèves à risque et ce, autant en première qu’en cinquième secondaire. Selon nos résultats, les profils conflictuel et controversé sont significativement liés aux problèmes de comportement extériorisés chez les élèves à risque de 1re secondaire et de 5e secondaire. En ce qui a trait au profil négligent, les résultats de la présente recherche montrent l’existence d’un lien corrélationnel entre ce profil relationnel et les problèmes de comportement extériorisés. Toutefois, la force de l’association s’est avérée plus significative pour les élèves à risque en 5e secondaire secondaire comparativement aux mêmes élèves alors qu’ils étaient en 1re secondaire. Finalement, l’ensemble de résultats obtenus montre que les profils relationnels restent relativement stables dans le temps, tandis que la fréquence de comportements problématiques tels que le vol grave et la consommation de psychotropes augmentent d’une manière significative. De plus, les résultats que nous avons obtenus montrent l’existence d’un lien entre la dimension de conflits de la relation élève-enseignant et la consommation de substances psychotropes chez les élèves de notre échantillon. La présente recherche permet de constater que la dimension de conflits est aussi importante dans la relation élève-enseignant que la dimension de la chaleur, car les III conflits agiraient comme facteurs de risque pouvant augmenter la fréquence de problèmes de comportement extériorisés chez les élèves de secondaire considérés à risque. Ainsi, la réduction de niveau de conflits dans la relation entre les élèves et leurs enseignants peut jouer un rôle important en termes de prévention de ce type de problèmes chez les élèves de niveau secondaire.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La leucémie aiguë lymphoblastique (LAL) est le cancer pédiatrique le plus fréquent. Elle est la cause principale de mortalité liée au cancer chez les enfants due à un groupe de patient ne répondant pas au traitement. Les patients peuvent aussi souffrir de plusieurs toxicités associées à un traitement intensif de chimiothérapie. Les études en pharmacogénétique de notre groupe ont montré une corrélation tant individuelle que combinée entre les variants génétiques particuliers d’enzymes dépendantes du folate, particulièrement la dihydrofolate réductase (DHFR) ainsi que la thymidylate synthase (TS), principales cibles du méthotrexate (MTX) et le risque élevé de rechute chez les patients atteints de la LAL. En outre, des variations dans le gène ATF5 impliqué dans la régulation de l’asparagine synthetase (ASNS) sont associées à un risque plus élevé de rechute ou à une toxicité ASNase dépendante chez les patients ayant reçu de l’asparaginase d’E.coli (ASNase). Le but principal de mon projet de thèse est de comprendre davantage d’un point de vue fonctionnel, le rôle de variations génétiques dans la réponse thérapeutique chez les patients atteints de la LAL, en se concentrant sur deux composants majeurs du traitement de la LAL soit le MTX ainsi que l’ASNase. Mon objectif spécifique était d’analyser une association trouvée dans des paramètres cliniques par le biais d’essais de prolifération cellulaire de lignées cellulaires lymphoblastoïdes (LCLs, n=93) et d’un modèle murin de xénogreffe de la LAL. Une variation génétique dans le polymorphisme TS (homozygosité de l’allèle de la répétition triple 3R) ainsi que l’haplotype *1b de DHFR (défini par une combinaison particulière d’allèle dérivé de six sites polymorphiques dans le promoteur majeur et mineur de DHFR) et de leurs effets sur la sensibilité au MTX ont été évalués par le biais d’essais de prolifération cellulaire. Des essais in vitro similaires sur la réponse à l’ASNase de E. Coli ont permis d’évaluer l’effet de la variation T1562C de la région 5’UTR de ATF5 ainsi que des haplotypes particuliers du gène ASNS (définis par deux variations génétiques et arbitrairement appelés haplotype *1). Le modèle murin de xénogreffe ont été utilisé pour évaluer l’effet du génotype 3R3R du gène TS. L’analyse de polymorphismes additionnels dans le gène ASNS a révélé une diversification de l’haplotype *1 en 5 sous-types définis par deux polymorphismes (rs10486009 et rs6971012,) et corrélé avec la sensibilité in vitro à l’ASNase et l’un d’eux (rs10486009) semble particulièrement important dans la réduction de la sensibilité in vitro à l’ASNase, pouvant expliquer une sensibilité réduite de l’haplotype *1 dans des paramètres cliniques. Aucune association entre ATF5 T1562C et des essais de prolifération cellulaire en réponse à ASNase de E.Coli n’a été détectée. Nous n’avons pas détecté une association liée au génotype lors d’analyse in vitro de sensibilité au MTX. Par contre, des résultats in vivo issus de modèle murin de xénogreffe ont montré une relation entre le génotype TS 3R/3R et la résistance de manière dose-dépendante au traitement par MTX. Les résultats obtenus ont permis de fournir une explication concernant un haut risque significatif de rechute rencontré chez les patients au génotype TS 3R/3R et suggèrent que ces patients pourraient recevoir une augmentation de leur dose de MTX. À travers ces expériences, nous avons aussi démontré que les modèles murins de xénogreffe peuvent servir comme outil préclinique afin d’explorer l’option d’un traitement individualisé. En conclusion, la connaissance acquise à travers mon projet de thèse a permis de confirmer et/ou d’identifier quelques variants dans la voix d’action du MTX et de l’ASNase qui pourraient faciliter la mise en place de stratégies d’individualisation de la dose, permettant la sélection d’un traitement optimum ou moduler la thérapie basé sur la génétique individuelle.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Le cancer du sein est le cancer le plus fréquent chez la femme. Il demeure la cause de mortalité la plus importante chez les femmes âgées entre 35 et 55 ans. Au Canada, plus de 20 000 nouveaux cas sont diagnostiqués chaque année. Les études scientifiques démontrent que l'espérance de vie est étroitement liée à la précocité du diagnostic. Les moyens de diagnostic actuels comme la mammographie, l'échographie et la biopsie comportent certaines limitations. Par exemple, la mammographie permet de diagnostiquer la présence d’une masse suspecte dans le sein, mais ne peut en déterminer la nature (bénigne ou maligne). Les techniques d’imagerie complémentaires comme l'échographie ou l'imagerie par résonance magnétique (IRM) sont alors utilisées en complément, mais elles sont limitées quant à la sensibilité et la spécificité de leur diagnostic, principalement chez les jeunes femmes (< 50 ans) ou celles ayant un parenchyme dense. Par conséquent, nombreuses sont celles qui doivent subir une biopsie alors que leur lésions sont bénignes. Quelques voies de recherche sont privilégiées depuis peu pour réduire l`incertitude du diagnostic par imagerie ultrasonore. Dans ce contexte, l’élastographie dynamique est prometteuse. Cette technique est inspirée du geste médical de palpation et est basée sur la détermination de la rigidité des tissus, sachant que les lésions en général sont plus rigides que le tissu sain environnant. Le principe de cette technique est de générer des ondes de cisaillement et d'en étudier la propagation de ces ondes afin de remonter aux propriétés mécaniques du milieu via un problème inverse préétabli. Cette thèse vise le développement d'une nouvelle méthode d'élastographie dynamique pour le dépistage précoce des lésions mammaires. L'un des principaux problèmes des techniques d'élastographie dynamiques en utilisant la force de radiation est la forte atténuation des ondes de cisaillement. Après quelques longueurs d'onde de propagation, les amplitudes de déplacement diminuent considérablement et leur suivi devient difficile voir impossible. Ce problème affecte grandement la caractérisation des tissus biologiques. En outre, ces techniques ne donnent que l'information sur l'élasticité tandis que des études récentes montrent que certaines lésions bénignes ont les mêmes élasticités que des lésions malignes ce qui affecte la spécificité de ces techniques et motive la quantification de d'autres paramètres mécaniques (e.g.la viscosité). Le premier objectif de cette thèse consiste à optimiser la pression de radiation acoustique afin de rehausser l'amplitude des déplacements générés. Pour ce faire, un modèle analytique de prédiction de la fréquence de génération de la force de radiation a été développé. Une fois validé in vitro, ce modèle a servi pour la prédiction des fréquences optimales pour la génération de la force de radiation dans d'autres expérimentations in vitro et ex vivo sur des échantillons de tissu mammaire obtenus après mastectomie totale. Dans la continuité de ces travaux, un prototype de sonde ultrasonore conçu pour la génération d'un type spécifique d'ondes de cisaillement appelé ''onde de torsion'' a été développé. Le but est d'utiliser la force de radiation optimisée afin de générer des ondes de cisaillement adaptatives, et de monter leur utilité dans l'amélioration de l'amplitude des déplacements. Contrairement aux techniques élastographiques classiques, ce prototype permet la génération des ondes de cisaillement selon des parcours adaptatifs (e.g. circulaire, elliptique,…etc.) dépendamment de la forme de la lésion. L’optimisation des dépôts énergétiques induit une meilleure réponse mécanique du tissu et améliore le rapport signal sur bruit pour une meilleure quantification des paramètres viscoélastiques. Il est aussi question de consolider davantage les travaux de recherches antérieurs par un appui expérimental, et de prouver que ce type particulier d'onde de torsion peut mettre en résonance des structures. Ce phénomène de résonance des structures permet de rehausser davantage le contraste de déplacement entre les masses suspectes et le milieu environnant pour une meilleure détection. Enfin, dans le cadre de la quantification des paramètres viscoélastiques des tissus, la dernière étape consiste à développer un modèle inverse basé sur la propagation des ondes de cisaillement adaptatives pour l'estimation des paramètres viscoélastiques. L'estimation des paramètres viscoélastiques se fait via la résolution d'un problème inverse intégré dans un modèle numérique éléments finis. La robustesse de ce modèle a été étudiée afin de déterminer ces limites d'utilisation. Les résultats obtenus par ce modèle sont comparés à d'autres résultats (mêmes échantillons) obtenus par des méthodes de référence (e.g. Rheospectris) afin d'estimer la précision de la méthode développée. La quantification des paramètres mécaniques des lésions permet d'améliorer la sensibilité et la spécificité du diagnostic. La caractérisation tissulaire permet aussi une meilleure identification du type de lésion (malin ou bénin) ainsi que son évolution. Cette technique aide grandement les cliniciens dans le choix et la planification d'une prise en charge adaptée.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La présente recherche vise à décrire et comprendre l’enseignement de la distinction entre le passé composé et l’imparfait à partir des connaissances et conceptions des enseignants ainsi qu’à partir de leur matériel didactique. La distinction aspectuelle, plus précisément celle qui concerne le perfectif et l’imperfectif, est une difficulté qui concerne plusieurs langues. La recherche antérieure s’est beaucoup intéressée à cette question, permettant de comprendre les raisons de cette difficulté qui se fonde sur l’hypothèse de l’aspect. À partir de cette hypothèse, les difficultés concernant la distinction entre le passé composé et l’imparfait s’éclaircissent, permettant d’ajuster les explications et la transposition didactique. Or, la recherche antérieure considère que les manuels didactiques fournissent aux apprenants et aux enseignants des explications qui ne permettent pas une réelle compréhension de la distinction entre le passé composé et l’imparfait. La présente recherche cherche à vérifier ces hypothèses. À partir d’entrevues réalisées auprès de neuf enseignants de français langue seconde, les résultats montrent qu’effectivement, les enseignants s’inspirent des manuels didactiques pour expliquer et transposer la distinction entre le passé composé et l’imparfait. De plus, à partir du matériel didactique fourni par les mêmes enseignants, les résultats montrent que malgré une connaissance de la difficulté d’emploi du passé composé et de l’imparfait, les exercices ne sont pas adaptés aux difficultés des étudiants. Enfin, la présente recherche démontre la prédominance de l’intrant typique par rapport à l’intrant atypique.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

L’annonce d’un diagnostic de cancer provoque souvent une forte réaction émotionnelle et un stress important tant chez les adultes que chez les adolescents et leurs parents. Certains d’entre eux cherchant à soulager cette détresse se tournent vers des méthodes alternatives positives de gestion de stress, dans le but d’atténuer les effets psychologiques indésirables du cancer. Les thérapies ciblant à la fois le corps et l’esprit gagnent en popularité dans ces populations. Une avenue prometteuse est la méditation de pleine conscience (MPC), inspirée de la philosophie bouddhiste et adaptée dans le cadre d’interventions thérapeutiques pour améliorer la qualité de vie des patients souffrant de maladies chroniques. À ce jour, des études dans le domaine de la santé ont suggéré que la MPC pouvait avoir des effets bénéfiques sur les symptômes et la gestion de plusieurs maladies chroniques dont le cancer, faisant d’elle une avenue thérapeutique intéressante dans le traitement des effets psychologiques indésirables liés à ces maladies. La recherche émergente en pédiatrie suggère des effets comparables chez les enfants et adolescents. L’objectif de la présente thèse a été de développer un essai clinique randomisé visant à évaluer les effets de la MPC sur la qualité de vie, le sommeil et l’humeur chez des adolescents atteints de cancer, en documentant les étapes d’implantation du projet, les embuches qui ont été rencontrées durant son implantation et les résultats obtenus. La thèse est présentée sous la forme de deux articles scientifiques. Le premier article présente la méthodologie qui avait été planifiée pour ce projet mais qui n’a pu être réalisée en raison d’embuches rencontrées dans la complétion de ce pilote. Ainsi, les étapes préliminaires du développement de ce projet de recherche, en accordant une place prépondérante au manuel d’intervention rédigé à cette fin. La mise en place et la structure de ce projet, nommément le devis méthodologique employé, la taille d’échantillon visée, les méthodes de recrutement mises en place et les stratégies de randomisation prévues, sont décrites en détail dans cet article. Pour les fins de ce projet, un manuel d’intervention de MPC a été rédigé. L’intervention en MPC, menée par deux instructeurs formés en MPC, s’est échelonnée sur une durée de huit semaines, à raison d’une séance d’une heure trente par semaine. Une description détaillée de chaque séance est incluse dans cet article, dans un but de dissémination du protocole de recherche. Des analyses intragroupe serviront à évaluer l’impact de l’intervention en méditation de pleine conscience sur la qualité de vie, le sommeil et l’humeur pré-à-post intervention et au suivi à six mois. Des analyses intergroupes prévues sont décrites afin de comparer les effets de l’intervention entre les participants du groupe contrôle et du groupe expérimental. Les limites potentielles de ce projet, notamment la participation volontaire, le risque d’attrition et la petite taille d’échantillon sont décrites en détail dans cet article. Le deuxième article présente, dans un premier temps, le déroulement du projet de recherche, en mettant en lumière les embuches rencontrées dans son implantation. Ainsi, les leçons à tirer de l’implantation d’un tel essai clinique en milieu hospitalier au Québec sont décrites selon trois axes : 1) les défis liés au recrutement et à la rétention des participants; 2) l’acceptabilité et la compréhensibilité de l’intervention en pleine conscience; et 3) le moment où l’intervention s’est déroulée (timing) et l’impact sur l’engagement requis des participants dans le projet. Durant une période de recrutement de neuf mois, 481 participants potentiels ont été filtrés. 418 (86,9 %) d’entre eux ont été exclus. 63 participants potentiels, vivant à moins d’une heure de Montréal, ont été approchés pour prendre part à ce projet. De ce nombre, seulement 7 participants (1,4%) ont accepté de participer aux rencontres de MPC et de compléter les mesures pré-post intervention. Un bassin d’éligibilité réduit, ainsi que des taux de refus élevés et des conflits d’horaire avec les activités scolaires ont eu un impact considérable sur la taille d’échantillon de ce projet et sur l’absentéisme des participants. Malgré l’intérêt manifeste des équipes médicales pour la recherche psychosociale, les ressources requises pour mener à terme de tels essais cliniques sont trop souvent sous- estimées. Les stratégies de recrutement et de rétention des participants méritent une attention spéciale des chercheurs dans ce domaine. Dans un deuxième temps, le deuxième article de cette thèse a pour objectif de présenter les résultats de l’intervention en MPC chez des jeunes ayant le cancer, en examinant spécifiquement l’impact de l’intervention sur la qualité de vie, le sommeil et l’humeur des jeunes pré-post intervention et lors du suivi à six mois. Faisant écho aux embuches décrites préalablement décrites, les analyses statistiques n’ont permis de déceler aucun effet statistiquement significatif de notre intervention. Aucune différence significative n’est notée entre les participants du groupe expérimental et les participants du groupe contrôle. Les difficultés rencontrées dans de la complétion des devoirs et de la pratique de techniques de méditation entre les séances, décrites en détail cet article, expliquent en partie ces résultats. Globalement, le contexte développemental spécifique à l’adolescence, ayant possiblement eu un impact sur l’adhérence des participants à la thérapie proposée et à leur motivation à prendre part aux rencontres, les scores sous-cliniques lors du premier temps de mesure, l’impact du soutien social inhérent au contexte de thérapie de groupe, ainsi que les caractéristiques personnelles des thérapeutes, pourraient avoir influencé les résultats de ce pilote. Les résultats de ce projet pilote nous laissent croire que la prudence est de mise dans la généralisation des bienfaits et de l’efficacité de la pleine conscience observés chez les adultes atteints de cancer dans son application aux adolescents en oncologie. En conclusion, la présente thèse contribue à enrichir la recherche dans le domaine de la MPC chez les jeunes en questionnant néanmoins la pertinence d’une telle intervention auprès d’une population d’adolescents souffrant de cancer. Ainsi, il convient d’analyser les résultats obtenus en tenant compte des limites méthodologiques de ce projet et de poser un regard critique sur la faisabilité et la reproductibilité d’un projet d’une telle envergure auprès d’une même population. Les leçons tirées de l’implantation d’un tel projet en milieu hospitalier pédiatrique se sont avérées d’une importance centrale dans sa complétion et feront partie intégrante de toute tentative de réplication. D’autres essais cliniques de cette nature seront inévitablement requis afin de statuer sur l’efficacité de la MPC chez des adolescents atteints cancer et sur la faisabilité de l’implantation de cette méthode d’intervention auprès d’une population pédiatrique hospitalière.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Intrinsisch leitfähige Polymere sind durch eine Reihe materialspezifischer Eigenschaften gekennzeichnet. In Abhängigkeit des angelegten Potenzials und der chemischen Umgebung zeigen sie elektrochromes Verhalten, Veränderungen der Masse, des Volumens und der elektronischen Leitfähigkeit. Basierend auf diesen Eigenschaften eignen sich halbleitende organische Polymere als funktionales Material für Anwendungen in der Mikro- und Nanotechnologie, insbesondere für miniaturisierte chemische Sensoren und Aktoren. Im Gegensatz zu konventionellen Piezo-Aktoren operieren diese Aktoren z. B. bei Spannungen unterhalb 1 V. Diese Arbeit befasst sich mit den elektrochemomechanischen Eigenschaften der ausgewählten Polymere Polyanilin und Polypyrrol, d. h. mit den potenzialkontrollierten Veränderungen des Volumens, der Struktur und der mechanischen Eigenschaften. Bei diesem Prozess werden positive Ladungen innerhalb der Polymerphase generiert. Um die für den Ladungsausgleich benötigten Gegenionen bereitzustellen, werden alle Messungen in Anwesenheit eines wässrigen Elektrolyten durchgeführt. Der Ladungstransport und die Volumenänderungen werden mit den Methoden der zyklischen Voltammetrie, der elektrochemischen Quarzmikrowaage und der Rastersondenmikroskopie untersucht. Signifikante Ergebnisse können für dünne homogene Polymerschichten erhalten werden, wobei Schichtdicken oberhalb 150 nm aufgrund der insbesondere bei Polyanilin einsetzenden Bildung von Fadenstrukturen (Fibrillen) vermieden werden. Von besonderem Interesse im Rahmen dieser Arbeit ist die Kombination der funktionalen Polymere mit Strukturen auf Siliziumbasis, insbesondere mit mikrostrukturierten Cantilevern. Die zuvor erhaltenen Ergebnisse bilden die Grundlage für das Design und die Dimensionierung der Mikroaktoren. Diese bestehen aus Siliziumcantilevern, die eine Elektrodenschicht aus Gold oder Platin tragen. Auf der Elektrode wird mittels Elektrodeposition eine homogene Schicht Polymer mit Schichtdicken bis zu 150 nm aufgebracht. Die Aktorcharakteristik, die Biegung des Cantilevers aufgrund des angelegten Potenzials, wird mit dem aus der Rastersondenmikroskopie bekannten Lichtzeigerverfahren gemessen. Das Aktorsystem wird hinsichtlich des angelegten Potenzials, des Elektrolyten und der Redox-Kinetik charakterisiert. Die verschiedenen Beiträge zum Aktorverhalten werden in situ während des Schichtwachstums untersucht. Das beobachtete Verhalten kann als Superposition verschiedener Effekte beschrieben werden. Darunter sind die Elektrodenaufladung (Elektrokapillarität), die Veränderungen der Elektrodenoberfläche durch dünne Oxidschichten und die Elektrochemomechanik des Polymers.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Aufgrund ihrer Vorteile hinsichtlich Dauerhaftigkeit und Bauwerkssicherheit ist in Deutschland seit 1998 die externe Vorspannung in Hohlkastenbrücken zur Regelbauweise geworden. Durch Verwendung der austauschbaren externen Vorspannung verspricht man sich im Brückenbau weitere Verbesserungen der Robustheit und damit eine Verlängerung der Lebensdauer. Trotz des besseren Korrosionsschutzes im Vergleich zur internen Vorspannung mit Verbund sind Schäden nicht völlig auszuschließen. Um die Vorteile der externen Vorspannung zu nutzen, ist daher eine periodische Überwachung der Spanngliedkräfte, z. B. während der Hauptprüfung des Bauwerks, durchzuführen. Für die Überwachung der Spanngliedkräfte bei Schrägseilbrücken haben sich die Schwingungsmessmethoden als wirtschaftlich und leistungsfähig erwiesen. Für die Übertragung der Methode auf den Fall der externen Vorspannung, wo kürzere Schwingungslängen vorliegen, waren zusätzliche Untersuchungen hinsichtlich der effektiven Schwingungslänge, der Randbedingungen sowie der effektiven Biegesteifigkeit erforderlich. Im Rahmen der vorliegenden Arbeit wurde das Modellkorrekturverfahren, basierend auf der iterativen Anpassung eines F.E.-Modells an die identifizierten Eigenfrequenzen und Eigenformen des Spanngliedes, für die Bestimmung der Spanngliedkräfte verwendet. Dieses Verfahren ermöglicht die Berücksichtigung der Parameter (Schwingungslänge, Randbedingungen und effektive Biegesteifigkeit) bei der Identifikation der effektiven Spanngliedkräfte. Weiterhin ist eine Modellierung jeder beliebigen Spanngliedausbildung, z. B. bei unterschiedlichen Querschnitten in den Verankerungs- bzw. Umlenkbereichen, gewährleistet. Zur Anwendung bei der Ermittlung der Spanngliedkräfte wurde eine spezielle Methode, basierend auf den besonderen dynamischen Eigenschaften der Spannglieder, entwickelt, bei der die zuvor genannten Parameter innerhalb jedes Iterationsschrittes unabhängig korrigiert werden, was zur Robustheit des Identifikationsverfahrens beiträgt. Das entwickelte Verfahren ist in einem benutzerfreundlichen Programmsystem implementiert worden. Die erzielten Ergebnisse wurden mit dem allgemeinen Identifikationsprogramm UPDATE_g2 verglichen; dabei ist eine sehr gute Übereinstimmung festgestellt worden. Beim selbst entwickelten Verfahren wird die benötigte Rechenzeit auf ca. 30 % reduziert [100 sec à 30 sec]. Es bietet sich daher für die unmittelbare Auswertung vor Ort an. Die Parameteridentifikationsverfahren wurden an den Spanngliedern von insgesamt sechs Brücken (vier unterschiedliche Spannverfahren) angewendet. Die Anzahl der getesteten Spannglieder beträgt insgesamt 340. Die Abweichung zwischen den durch Schwingungs-messungen identifizierten und gemessenen (bei einer Brücke durch eine Abhebekontrolle) bzw. aufgebrachten Spanngliedkräften war kleiner als 3 %. Ferner wurden die Auswirkungen äußerer Einflüsse infolge Temperaturschwankungen und Verkehr bei den durchgeführten Messungen untersucht. Bei der praktischen Anwendung sind Besonderheiten aufgetreten, die durch die Verwendung des Modellkorrekturverfahrens weitgehend erfasst werden konnten. Zusammenfassend lässt sich sagen, dass die Verwendung dieses Verfahrens die Genauigkeit im Vergleich mit den bisherigen Schwingungsmessmethoden beachtlich erhöht. Ferner wird eine Erweiterung des Anwendungsbereiches auch auf Spezialfälle (z. B. bei einem unplanmäßigen Anliegen) gewährleistet.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In der vorliegenden Arbeit wurde das Wachstum von Silbernanoteilchen auf Magnesiumoxid und dabei insbesondere deren Größen- und Formrelation untersucht. Hierzu wurden Silbernanoteilchen auf ausgedehnten Magnesiumoxidsubstraten sowie auf Magnesiumoxid-Nanowürfeln präpariert. Zur Charakterisierung wurde die optische Spektroskopie, die Rasterkraftmikroskopie und die Transmissionselektronenmikroskopie eingesetzt. Während die Elektronenmikroskopie direkt sehr exakte Daten bezüglich der Größe und Form der Nanoteilchen liefert, kann mit den beiden anderen in dieser Arbeit verwendeten Charakterisierungsmethoden jeweils nur ein Parameter bestimmt werden. So kann man die Größe der Nanoteilchen indirekt mit Hilfe des AFM, durch Messung der Teilchananzahldichte, bestimmen. Bei der Bestimmung der Form mittels optischer Spektroskopie nutzt man aus, dass die spektralen Positionen der Plasmonresonanzen in dem hier verwendeten Größenbereich von etwa 2 - 10~nm nur von der Form aber nicht von der Größe der Teilchen abhängen. Ein wesentliches Ziel dieser Arbeit war es, die Ergebnisse bezüglich der Form und Größe der Nanoteilchen, die mit den unterschiedlichen Messmethoden erhalten worden sind zu vergleichen. Dabei hat sich gezeigt, dass die mit dem AFM und dem TEM bestimmten Größen signifikant voneinander Abweichen. Zur Aufklärung dieser Diskrepanz wurde ein geometrisches Modell aufgestellt und AFM-Bilder von Nanoteilchen simuliert. Bei dem Vergleich von optischer Spektroskopie und Transmissionselektronenmikroskopie wurde eine recht gute Übereinstimmung zwischen den ermittelten Teilchenformen gefunden. Hierfür wurden die gemessenen optischen Spektren mit Modellrechnungen verglichen, woraus man die Relation zwischen Teilchengröße und -form erhielt. Eine Übereinstimmung zwischen den erhaltenen Daten ergibt sich nur, wenn bei der Modellierung der Spektren die Form- und Größenverteilung der Nanoteilchen berücksichtigt wird. Insgesamt hat diese Arbeit gezeigt, dass die Kombination von Rasterkraftmikroskopie und optischer Spektroskopie ein vielseitiges Charakterisierungsverfahren für Nanoteilchen. Die daraus gewonnenen Ergebnisse sind innerhalb gewisser Fehlergrenzen gut mit der Transmissionselektronenmikroskopie vergleichbar.