981 resultados para Propriétés mécaniques des couches minces


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le glioblastome multiforme (GBM) représente la tumeur cérébrale primaire la plus agressive et la plus vascularisée chez l’adulte. La survie médiane après le diagnostic est de moins d’un an en l’absence de traitement. Malheureusement, 90% des patients traités avec de la radiothérapie après la résection chirurgicale d’un GBM développent une récidive tumorale. Récemment, le traitement des GBM avec radiothérapie et témozolomide, un agent reconnu pour ses propriétés antiangiogéniques, a permis de prolonger la survie médiane à 14,6 mois. Des efforts sont déployés pour identifier des substances naturelles capables d’inhiber, de retarder ou de renverser le processus de carcinogenèse. Epigallocatechin-3-gallate (EGCG), un polyphénol retrouvé dans le thé vert, est reconnu pour ses propriétés anticancéreuses et antiangiogéniques. L’EGCG pourrait sensibiliser les cellules tumorales cérébrales et les cellules endothéliales dérivées des tumeurs aux traitements conventionnels. Le chapitre II décrit la première partie de ce projet de doctorat. Nous avons tenté de déterminer si l’EGCG pourrait sensibiliser la réponse des GBM à l’irradiation (IR) et si des marqueurs moléculaires spécifiques sont impliqués. Nous avons documenté que les cellules U-87 étaient relativement radiorésistantes et que Survivin, une protéine inhibitrice de l’apoptose, pourrait être impliquée dans la radiorésistance des GBM. Aussi, nous avons démontré que le pré-traitement des cellules U-87 avec de l’EGCG pourrait annuler l’effet cytoprotecteur d’une surexpression de Survivin et potentialiser l’effet cytoréducteur de l’IR. Au chapitre III, nous avons caractérisé l’impact de l’IR sur la survie de cellules endothéliales microvasculaires cérébrales humaines (HBMEC) et nous avons déterminé si l’EGCG pouvait optimiser cet effet. Bien que les traitements individuels avec l’EGCG et l’IR diminuaient la survie des HBMEC, le traitement combiné diminuait de façon synergique la survie cellulaire. Nous avons documenté que le traitement combiné augmentait la mort cellulaire, plus spécifiquement la nécrose. Au chapitre IV, nous avons investigué l’impact de l’IR sur les fonctions angiogéniques des HBMEC résistantes à l’IR, notamment la prolifération cellulaire, la migration cellulaire en présence de facteurs de croissance dérivés des tumeurs cérébrales, et la capacité de tubulogenèse. La voie de signalisation des Rho a aussi été étudiée en relation avec les propriétés angiogéniques des HBMEC radiorésistantes. Nos données suggèrent que l’IR altère significativement les propriétés angiogéniques des HBMEC. La réponse aux facteurs importants pour la croissance tumorale et l’angiogenèse ainsi que la tubulogenèse sont atténuées dans ces cellules. En conclusion, ce projet de doctorat confirme les propriétés cytoréductrices de l’IR sur les gliomes malins et propose un nouveau mécanisme pour expliquer la radiorésistance des GBM. Ce projet documente pour la première fois l’effet cytotoxique de l’IR sur les HBMEC. Aussi, ce projet reconnaît l’existence de HBMEC radiorésistantes et caractérise leurs fonctions angiogéniques altérées. La combinaison de molécules naturelles anticancéreuses et antiangiogéniques telles que l’EGCG avec de la radiothérapie pourrait améliorer l’effet de l’IR sur les cellules tumorales et sur les cellules endothéliales associées, possiblement en augmentant la mort cellulaire. Cette thèse supporte l’intégration de nutriments avec propriétés anticancéreuses et antiangiogéniques dans le traitement des gliomes malins pour sensibiliser les cellules tumorales et endothéliales aux traitements conventionnels.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le repliement des protéines est un processus cellulaire crucial impliquant plusieurs protéines dont la calnexine, une chaperone du réticulum endoplasmique. Notre laboratoire et un autre groupe avons démontré que la calnexine est essentielle à la viabilité de la levure Schizosaccharomyces pombe. Dans le cadre d’études structure-fonction portant sur cette protéine, nous avons découvert un phénomène permettant la viabilité des cellules en absence de la calnexine. Cet état, nommé Cin pour calnexine independence, est induit par un mutant de la calnexine dépourvu du domaine central hautement conservé (Δhcd_Cnx1p). La caractérisation de l’état Cin a révélé plusieurs caractéristiques particulières telle la dominance, sa transmission de façon non-Mendélienne à la progéniture méïotique et sa transmission par des extraits protéiques dépourvus d’acides nucléiques. Toutes ces propriétés suggèrent donc que l’état Cin est médié via un élément de type prion. Le gène cif1+, pour calnexin independence factor, a été isolé lors de criblages visant à identifier des gènes impliqués dans l’état Cin. Il encode pour une protéine orpheline dont la surexpression induit de façon stable un état de viabilité en l’absence de la calnexine. Cet état diffère génétiquement et phénotypiquement de l’état Cin induit par le mutant Δhcd_Cnx1p préalablement caractérisé, ce qui suggère deux voies parallèles de signalisation du phénomène Cin. Une caractérisation exhaustive de Cif1p a permis de démontrer qu’il ne s’agissait pas du prion responsable de l’état Cin, malgré que cette protéine possède certaines propriétés typiques des prions in vitro. Finalement, Cif1p est une protéine nucléolaire dont la bonne localisation est essentielle à sa capacité à induire l’état Cin. Ceci suggère une interaction entre la fonction essentielle de la calnexine et une fonction exécutée dans le nucléole. Lors d’études visant à élucider la fonction cellulaire de Cif1p, il a été établi qu’elle interagissait avec certaines protéines de la grosse sous-unité du ribosome telle la protéine L3. Cependant, Cif1p ne co-sédimente pas avec des sous-unités ribosomales assemblées, des ribosomes ou des polysomes. De plus, des cellules contenant une délétion génomique de cif1 voient leur contenu en ribosomes perturbé lors de la phase stationnaire. Il semble donc que Cif1p joue un rôle dans la biosynthèse des ribosomes lors de la phase stationnaire. Ce rôle spécifique à cette phase de croissance coincide avec un clivage de la portion N-terminale de Cif1p, clivage qui a lieu lors de l’entrée des cellules en phase stationnaire. De plus, des études effectuées récemment dans notre laboratoire proposent que la calnexine joue un rôle important dans la signalisation de l’apoptose, et ce particulièrement en phase stationnaire. Ainsi, une voie impliquant Cif1p, sa fonction nucléolaire dans la biosynthèse des ribosomes en phase stationnaire, la calnexine et la médiation de l’apoptose semble se dessiner. D’autres travaux, notamment sur la fonction exacte de Cif1p, le rôle de son clivage et les autres composantes impliquées dans le phénomène Cin nous permettront de dessiner un portrait plus complet de cette voie cellulaire inédite.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les micelles polyioniques ont émergé comme des systèmes prometteurs de relargage de médicaments hydrophiles ioniques. Le but de cette étude était le développement des micelles polyioniques à base de dextrane pour la relargage de médicaments hydrophiles cationiques utilisant une nouvelle famille de copolymères bloc carboxymethyldextran-poly(éthylène glycol) (CMD-PEG). Quatre copolymères CMD-PEG ont été préparés dont deux copolymères identiques en termes de longueurs des blocs de CMD et de PEG mais différent en termes de densité de charges du bloc CMD; et deux autres copolymères dans lesquels les blocs chargés sont les mêmes mais dont les blocs de PEG sont différents. Les propriétés d’encapsulation des micelles CMD-PEG ont été évaluées avec différentes molécules cationiques: le diminazène (DIM), un médicament cationique modèle, le chlorhydrate de minocycline (MH), un analogue semi-synthétique de la tétracycline avec des propriétés neuro-protectives prometteuses et différents antibiotiques aminoglycosidiques. La cytotoxicité des copolymères CMD-PEG a été évaluée sur différentes lignées cellulaires en utilisant le test MTT et le test du Bleu Alamar. La formation de micelles des copolymères de CMD-PEG a été caractérisée par différentes techniques telles que la spectroscopie RMN 1H, la diffusion de la lumière dynamique (DLS) et la titration calorimétrique isotherme (ITC). Le taux de relargage des médicaments et l’activité pharmacologique des micelles contenant des médicaments ont aussi été évalués. Les copolymères CMD-PEG n'ont induit aucune cytotoxicité dans les hépatocytes humains et dans les cellules microgliales murines (N9) après 24 h incubation pour des concentrations allant jusqu’à 15 mg/mL. Les interactions électrostatiques entre les copolymères de CMD-PEG et les différentes drogues cationiques ont amorcé la formation de micelles polyioniques avec un coeur composé du complexe CMD-médicaments cationiques et une couronne composée de PEG. Les propriétés des micelles DIM/CMDPEG ont été fortement dépendantes du degré de carboxyméthylation du bloc CMD. Les micelles de CMD-PEG de degré de carboxyméthylation du bloc CMD ≥ 60 %, ont incorporé jusqu'à 64 % en poids de DIM et ont résisté à la désintégration induite par les sels et ceci jusqu'à 400 mM NaCl. Par contre, les micelles de CMD-PEG de degré de carboxyméthylation ~ 30% avaient une plus faible teneur en médicament (~ 40 % en poids de DIM) et se désagrégeaient à des concentrations en sel inférieures (∼ 100 mM NaCl). Le copolymère de CMD-PEG qui a montré les propriétés micellaires les plus satisfaisantes a été sélectionné comme système de livraison potentiel de chlorhydrate de minocycline (MH) et d’antibiotiques aminoglycosidiques. Les micelles CMD-PEG encapsulantes de MH ou d’aminoglycosides ont une petite taille (< 200 nm de diamètre), une forte capacité de chargement (≥ 50% en poids de médicaments) et une plus longue période de relargage de médicament. Ces micelles furent stables en solution aqueuse pendant un mois; après lyophilisation et en présence d'albumine sérique bovine. De plus, les micelles ont protégé MH contre sa dégradation en solutions aqueuses. Les micelles encapsulant les drogues ont maintenu les activités pharmacologiques de ces dernières. En outre, les micelles MH réduisent l’inflammation induite par les lipopolysaccharides dans les cellules microgliales murines (N9). Les micelles aminoglycosides ont été quant à elles capable de tuer une culture bactérienne test. Toutefois les micelles aminoglycosides/CMDPEG furent instables dans les conditions physiologiques. Les propriétés des micelles ont été considérablement améliorées par des modifications hydrophobiques de CMD-PEG. Ainsi, les micelles aminoglycosides/dodecyl-CMD-PEG ont montré une taille plus petite et une meilleure stabilité aux conditions physiologiques. Les résultats obtenus dans le cadre de cette étude montrent que CMD-PEG copolymères sont des systèmes prometteurs de relargage de médicaments cationiques.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Plusieurs agents anticancéreux très puissants sont caractérisés par une solubilité aqueuse limitée et une toxicité systémique importante. Cette dernière serait liée d’une part à la solubilisation des agents anticancéreux à l’aide de surfactifs de bas poids moléculaire, connus pour leur toxicité intrinsèque, et d’autre part, par le manque de spécificité tissulaire des anticancéreux. Les vecteurs colloïdaux à base de polymères permettraient de résoudre certains défis liés à la formulation d’agents anticancéreux hydrophobes. D’abord, les polymères peuvent être sélectionnés afin de répondre à des critères précis de compatibilité, de dégradation et d’affinité pour le médicament à formuler. Ensuite, le fait d’encapsuler l’agent anticancéreux dans un vecteur peut améliorer son efficacité thérapeutique en favorisant son accumulation au niveau du tissu cible, i.e. la tumeur, et ainsi limiter sa distribution au niveau des tissus sains. Des travaux antérieurs menés au sein de notre laboratoire ont mené à la mise au point de micelles à base de poly(N-vinyl-pyrrolidone)-bloc-poly(D,L-lactide) (PVP-b-PDLLA) capables de solubiliser des agents anticancéreux faiblement hydrosolubles dont le PTX. Ce dernier est commercialisé sous le nom de Taxol® et formulé à l’aide du Crémophor EL (CrEL), un surfactif de bas poids moléculaire pouvant provoquer, entre autres, des réactions d’hypersensibilité sévères. Bien que les micelles de PVP-b-PDLLA chargées de PTX aient démontré une meilleure tolérance comparée au Taxol®, leur potentiel de ciblage tumoral et leur efficacité thérapeutique étaient similaires à la forme commerciale à doses égales. Ceci était possiblement dû au fait que les micelles étaient rapidement déstabilisées et ne pouvaient retenir leur cargo suite à leur administration intraveineuse. Nous avons donc décidé de poursuivre les travaux avec un autre type de vecteur, soit des nanoparticules, qui possèdent une stabilité intrinsèque supérieure aux micelles. L’objectif principal de cette thèse de doctorat était donc de mettre au point des nanoparticules polymères pour l’administration parentérale d’agents anticancéreux faiblement solubles dans l’eau. Les nanoparticules devaient permettre d’encapsuler des agents anticancéreux hydrophobes et de les libérer de manière contrôlée sur plusieurs jours. De plus, elles devaient démontrer un temps de circulation plasmatique prolongée afin de favoriser l’accumulation passive du médicament encapsulé au niveau de la tumeur. La première partie du travail visait à employer pour la première fois le copolymère amphiphile PVP-b-PDLLA comme émulsifiant dans la préparation de nanoparticules polymères. Ainsi, une méthode de fabrication des nanoparticules par émulsion huile-dans-eau a été appliquée afin de produire des nanoparticules à base de PDLLA de taille inférieure à 250 nm. Grâce aux propriétés lyoprotectrices de la couronne de PVP présente à la surface des nanoparticules, celles-ci pouvaient retrouver leur distribution de taille initiale après lyophilisation et redispersion en milieu aqueux. Deux anticancéreux hydrophobes, soit le PTX et l’étoposide (ETO), ont été encapsulés dans les nanoparticules et libérés de ces dernières de façon contrôlée sur plusieurs jours in vitro. Une procédure de « salting-out » a été appliquée afin d’améliorer le taux d’incorporation de l’ETO initialement faible étant donnée sa solubilité aqueuse légèrement supérieure à celle du PTX. Le second volet des travaux visait à comparer le PVP comme polymère de surface des nanoparticules au PEG, le polymère le plus fréquemment employé à cette fin en vectorisation. Par le biais d’études d’adsorption de protéines, de capture par les macrophages et de biodistribution chez le rat, nous avons établi une corrélation in vitro/in vivo démontrant que le PVP n’était pas un agent de surface aussi efficace que le PEG. Ainsi, malgré la présence du PVP à la surface des nanoparticules de PDLLA, ces dernières étaient rapidement éliminées de la circulation sanguine suite à leur capture par le système des phagocytes mononucléés. Par conséquent, dans le troisième volet de cette thèse, le PEG a été retenu comme agent de surface, tandis que différents polymères biodégradables de la famille des polyesters, certains synthétiques (PDLLA et copolymères d’acide lactique/acide glycolique), d’autres de source naturelle (poly(hydroxyalkanoates)(PHAs)), ont été investiguées comme matériaux formant le cœur des nanoparticules. Il en est ressorti que les propriétés physicochimiques des polyesters avaient un impact majeur sur l’efficacité d’encapsulation du PTX et son profil de libération des nanoparticules in vitro. Contrairement aux PHAs, les polymères synthétiques ont démontré des taux d’incorporation élevés ainsi qu’une libération contrôlée de leur cargo. Des études de pharmacocinétique et de biodistribution ont démontré que les nanoparticules de PDLLA dotées d’une couronne de PEG conféraient un temps de circulation plasmatique prolongé au PTX et favorisaient son accumulation tumorale. Les nanoparticules polymères représentent donc une alternative intéressante au Taxol®.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse est dédiée à l’étude des matériaux InMnP et GaMnP fabriqués par implantation ionique et recuit thermique. Plus précisément nous avons investigué la possibilité de former par implantation ionique des matériaux homogènes (alliages) de InMnP et GaMnP contenant de 1 à 5 % atomiques de Mn qui seraient en état ferromagnétique, pour des possibles applications dans la spintronique. Dans un premier chapitre introductif nous donnons les motivations de cette recherche et faisons une revue de la littérature sur ce sujet. Le deuxième chapitre décrit les principes de l’implantation ionique, qui est la technique utilisée pour la fabrication des échantillons. Les effets de l’énergie, fluence et direction du faisceau ionique sur le profil d’implantation et la formation des dommages seront mis en évidence. Aussi dans ce chapitre nous allons trouver des informations sur les substrats utilisés pour l’implantation. Les techniques expérimentales utilisées pour la caractérisation structurale, chimique et magnétique des échantillons, ainsi que leurs limitations sont présentées dans le troisième chapitre. Quelques principes théoriques du magnétisme nécessaires pour la compréhension des mesures magnétiques se retrouvent dans le chapitre 4. Le cinquième chapitre est dédié à l’étude de la morphologie et des propriétés magnétiques des substrats utilisés pour implantation et le sixième chapitre, à l’étude des échantillons implantés au Mn sans avoir subi un recuit thermique. Notamment nous allons voir dans ce chapitre que l’implantation de Mn à plus que 1016 ions/cm2 amorphise la partie implantée du matériau et le Mn implanté se dispose en profondeur sur un profil gaussien. De point de vue magnétique les atomes implantés se trouvent dans un état paramagnétique entre 5 et 300 K ayant le spin 5/2. Dans le chapitre 7 nous présentons les propriétés des échantillons recuits à basses températures. Nous allons voir que dans ces échantillons la couche implantée est polycristalline et les atomes de Mn sont toujours dans un état paramagnétique. Dans les chapitres 8 et 9, qui sont les plus volumineux, nous présentons les résultats des mesures sur les échantillons recuits à hautes températures : il s’agit d’InP et du GaP implantés au Mn, dans le chapitre 8 et d’InP co-implanté au Mn et au P, dans le chapitre 9. D’abord, dans le chapitre 8 nous allons voir que le recuit à hautes températures mène à une recristallisation épitaxiale du InMnP et du GaMnP; aussi la majorité des atomes de Mn se déplacent vers la surface à cause d’un effet de ségrégation. Dans les régions de la surface, concentrés en Mn, les mesures XRD et TEM identifient la formation de MnP et d’In cristallin. Les mesures magnétiques identifient aussi la présence de MnP ferromagnétique. De plus dans ces mesures on trouve qu’environ 60 % du Mn implanté est en état paramagnétique avec la valeur du spin réduite par rapport à celle trouvée dans les échantillons non-recuits. Dans les échantillons InP co-implantés au Mn et au P la recristallisation est seulement partielle mais l’effet de ségrégation du Mn à la surface est beaucoup réduit. Dans ce cas plus que 50 % du Mn forme des particules MnP et le restant est en état paramagnétique au spin 5/2, dilué dans la matrice de l’InP. Finalement dans le dernier chapitre, 10, nous présentons les conclusions principales auxquels nous sommes arrivés et discutons les résultats et leurs implications.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Alors que certains mécanismes pourtant jugés cruciaux pour la transformation de la pluie en débit restent peu ou mal compris, le concept de connectivité hydrologique a récemment été proposé pour expliquer pourquoi certains processus sont déclenchés de manière épisodique en fonction des caractéristiques des événements de pluie et de la teneur en eau des sols avant l’événement. L’adoption de ce nouveau concept en hydrologie reste cependant difficile puisqu’il n’y a pas de consensus sur la définition de la connectivité, sa mesure, son intégration dans les modèles hydrologiques et son comportement lors des transferts d’échelles spatiales et temporelles. Le but de ce travail doctoral est donc de préciser la définition, la mesure, l’agrégation et la prédiction des processus liés à la connectivité hydrologique en s’attardant aux questions suivantes : 1) Quel cadre méthodologique adopter pour une étude sur la connectivité hydrologique ?, 2) Comment évaluer le degré de connectivité hydrologique des bassins versants à partir de données de terrain ?, et 3) Dans quelle mesure nos connaissances sur la connectivité hydrologique doivent-elles conduire à la modification des postulats de modélisation hydrologique ? Trois approches d’étude sont différenciées, soit i) une approche de type « boite noire », basée uniquement sur l’exploitation des données de pluie et de débits sans examiner le fonctionnement interne du bassin versant ; ii) une approche de type « boite grise » reposant sur l’étude de données géochimiques ponctuelles illustrant la dynamique interne du bassin versant ; et iii) une approche de type « boite blanche » axée sur l’analyse de patrons spatiaux exhaustifs de la topographie de surface, la topographie de subsurface et l’humidité du sol. Ces trois approches sont ensuite validées expérimentalement dans le bassin versant de l’Hermine (Basses Laurentides, Québec). Quatre types de réponses hydrologiques sont distingués en fonction de leur magnitude et de leur synchronisme, sachant que leur présence relative dépend des conditions antécédentes. Les forts débits enregistrés à l’exutoire du bassin versant sont associés à une contribution accrue de certaines sources de ruissellement, ce qui témoigne d’un lien hydraulique accru et donc d’un fort degré de connectivité hydrologique entre les sources concernées et le cours d’eau. Les aires saturées couvrant des superficies supérieures à 0,85 ha sont jugées critiques pour la genèse de forts débits de crue. La preuve est aussi faite que les propriétés statistiques des patrons d’humidité du sol en milieu forestier tempéré humide sont nettement différentes de celles observées en milieu de prairie tempéré sec, d’où la nécessité d’utiliser des méthodes de calcul différentes pour dériver des métriques spatiales de connectivité dans les deux types de milieux. Enfin, la double existence de sources contributives « linéaires » et « non linéaires » est mise en évidence à l’Hermine. Ces résultats suggèrent la révision de concepts qui sous-tendent l’élaboration et l’exécution des modèles hydrologiques. L’originalité de cette thèse est le fait même de son sujet. En effet, les objectifs de recherche poursuivis sont conformes à la théorie hydrologique renouvelée qui prône l’arrêt des études de particularismes de petite échelle au profit de l’examen des propriétés émergentes des bassins versants telles que la connectivité hydrologique. La contribution majeure de cette thèse consiste ainsi en la proposition d’une définition unifiée de la connectivité, d’un cadre méthodologique, d’approches de mesure sur le terrain, d’outils techniques et de pistes de solution pour la modélisation des systèmes hydrologiques.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse a été réalisée en cotutelle. Pour la forme, Gérard Jasniewicz était mon codirecteur 'officiel' en France, bien que mon codirecteur était plutôt Olivier Richard qui m'a encadré lorsque j'étais en France.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette recherche vise à décrire 1) les erreurs lexicales commises en production écrite par des élèves francophones de 3e secondaire et 2) le rapport à l’erreur lexicale d’enseignants de français (conception de l’erreur lexicale, pratiques d’évaluation du vocabulaire en production écrite, modes de rétroaction aux erreurs lexicales). Le premier volet de la recherche consiste en une analyse d’erreurs à trois niveaux : 1) une description linguistique des erreurs à l’aide d’une typologie, 2) une évaluation de la gravité des erreurs et 3) une explication de leurs sources possibles. Le corpus analysé est constitué de 300 textes rédigés en classe de français par des élèves de 3e secondaire. L’analyse a révélé 1144 erreurs lexicales. Les plus fréquentes sont les problèmes sémantiques (30%), les erreurs liées aux propriétés morphosyntaxiques des unités lexicales (21%) et l’utilisation de termes familiers (17%). Cette répartition démontre que la moitié des erreurs lexicales sont attribuables à une méconnaissance de propriétés des mots autres que le sens et la forme. L’évaluation de la gravité des erreurs repose sur trois critères : leur acceptation linguistique selon les dictionnaires, leur impact sur la compréhension et leur degré d’intégration à l’usage. Les problèmes liés aux registres de langue sont généralement ceux qui sont considérés comme les moins graves et les erreurs sémantiques représentent la quasi-totalité des erreurs graves. Le troisième axe d’analyse concerne la source des erreurs et fait ressortir trois sources principales : l’influence de la langue orale, la proximité sémantique et la parenté formelle entre le mot utilisé et celui visé. Le second volet de la thèse concerne le rapport des enseignants de français à l’erreur lexicale et repose sur l’analyse de 224 rédactions corrigées ainsi que sur une série de huit entrevues menées avec des enseignants de 3e secondaire. Lors de la correction, les enseignants relèvent surtout les erreurs orthographiques ainsi que celles relevant des propriétés morphosyntaxiques des mots (genre, invariabilité, régime), qu’ils classent parmi les erreurs de grammaire. Les erreurs plus purement lexicales, c’est-à-dire les erreurs sémantiques, l’emploi de termes familiers et les erreurs de collocation, demeurent peu relevées, et les annotations des enseignants concernant ces types d’erreurs sont vagues et peu systématiques, donnant peu de pistes aux élèves pour la correction. L’évaluation du vocabulaire en production écrite est toujours soumise à une appréciation qualitative, qui repose sur l’impression générale des enseignants plutôt que sur des critères précis, le seul indicateur clair étant la répétition. Les explications des enseignants concernant les erreurs lexicales reposent beaucoup sur l’intuition, ce qui témoigne de certaines lacunes dans leur formation en lien avec le vocabulaire. Les enseignants admettent enseigner très peu le vocabulaire en classe au secondaire et expliquent ce choix par le manque de temps et d’outils adéquats. L’enseignement du vocabulaire est toujours subordonné à des tâches d’écriture ou de lecture et vise davantage l’acquisition de mots précis que le développement d’une réelle compétence lexicale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’apprentissage machine est un vaste domaine où l’on cherche à apprendre les paramètres de modèles à partir de données concrètes. Ce sera pour effectuer des tâches demandant des aptitudes attribuées à l’intelligence humaine, comme la capacité à traiter des don- nées de haute dimensionnalité présentant beaucoup de variations. Les réseaux de neu- rones artificiels sont un exemple de tels modèles. Dans certains réseaux de neurones dits profonds, des concepts "abstraits" sont appris automatiquement. Les travaux présentés ici prennent leur inspiration de réseaux de neurones profonds, de réseaux récurrents et de neuroscience du système visuel. Nos tâches de test sont la classification et le débruitement d’images quasi binaires. On permettra une rétroac- tion où des représentations de haut niveau (plus "abstraites") influencent des représentations à bas niveau. Cette influence s’effectuera au cours de ce qu’on nomme relaxation, des itérations où les différents niveaux (ou couches) du modèle s’interinfluencent. Nous présentons deux familles d’architectures, l’une, l’architecture complètement connectée, pouvant en principe traiter des données générales et une autre, l’architecture convolutionnelle, plus spécifiquement adaptée aux images. Dans tous les cas, les données utilisées sont des images, principalement des images de chiffres manuscrits. Dans un type d’expérience, nous cherchons à reconstruire des données qui ont été corrompues. On a pu y observer le phénomène d’influence décrit précédemment en comparant le résultat avec et sans la relaxation. On note aussi certains gains numériques et visuels en terme de performance de reconstruction en ajoutant l’influence des couches supérieures. Dans un autre type de tâche, la classification, peu de gains ont été observés. On a tout de même pu constater que dans certains cas la relaxation aiderait à apprendre des représentations utiles pour classifier des images corrompues. L’architecture convolutionnelle développée, plus incertaine au départ, permet malgré tout d’obtenir des reconstructions numériquement et visuellement semblables à celles obtenues avec l’autre architecture, même si sa connectivité est contrainte.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nous analysons les oscillations torsionnelles se développant dans une simulation magnétohydrodynamique de la zone de convection solaire produisant des champs magnétiques de type solaire (champs axisymétriques subissant des inversions de polarités régulières sur des échelles temporelles décadaires). Puisque ces oscillations sont également similaires à celles observées dans le Soleil, nous analysons les dynamiques zonales aux grandes échelles. Nous séparons donc les termes aux grandes échelles (force de Coriolis exercée sur la circulation méridienne et les champs magnétiques aux grandes échelles) de ceux aux petites échelles (les stress de Reynolds et de Maxwell). En comparant les flux de moments cinétiques entre chacune des composantes, nous nous apercevons que les oscillations torsionnelles sont maintenues par l’écoulement méridien aux grandes échelles, lui même modulé par les champs magnétiques. Une analyse d’échange d’énergie confirme ce résultat, puisqu’elle montre que seul le terme comprenant la force de Coriolis injecte de l’énergie dans l’écoulement. Une analyse de la dynamique rotationnelle ayant lieu à la limite de la zone stable et de la zone de convection démontre que celle-ci est fortement modifiée lors du passage de la base des couches convectives à la base de la fine tachocline s’y formant juste en-dessous. Nous concluons par une discussion au niveau du mécanisme de saturation en amplitude dans la dynamo s’opérant dans la simulation ainsi que de la possibilité d’utiliser les oscillations torsionnelles comme précurseurs aux cycles solaires à venir.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les transitions de spin provoquent des changements de propriétés physiques des complexes de métaux du bloc d les subissant, notamment de leur structure et propriétés spectroscopiques. Ce mémoire porte sur la spectroscopie Raman de composés du fer(II) et du fer(III), pour lesquels on induit une transition de spin par variation de la température ou de la pression. Trois complexes de fer(II) de type FeN4(NCS)2 avec des comportements de transition de spin différents ont été étudiés : Fe(Phen)2(NCS)2 (Phen : 1,10-Phénanthroline), Fe(Btz)2(NCS)2 (Btz : 2,2’-bi-4,5-dihydrothiazine) et Fe(pyridine)4(NCS)2. Un décalage de l’ordre de 50 cm-1 est observable pour la fréquence d’étirement C-N du ligand thiocyanate des complexes FeN4(NCS)2, lors de la transition de spin induite par variation de la température ou de la pression. Il est possible d’utiliser cette variation de fréquence afin de tracer un profil de transition. Quatre complexes isomères de type FeL222(CN)2 (L222 : 2,13- diméthyl-6,9-dioxa-3,12,18-triazabicyclo[12.3.1]-octadéca-1(18),2,12,14,16-pentaène) ont également été étudiés. Un taux de décalage de l’ordre d’environ 0,03 cm-1/K est observé pour plusieurs bandes du complexe FeL222(CN)2. La bande à 1415 cm-1 disparaît à plus haute température au profit d’une bande à 1400 cm-1. Pour le complexe de chiralité R,R’, les bandes à 1008 cm-1 et 1140 cm-1 se déplacent vers des fréquences plus élevées à partir de 223 K. Les transitions de spin sont observées dans certains complexes de fer(III). Dans cette famille de composés, le complexe Fe(EtDTC)3 (EtDTC : N,N-diéthyldithiocarbamate) a été étudié . Aucun changement n’a été observé dans l’intensité des bandes d’étirement fer-soufre sur les spectres à température variable. Cependant, la bande Fe-S associée à la forme bas-spin à 530 cm-1 augmente en intensité au profit de la bande associée à la forme haut-spin à 350 cm-1 lors des mesures à haute pression, passant d’un rapport d’amplitude de 50% à pression ambiante à 80% à 21 kbar. Un dédoublement de la bande d’étirement C-N du ligand dithiocarbamate à 1495 cm-1 est également observé à des pressions supérieures à 5 kbar. Une comparaison des changements des fréquences de vibration de tous les complexes est effectuée.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Un objectif principal du génie logiciel est de pouvoir produire des logiciels complexes, de grande taille et fiables en un temps raisonnable. La technologie orientée objet (OO) a fourni de bons concepts et des techniques de modélisation et de programmation qui ont permis de développer des applications complexes tant dans le monde académique que dans le monde industriel. Cette expérience a cependant permis de découvrir les faiblesses du paradigme objet (par exemples, la dispersion de code et le problème de traçabilité). La programmation orientée aspect (OA) apporte une solution simple aux limitations de la programmation OO, telle que le problème des préoccupations transversales. Ces préoccupations transversales se traduisent par la dispersion du même code dans plusieurs modules du système ou l’emmêlement de plusieurs morceaux de code dans un même module. Cette nouvelle méthode de programmer permet d’implémenter chaque problématique indépendamment des autres, puis de les assembler selon des règles bien définies. La programmation OA promet donc une meilleure productivité, une meilleure réutilisation du code et une meilleure adaptation du code aux changements. Très vite, cette nouvelle façon de faire s’est vue s’étendre sur tout le processus de développement de logiciel en ayant pour but de préserver la modularité et la traçabilité, qui sont deux propriétés importantes des logiciels de bonne qualité. Cependant, la technologie OA présente de nombreux défis. Le raisonnement, la spécification, et la vérification des programmes OA présentent des difficultés d’autant plus que ces programmes évoluent dans le temps. Par conséquent, le raisonnement modulaire de ces programmes est requis sinon ils nécessiteraient d’être réexaminés au complet chaque fois qu’un composant est changé ou ajouté. Il est cependant bien connu dans la littérature que le raisonnement modulaire sur les programmes OA est difficile vu que les aspects appliqués changent souvent le comportement de leurs composantes de base [47]. Ces mêmes difficultés sont présentes au niveau des phases de spécification et de vérification du processus de développement des logiciels. Au meilleur de nos connaissances, la spécification modulaire et la vérification modulaire sont faiblement couvertes et constituent un champ de recherche très intéressant. De même, les interactions entre aspects est un sérieux problème dans la communauté des aspects. Pour faire face à ces problèmes, nous avons choisi d’utiliser la théorie des catégories et les techniques des spécifications algébriques. Pour apporter une solution aux problèmes ci-dessus cités, nous avons utilisé les travaux de Wiels [110] et d’autres contributions telles que celles décrites dans le livre [25]. Nous supposons que le système en développement est déjà décomposé en aspects et classes. La première contribution de notre thèse est l’extension des techniques des spécifications algébriques à la notion d’aspect. Deuxièmement, nous avons défini une logique, LA , qui est utilisée dans le corps des spécifications pour décrire le comportement de ces composantes. La troisième contribution consiste en la définition de l’opérateur de tissage qui correspond à la relation d’interconnexion entre les modules d’aspect et les modules de classe. La quatrième contribution concerne le développement d’un mécanisme de prévention qui permet de prévenir les interactions indésirables dans les systèmes orientés aspect.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le travail a été réalisé en collaboration avec le laboratoire de mécanique acoustique de Marseille, France. Les simulations ont été menées avec les langages Matlab et C. Ce projet s'inscrit dans le champ de recherche dénommé caractérisation tissulaire par ultrasons.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Campylobacter jejuni est l’agent causal de la campylobactériose, infection bactérienne importante en santé publique. Un des vecteurs de transmission de C. jejuni pour l’humain est le poulet via la chaîne alimentaire. Les mécanismes impliqués dans colonisation caecale commensale des oiseaux par C. jejuni sont toujours peu caractérisés, bien qu’une meilleure compréhension de ces mécanismes puisse apporter des solutions pour le contrôle du pathogène à la ferme. Cette étude avait pour buts de caractériser les propriétés phénotypiques et les facteurs génétiques impliqués dans la colonisation du poulet par C. jejuni et d’identifier de nouveaux mécanismes impliqués dans cette association. Des souches, issues d’élevages conventionnels échantillonnés en 2003 et en 2008 ainsi que d’élevages biologiques, ont été caractérisées afin d’obtenir leur profil de résistance aux antibiotiques, leur autoagglutination et leur chimiotactisme. Les souches des élevages conventionnels ont de plus été caractérisées pour leur capacité à adhérer et envahir une culture primaire de cellules caecales de poulet. Une puce à ADN a été développée pour détecter la présence de 254 gènes et variants associés à la colonisation des poulets ainsi qu’à la résistance aux antibiotiques chez les souches issues d’élevages conventionnels. Les propriétés phénotypiques et la présence de certains gènes chez les souches ont par la suite été comparées. Finalement, des souches ayant des caractéristiques différentes ont été utilisées dans un modèle de colonisation du poulet pour évaluer l’efficacité d’un nouvel additif alimentaire à base d’acides organiques et d’huiles essentielles sur le contrôle de C. jejuni. Les propriétés phénotypiques des souches étaient très variées et n’étaient pas corrélées entre elles, à l’exception de l’adhésion et de l’invasion. L’analyse génétique a révélé que le contenu en gènes des souches était variable, notamment au niveau des gènes de l’enveloppe bactérienne, au flagelle, aux récepteurs du chimiotactisme et à la résistance à l’arsenic. Les souches de 2003 et de 2008 étaient semblables lorsque leur contenu en gènes ainsi que leurs propriétés phénotypiques étaient comparés. Des gènes possiblement associés à un fort ou un faible potentiel de colonisation ont été identifiés. L’additif alimentaire a diminué la contamination des carcasses bien qu’une augmentation de la colonisation intestinale ait été observée pour certaines souches. La moitié des lots de poulets d’origine biologique étaient positifs pour C. jejuni. Les souches issues de ce type d’élevage étaient peu résistantes aux antibiotiques et possédaient des phénotypes variés. Cette étude a permis de mieux définir les caractéristiques importantes de C. jejuni qui sont associées à la colonisation intestinale du poulet. Elle a établi pour la première fois au Canada la présence du pathogène dans les élevages de poulets biologiques. Cette étude fait partie des quelques études qui décrivent la présence des gènes de colonisation et de résistance aux antibiotiques dans une collection de souches issues uniquement du poulet. Elle a également remis en doute l’importance de certains gènes dans la colonisation. La caractérisation exhaustive des souches a également permis d’identifier de nouveaux gènes possiblement associés à la colonisation de poulet par C. jejuni. Finalement, elle a indiqué que l’utilisation d’un mélange d’huiles essentielles et d’acide organique encapsulés pouvait être efficace pour réduire la contamination des carcasses de poulet par C. jejuni et que son effet était souche-dépendant.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'objectif de cette étude est d'apprendre à créer de nouveaux matériaux moléculaires par design. À l'heure actuelle, il n'existe aucune méthode générale pour la prédiction des structures et des propriétés, mais des progrès importants ont été accomplis, en particulier dans la fabrication de matériaux moléculaires ordonnés tels que des cristaux. En ces matériaux, l'organisation peut être contrôlée efficacement par la stratégie de la tectonique moléculaire. Cette approche utilise des molécules appelées “tectons”, qui peuvent s’associer de manière dirigée par des interactions non covalentes prévisibles. De cette façon, la position de chaque molécule par rapport à ses voisins peut être programmée avec un degré élevé de fiabilité pour créer des cristaux et d'autres matériaux organisés avec des caractéristiques et des propriétés structurelles souhaitables. Le travail que nous allons décrire est axé sur l'utilisation de l'association des cations bis(aminidinium) avec des carboxylates, sulfonates, phosphonates et phosphates, afin de créer des réseaux moléculaires prévisibles. Ces réseaux promettent d'être particulièrement robuste, car ils sont maintenus ensemble par de multiples liaisons hydrogène assistées par des interactions électrostatiques.