963 resultados para Modèle dynamique de la rechute


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'outil développé dans le cadre de cette thèse est disponible à l'adresse suivante: www.astro.umontreal.ca/~malo/banyan.php

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La méthylation de l'ADN est une marque épigénétique importante chez les mammifères. Malgré le fait que la méthylation de la cytosine en 5' (5mC) soit reconnue comme une modification épigénétique stable, il devient de plus en plus reconnu qu'elle soit un processus plus dynamique impliquant des voies de méthylation et de déméthylation actives. La dynamique de la méthylation de l'ADN est désormais bien caractérisée dans le développement et dans le fonctionnement cellulaire des mammifères. Très peu est cependant connu concernant les implications régulatrices dans les réponses immunitaires. Pour se faire, nous avons effectué des analyses du niveau de transcription des gènes ainsi que du profilage épigénétique de cellules dendritiques (DCs) humaines. Ceux-ci ont été faits avant et après infection par le pathogène Mycobacterium tuberculosis (MTB). Nos résultats fournissent le premier portrait génomique du remodelage épigénétique survenant dans les DCs en réponse à une infection bactérienne. Nous avons constaté que les changements dans la méthylation de l'ADN sont omniprésents, identifiant 3,926 régions différentiellement méthylées lors des infections par MTB (MTB-RDMs). Les MTB-RDMs montrent un chevauchement frappant avec les régions génomiques marquées par les histones associées avec des régions amplificatrices. De plus, nos analyses ont révélées que les MTB-RDMs sont activement liées par des facteurs de transcription associés à l'immunité avant même d'être infecté par MTB, suggérant ces domaines comme étant des éléments d'activation dans un état de dormance. Nos données suggèrent que les changements actifs dans la méthylation jouent un rôle essentiel pour contrôler la réponse cellulaire des DCs à l'infection bactérienne.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse en électronique moléculaire porte essentiellement sur le développement d’une méthode pour le calcul de la transmission de dispositifs électroniques moléculaires (DEMs), c’est-à-dire des molécules branchées à des contacts qui forment un dispositif électronique de taille moléculaire. D’une part, la méthode développée vise à apporter un point de vue différent de celui provenant des méthodes déjà existantes pour ce type de calculs. D’autre part, elle permet d’intégrer de manière rigoureuse des outils théoriques déjà développés dans le but d’augmenter la qualité des calculs. Les exemples simples présentés dans ce travail permettent de mettre en lumière certains phénomènes, tel que l’interférence destructive dans les dispositifs électroniques moléculaires. Les chapitres proviennent d’articles publiés dans la littérature. Au chapitre 2, nous étudions à l’aide d’un modèle fini avec la méthode de la théorie de la fonctionnelle de la densité de Kohn-Sham un point quantique moléculaire. De plus, nous calculons la conductance du point quantique moléculaire avec une implémentation de la formule de Landauer. Nous trouvons que la structure électronique et la conductance moléculaire dépendent fortement de la fonctionnelle d’échange et de corrélation employée. Au chapitre 3, nous discutons de l’effet de l’ajout d’une chaîne ramifiée à des molécules conductrices sur la probabilité de transmission de dispositifs électroniques moléculaires. Nous trouvons que des interférences destructives apparaissent aux valeurs propres de l’énergie des chaînes ramifiées isolées, si ces valeurs ne correspondent pas à des états localisés éloignés du conducteur moléculaire. Au chapitre 4, nous montrons que les dispositifs électroniques moléculaires contenant une molécule aromatique présentent généralement des courants circulaires qui sont associés aux phénomènes d’interférence destructive dans ces systèmes. Au chapitre 5, nous employons l’approche « source-sink potential » (SSP) pour étudier la transmission de dispositifs électroniques moléculaires. Au lieu de considérer les potentiels de sources et de drains exactement, nous utilisons la théorie des perturbations pour trouver une expression de la probabilité de transmission, T(E) = 1 − |r(E)|2, où r(E) est le coefficient de réflexion qui dépend de l’énergie. Cette expression dépend des propriétés de la molécule isolée, en effet nous montrons que c’est la densité orbitalaire sur les atomes de la molécule qui sont connectés aux contacts qui détermine principalement la transmission du dispositif à une énergie de l’électron incident donnée. Au chapitre 6, nous présentons une extension de l’approche SSP à un canal pour des dispositifs électroniques moléculaires à plusieurs canaux. La méthode à multiples canaux proposée repose sur une description des canaux propres des états conducteurs du dispositif électronique moléculaire (DEM) qui sont obtenus par un algorithme auto-cohérent. Finalement, nous utilisons le modèle développé afin d’étudier la transmission du 1-phényl-1,3-butadiène branché à deux rangées d’atomes couplées agissant comme contacts à gauche et à la droite.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La division cellulaire est un processus fondamental des êtres vivants. À chaque division cellulaire, le matériel génétique d'une cellule mère est dupliqué et ségrégé pour produire deux cellules filles identiques; un processus nommé la mitose. Tout d'abord, la cellule doit condenser le matériel génétique pour être en mesure de séparer mécaniquement et également le matériel génétique. Une erreur dans le niveau de compaction ou dans la dynamique de la mitose occasionne une transmission inégale du matériel génétique. Il est suggéré dans la littérature que ces phénomènes pourraient causé la transformation des cellules cancéreuses. Par contre, le mécanisme moléculaire générant la coordination des changements de haut niveau de la condensation des chromosomes est encore incompris. Dans les dernières décennies, plusieurs approches expérimentales ont identifié quelques protéines conservées dans ce processus. Pour déterminer le rôle de ces facteurs dans la compaction des chromosomes, j'ai effectué un criblage par ARNi couplé à de l'imagerie à haute-résolution en temps réel chez l'embryon de C. elegans. Grâce à cette technique, j'ai découvert sept nouvelles protéines requises pour l'assemblage des chromosomes mitotiques, incluant la Ribonucléotide réductase (RNR) et Topoisomérase II (topo-II). Dans cette thèse, je décrirai le rôle structural de topo-II dans l'assemblage des chromosomes mitotiques et ces mécanismes moléculaires. Lors de la condensation des chromosomes, topo-II agit indépendamment comme un facteur d'assemblage local menant par la suite à la formation d'un axe de condensation tout au long du chromosome. Cette localisation est à l'opposé de la position des autres facteurs connus qui sont impliqués dans la condensation des chromosomes. Ceci représente un nouveau mécanisme pour l'assemblage des chromosomes chez C. elegans. De plus, j'ai découvert un rôle non-enzymatique à la protéine RNR lors de l'assemblage des chromosomes. Lors de ce processus, RNR est impliqué dans la stabilité des nucléosomes et alors, permet la compaction de haut niveau de la chromatine. Dans cette thèse, je rapporte également des résultats préliminaires concernant d'autres nouveaux facteurs découverts lors du criblage ARNi. Le plus important est que mon analyse révèle que la déplétion des nouvelles protéines montre des phénotypes distincts, indiquant la fonction de celles-ci lors de l'assemblage des chromosomes. Somme toute, je conclus que les chromosomes en métaphase sont assemblés par trois protéines ayant des activités différentes d'échafaudage: topoisomérase II, les complexes condensines et les protéines centromériques. En conclusion, ces études prouvent le mécanisme moléculaire de certaines protéines qui contribuent à la formation des chromosomes mitotiques.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduction: L'arthrose est caractérisée par une destruction progressive du cartilage, une inflammation synoviale, et un remodelage de l’os sous-chondral avec une production excessive des médiateurs inflammatoires et cataboliques. Nous avons démontré que le niveau du 4-hydroxynonénal (4-HNE), un produit de la peroxydation lipidique, est augmenté dans le cartilage humain arthrosique sans qu’on sache le mécanisme exacte impliqué dans l’augmentation de cette molécule. Des données de la littérature indiquent que l’accumulation du HNE est contrôlée par l’action de la glutathione S-transférase A4-4 (GSTA4-4), une enzyme impliquée dans la détoxification du HNE. Au niveau transcriptionel, l’expression de cette enzyme est régulée par la transactivation du facteur de transcription Nrf2. Objectif: L’objectif de cette étude vise à démontrer que l’augmentation du HNE dans le cartilage arthrosique est attribuée, en partie, à l’altération de l’expression de la GSTA4-4 et de Nrf2. Méthode: Le niveau d’expression de la GSTA4-4 et de Nrf2 a été mesurée par Western blot et par PCR en temps réel dans le cartilage humain arthrosique et dans le cartilage provenant des souris atteintes d’arthrose. Pour démontrer le rôle du Nrf2 dans l’arthrose, les chondrocytes humains arthrosiques ont été traités par l’interleukine 1beta (IL-1β) ou par le H2O2 en présence ou en absence des activateurs du Nrf2 tels que le Protandim®, AI, et du 6-Gingérol. Par ailleurs, les chondrocytes ont été transfectés par un vecteur d’expression de Nrf2 puis traités par l’IL-β. En utilisant le modèle d’arthrose chez la souris, les animaux ont été traités par voie orale de 10 mg/kg/jour de Protandim® pendant 8 semaines. Résultats: Nous avons observé une diminution significative de l’expression de la GSTA4-4 et de Nrf2 dans le cartilage humain et murin arthrosique. L'activation de Nrf2 bloque la stimulation de la métalloprotéinase-13 (MMP-13), la prostaglandine E2 (PGE2) et de l'oxyde nitrique (NO) par l’IL-1β. En outre, nous avons montré que l'activation Nrf2 protège les cellules contre la mort cellulaire induite par H2O2. Fait intéressant, l'administration orale de Protandim® réduit la production du HNE par l'intermédiaire de l’activation de la GSTA4. Nous avons démontré que le niveau d’expression de la GSTA4-4 et de Nrf2 diminue dans le cartilage provenant des patients et des souris atteints d’arthrose. De plus, la surexpression de ce facteur nucléaire Nrf2 empêche la production du HNE et la MMP-13 et l’inactivation de la GSTA4-4. Dans notre modèle expérimental d’arthrose induite par déstabilisation du ménisque médial chez la souris, nous avons trouvé que l'administration orale de Protandim® à 10 mg / kg / jour réduit les lésions du cartilage. Conclusion: Cette étude est de la première pour démontrer le rôle physiopathologique du Nrf2 in vitro et in vivo. Nos résultats démontrent que l’activation du Nrf2 est essentielle afin de maintenir l’expression de la GSTA4-4 et de réduire le niveau du HNE. Le fait que les activateurs du Nrf2 abolissent la production de la HNE et aussi un certain nombre de facteurs connus pour être impliqués dans la pathogenèse de l’arthrose les rend des agents cliniquement utiles pour la prévention de la maladie.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Malgré le progrès technologique et nos connaissances pharmaceutiques et médicales croissantes, le développement du médicament demeure un processus difficile, dispendieux, long et très risqué. Ce processus mérite d'être amélioré pour faciliter le développement de nouveaux traitements. À cette fin, cette thèse vise à démontrer l’utilité de principes avancés et d’outils élaborés en pharmacocinétique (PK), actuels et nouveaux. Ces outils serviront à répondre efficacement à des questions importantes lors du développement d’un médicament, sauvant ainsi du temps et des coûts. Le premier volet de la thèse porte sur l’utilisation de la modélisation et des simulations et la création d’un nouveau modèle afin d’établir la bioéquivalence entre deux formulations de complexe de gluconate ferrique de sodium en solution de sucrose pour injection. Comparé aux méthodes courantes, cette nouvelle approche proposée se libère de plusieurs présuppositions, et requiert moins de données. Cette technique bénéficie d’une robustesse scientifique tout en étant associée à des économies de temps et de coûts. Donc, même si développé pour produits génériques, elle pourra également s’avérer utile dans le développement de molécules innovatrices et « biosimilaires ». Le deuxième volet décrit l’emploi de la modélisation pour mieux comprendre et quantifier les facteurs influençant la PK et la pharmacodynamie (PD) d’une nouvelle protéine thérapeutique, la pegloticase. L’analyse a démontré qu’aucun ajustement posologique n’était nécessaire et ces résultats sont inclus dans la monographie officielle du produit. Grâce à la modélisation, on pouvait répondre à des questions importantes concernant le dosage d’un médicament sans passer par des nouvelles études ni d'évaluations supplémentaires sur les patients. Donc, l’utilisation de cet outil a permis de réduire les dépenses sans prolonger le processus de développement. Le modèle développé dans le cadre de cette analyse pourrait servir à mieux comprendre d’autres protéines thérapeutiques, incluant leurs propriétés immunogènes. Le dernier volet démontre l’utilité de la modélisation et des simulations dans le choix des régimes posologiques d’un antibiotique (TP-434) pour une étude de Phase 2. Des données provenant d’études de Phase 1 ont été modélisées au fur et à mesure qu’elles devenaient disponibles, afin de construire un modèle décrivant le profil pharmacocinétique du TP-434. Ce processus de modélisation exemplifiait les cycles exploratoires et confirmatoires décrits par Sheiner. Ainsi, en se basant sur des relations PK/PD d’un antibiotique de classe identique, des simulations ont été effectuées avec le modèle PK final, afin de proposer de nouveaux régimes posologiques susceptibles d’être efficace chez les patients avant même d'effectuer des études. Cette démarche rationnelle a mené à l’utilisation de régimes posologiques avec une possibilité accrue d’efficacité, sans le dosage inutile des patients. Ainsi, on s’est dispensé d’études ou de cohortes supplémentaires coûteuses qui auraient prolongé le processus de développement. Enfin, cette analyse est la première à démontrer l’application de ces techniques dans le choix des doses d’antibiotique pour une étude de Phase 2. En conclusion, cette recherche démontre que des outils de PK avancés comme la modélisation et les simulations ainsi que le développement de nouveaux modèles peuvent répondre efficacement et souvent de manière plus robuste à des questions essentielles lors du processus de développement du médicament, tout en réduisant les coûts et en épargnant du temps.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

“A Shine of Truth in the ‘universal delusional context of reification’ (Theodor W. Adorno)” comprend sept chapitres, un prologue et un épilogue. Chaque partie se construit à deux niveaux : (1) à partir des liens qui se tissent entre les phrases contiguës ; et (2) à partir des liens qui se tissent entre les phrases non contiguës. Les incipit des paragraphes forment l’argument principal de la thèse. Le sujet de la thèse, Schein (apparence, illusion, clarté) est abordé de manière non formaliste, c’est à dire, de manière que la forme donne d’elle-même une idée de la chose : illusion comme contradiction imposée. Bien que le sujet de la thèse soit l’illusion, son but est la vérité. Le Chapitre I présente une dialectique de perspectives (celles de Marx, de Lukács, de Hegel, de Horkheimer et d'Adorno) pour arriver à un critère de vérité, compte tenu du contexte d’aveuglement universel de la réification ; c’est la détermination de la dissolution de l’apparence. Le Chapitre II présente le concept d’apparence esthétique—une apparence réversible qui s’oppose à l’apparence sociale générée par l’industrie de la culture. Le Chapitre III cherche à savoir si la vérité en philosophie et la vérité en art sont deux genres distincts de vérités. Le Chapitre IV détermine si l’appel à la vérité comme immédiateté de l’expression, fait par le mouvement expressionniste du 20e siècle, est nouveau, jugé à l’aune d’un important antécédent à l’expressionisme musical : « Der Dichter spricht » de Robert Schumann. Le Chapitre V se penche sur la question à savoir si le montage inorganique est plus avancé que l’expressionisme. Le Chapitre VI reprend là où Peter Bürger clôt son essai Theorie de l’avant-garde : ce chapitre cherche à savoir à quel point l’oeuvre d’art après le Dada et le Surréalisme correspond au modèle hégélien de la « prose ». Le Chapitre VII soutient que Dichterliebe, op. 48, (1840), est une oeuvre d’art vraie. Trois conclusions résultent de cette analyse musicale détaillée : (1) en exploitant, dans certains passages, une ambigüité dans les règles de l’harmonie qui fait en sorte tous les douze tons sont admis dans l’harmonie, l’Opus 48 anticipe sur Schoenberg—tout en restant une musique tonale ; (2) l’Opus 48, no 1 cache une tonalité secrète : à l'oeil, sa tonalité est soit la majeur, soit fa-dièse mineur, mais une nouvelle analyse dans la napolitaine de do-dièse majeur est proposée ici ; (3) une modulation passagère à la napolitaine dans l’Opus 48, no 12 contient l’autre « moitié » de la cadence interrompue à la fin de l’Opus 48, no 1. Considérés à la lumière de la société fausse, l’Allemagne des années 1930, ces trois aspects anti-organiques témoignent d’une conscience avancée. La seule praxis de vie qu’apporte l’art, selon Adorno, est la remémoration. Mais l’effet social ultime de garder la souffrance vécue en souvenir est non négligeable : l’émancipation universelle.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Montréal, Québec se construit vers une forme urbaine compacte, mais il en relève des questionnements quant aux effets sur l’abordabilité et l’accession à la propriété. En tenant compte du processus de la densification urbaine, une enquête sur une série de projets de condominiums immobiliers à travers la ville est menée afin de divulguer les prix des projets nouveaux ou en construction. Au préalable, ceci survole la littérature et les études actuelles portant sur la planification urbaine, notamment celles qui sont reliées au Smart Growth, études dans lesquelles le contexte de densification et de tendances consuméristes à préférer les formes urbaines étalées est mis en évidence. Essentiellement, Moroni (2010) souligne l’approche dichotomique en planification urbaine entre les perspectives «teleocratic» et «nomocratic». La densification montréalaise actuelle contemporaine s’exprime par une multitude de modèles de condos conformes aux nouvelles tendances démographiques et des modes de vie. En s’appuyant sur les critères du programme Accès Condos, sur les critères du SCHL (32% du revenu) et sur le revenu médian des ménages, le niveau d’accessibilité à la propriété d’un condominium peut être mesuré. Les résultats indiquent que selon ces critères, les logements de style condominium, neufs et en construction, sont abordables. L’analyse contribue empiriquement à la littérature en exposant les liens entre les stratégies actuelles de densification urbaine avec l’abordabilité des logements condos. La recherche porte un regard nouveau sur le phénomène condo à Montréal et ses tendances démographiques. La ville est divisée selon le modèle Burgess et la recherche mène un sondage comparatif des prix pour déterminer l’abordabilité. Les résultats suggèrent que les projets condos actuels sont relativement abordables pour les ménages avec un revenu médian et plus, selon Accès Condos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Connue pour son rôle dans la cascade de coagulation, la thrombine, une protéase à sérine, peut également agir par l’intermédiaire de PAR1, un récepteur activé par protéase et couplé aux protéines G liant le GTP (GPCR). La thrombine se lie et clive l’extrémité N-terminale du PAR1 entre l’Arg41 et la Ser42, exposant une nouvelle extrémité terminale qui agit elle-même comme un ligand. La thrombine et une séquence peptidique de cinq acides aminés, composée des résidus Ser42 à Arg46, nommée PAR1-AP, déclenchent dans diverses cellules de mammifères une réponse intracellulaire comportant une composante calcique. Dans cette étude, le système d’expression par baculovirus dans les cellules Sf9 d'insecte nous a permis d'exprimer le récepteur PAR1 du rat à la surface de ces cellules et de réaliser son couplage fonctionnel à leur signalisation intracellulaire (modèle rPAR1-Sf9). La composante calcique de celle-ci, en réponse au PAR1-AP, a ensuite été étudiée en détail à l’aide de la sonde fluorescente Fura-2 et de plusieurs inhibiteurs agissant sur les canaux calciques ou d'autres éléments de la cascade de signalisation du calcium intracellulaire. Lorsque le milieu extracellulaire contient du calcium (Ca2+), la thrombine ou PAR1-AP déclenchent un signal calcique qui consiste en une augmentation rapide de [Ca2+]i suivi d’un plateau relativement soutenu, puis d'un retour lent vers le niveau de base initial. En l'absence de Ca2+ dans le milieu extracellulaire, l'augmentation initiale rapide de [Ca2+]i est suivie d'un retour rapide vers le [Ca2+]i de base. À l’aide d’inhibiteurs de canaux calciques, tels que le lanthane, la nifédipine et le D-600, l'entrée du calcium du milieu extracellulaire dans les cellules est inhibée, abolissant le plateau soutenu de [Ca2+]i. L’inhibition de la pompe Ca2+-ATPase par la thapsigargine supprime la réponse au PAR1-AP après épuisement des sites de stockage de Ca2+intracellulaire. Le TMB-8 agit de façon discordante quant à l’inhibition de la libération de Ca2+ des sites de stockage intracellulaires. La réponse à PAR1-AP n’est pas affectée par le D-609, un inhibiteur de la phospholipase β. L’inhibition de la protéine kinase C (PKC) par le bisindolylmaléimide induit des oscillations en présence de Ca2+ extracellulaire et atténue fortement le signal calcique en absence de Ca2+ extracellulaire. En présence de Ca2+ extracellulaire, l’activation de la PKC par le PBDu tronque le flux de [Ca2+]i tandis que la réponse calcique est abolie en absence de Ca2+ dans le milieu extracellulaire. Le H-89, un inhibiteur de la protéine kinase A (PKA), cause une prolongation de la durée du plateau de [Ca2+]i dans un milieu riche en calcium et la suppression de la réponse à PAR1-AP lorsque le milieu extracellulaire est dépourvu de Ca2+. Les résultats obtenus nous permettent de conclure que la PKC et possiblement la PKA jouent un rôle critique dans la mobilisation du Ca2+ induite par le PAR1-AP dans le modèle rPAR1-Sf9.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’analyse de la marche a émergé comme l’un des domaines médicaux le plus im- portants récemment. Les systèmes à base de marqueurs sont les méthodes les plus fa- vorisées par l’évaluation du mouvement humain et l’analyse de la marche, cependant, ces systèmes nécessitent des équipements et de l’expertise spécifiques et sont lourds, coûteux et difficiles à utiliser. De nombreuses approches récentes basées sur la vision par ordinateur ont été développées pour réduire le coût des systèmes de capture de mou- vement tout en assurant un résultat de haute précision. Dans cette thèse, nous présentons notre nouveau système d’analyse de la démarche à faible coût, qui est composé de deux caméras vidéo monoculaire placées sur le côté gauche et droit d’un tapis roulant. Chaque modèle 2D de la moitié du squelette humain est reconstruit à partir de chaque vue sur la base de la segmentation dynamique de la couleur, l’analyse de la marche est alors effectuée sur ces deux modèles. La validation avec l’état de l’art basée sur la vision du système de capture de mouvement (en utilisant le Microsoft Kinect) et la réalité du ter- rain (avec des marqueurs) a été faite pour démontrer la robustesse et l’efficacité de notre système. L’erreur moyenne de l’estimation du modèle de squelette humain par rapport à la réalité du terrain entre notre méthode vs Kinect est très prometteur: les joints des angles de cuisses (6,29◦ contre 9,68◦), jambes (7,68◦ contre 11,47◦), pieds (6,14◦ contre 13,63◦), la longueur de la foulée (6.14cm rapport de 13.63cm) sont meilleurs et plus stables que ceux de la Kinect, alors que le système peut maintenir une précision assez proche de la Kinect pour les bras (7,29◦ contre 6,12◦), les bras inférieurs (8,33◦ contre 8,04◦), et le torse (8,69◦contre 6,47◦). Basé sur le modèle de squelette obtenu par chaque méthode, nous avons réalisé une étude de symétrie sur différentes articulations (coude, genou et cheville) en utilisant chaque méthode sur trois sujets différents pour voir quelle méthode permet de distinguer plus efficacement la caractéristique symétrie / asymétrie de la marche. Dans notre test, notre système a un angle de genou au maximum de 8,97◦ et 13,86◦ pour des promenades normale et asymétrique respectivement, tandis que la Kinect a donné 10,58◦et 11,94◦. Par rapport à la réalité de terrain, 7,64◦et 14,34◦, notre système a montré une plus grande précision et pouvoir discriminant entre les deux cas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'objectif de cette thèse est de présenter différentes applications du programme de recherche de calcul conditionnel distribué. On espère que ces applications, ainsi que la théorie présentée ici, mènera à une solution générale du problème d'intelligence artificielle, en particulier en ce qui a trait à la nécessité d'efficience. La vision du calcul conditionnel distribué consiste à accélérer l'évaluation et l'entraînement de modèles profonds, ce qui est très différent de l'objectif usuel d'améliorer sa capacité de généralisation et d'optimisation. Le travail présenté ici a des liens étroits avec les modèles de type mélange d'experts. Dans le chapitre 2, nous présentons un nouvel algorithme d'apprentissage profond qui utilise une forme simple d'apprentissage par renforcement sur un modèle d'arbre de décisions à base de réseau de neurones. Nous démontrons la nécessité d'une contrainte d'équilibre pour maintenir la distribution d'exemples aux experts uniforme et empêcher les monopoles. Pour rendre le calcul efficient, l'entrainement et l'évaluation sont contraints à être éparse en utilisant un routeur échantillonnant des experts d'une distribution multinomiale étant donné un exemple. Dans le chapitre 3, nous présentons un nouveau modèle profond constitué d'une représentation éparse divisée en segments d'experts. Un modèle de langue à base de réseau de neurones est construit à partir des transformations éparses entre ces segments. L'opération éparse par bloc est implémentée pour utilisation sur des cartes graphiques. Sa vitesse est comparée à deux opérations denses du même calibre pour démontrer le gain réel de calcul qui peut être obtenu. Un modèle profond utilisant des opérations éparses contrôlées par un routeur distinct des experts est entraîné sur un ensemble de données d'un milliard de mots. Un nouvel algorithme de partitionnement de données est appliqué sur un ensemble de mots pour hiérarchiser la couche de sortie d'un modèle de langage, la rendant ainsi beaucoup plus efficiente. Le travail présenté dans cette thèse est au centre de la vision de calcul conditionnel distribué émis par Yoshua Bengio. Elle tente d'appliquer la recherche dans le domaine des mélanges d'experts aux modèles profonds pour améliorer leur vitesse ainsi que leur capacité d'optimisation. Nous croyons que la théorie et les expériences de cette thèse sont une étape importante sur la voie du calcul conditionnel distribué car elle cadre bien le problème, surtout en ce qui concerne la compétitivité des systèmes d'experts.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les cas d’entreprises touchées par des scandales financiers, environnementaux ou concernant des conditions de travail abusives imposées à leur main-d’œuvre, n’ont cessé de jalonner l’actualité ces vingt dernières années. La multiplication des comportements à l’origine de ces scandales s’explique par l’environnement moins contraignant, que leur ont offert les politiques de privatisation, dérégulation et libéralisation, amorcées à partir des années 1980. Le développement de la notion de responsabilité sociale des entreprises à partir des années 1980, en réaction à ces excès, incarne l'idée que si une entreprise doit certes faire des profits et les pérenniser elle se doit de les réaliser en favorisant les comportements responsables, éthiques et transparents avec toutes ses parties prenantes. Nous analysons dans cette thèse le processus par lequel, face à des dysfonctionnements et abus, touchant les conditions de travail de leur main d’œuvre ou leur gouvernance, des entreprises peuvent être amenées, ou non, à questionner et modifier leurs pratiques. Nous avons axé notre étude de cas sur deux entreprises aux trajectoires diamétralement opposées. La première entreprise, issue du secteur de la fabrication de vêtements et dont la crise concernait des atteintes aux droits des travailleurs, a surmonté la crise en réformant son modèle de production. La seconde entreprise, située dans le secteur des technologies de l'information et de la communication, a fait face à une crise liée à sa gouvernance d’entreprise, multiplié les dysfonctionnements pendant dix années de crises et finalement déclaré faillite en janvier 2009. Les évolutions théoriques du courant néo-institutionnel ces dernières années, permettent d’éclairer le processus par lequel de nouvelles normes émergent et se diffusent, en soulignant le rôle de différents acteurs, qui pour les uns, définissent de nouvelles normes et pour d’autres se mobilisent en vue de les diffuser. Afin d’augmenter leur efficacité à l’échelle mondiale, il apparaît que ces acteurs agissent le plus souvent en réseaux, parfois concurrents. L’étude du cas de cette compagnie du secteur de la confection de vêtement nous a permis d’aborder le domaine lié aux conditions de travail de travailleurs œuvrant au sein de chaînes de production délocalisées dans des pays aux lois sociales absentes ou inefficaces. Nous avons analysé le cheminement par lequel cette entreprise fut amenée à considérer, avec plus de rigueur, la dimension éthique dans sa chaîne de production. L’entreprise, en passant par différentes étapes prenant la forme d’un processus d’apprentissage organisationnel, a réussi à surmonter la crise en réformant ses pratiques. Il est apparu que ce processus ne fut pas spontané et qu’il fut réalisé suite aux rôles joués par deux types d’acteurs. Premièrement, par la mobilisation incessante des mouvements de justice globale afin que l’entreprise réforme ses pratiques. Et deuxièmement, par le cadre normatif et le lieu de dialogue entre les différentes parties prenantes, fournis par un organisme privé source de normes. C’est fondamentalement le risque de perdre son accréditation à la cet organisme qui a poussé l’entreprise à engager des réformes. L’entreprise est parvenue à surmonter la crise, certes en adoptant et en respectant les normes définies par cette organisation mais fondamentalement en modifiant sa culture d'entreprise. Le leadership du CEO et du CFO a en effet permis la création d'une culture d'entreprise favorisant la remise en question, le dialogue et une plus grande prise en considération des parties prenantes, même si la gestion locale ne va pas sans poser parfois des difficultés de mise en œuvre. Concernant le domaine de la gouvernance d’entreprise, nous mettons en évidence, à travers l’étude des facteurs ayant mené au déclin et à la faillite d’une entreprise phare du secteur des technologies de l’information et de la communication, les limites des normes en la matière comme outil de bonne gouvernance. La légalité de la gestion comptable et la conformité de l’entreprise aux normes de gouvernance n'ont pas empêché l’apparition et la multiplication de dysfonctionnements et abus stratégiques et éthiques. Incapable de se servir des multiples crises auxquelles elle a fait face pour se remettre en question et engager un apprentissage organisationnel profond, l'entreprise s'est focalisée de manière obsessionnelle sur la rentabilité à court terme et la recherche d'un titre boursier élevé. La direction et le conseil d'administration ont manqué de leadership afin de créer une culture d'entreprise alliant innovation technologique et communication honnête et transparente avec les parties prenantes. Alors que l'étude consacrée à l’entreprise du secteur de la confection de vêtement illustre le cas d'une entreprise qui a su, par le biais d'un changement stratégique, relever les défis que lui imposait son environnement, l'étude des quinze dernières années de la compagnie issue du secteur des technologies de l’information et de la communication témoigne de la situation inverse. Il apparaît sur base de ces deux cas que si une gouvernance favorisant l'éthique et la transparence envers les parties prenantes nécessite la création d'une culture d'entreprise valorisant ces éléments, elle doit impérativement soutenir et être associée à une stratégie adéquate afin que l'entreprise puisse pérenniser ses activités.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse est divisée en deux grands chapitres, dont le premier porte sur des problèmes de commande optimale en dimension un et le deuxième sur des problèmes en dimension deux ou plus. Notons bien que, dans cette thèse, nous avons supposé que le facteur temps n'intervient pas. Dans le premier chapitre, nous calculons, au début, l'équation de programmation dynamique pour la valeur minimale F de l'espérance mathématique de la fonction de coût considérée. Ensuite, nous utilisons le théorème de Whittle qui est applicable seulement si une condition entre le bruit blanc v et les termes b et q associés à la commande est satisfaite. Sinon, nous procédons autrement. En effet, un changement de variable transforme notre équation en une équation de Riccati en G= F', mais sans conditions initiales. Dans certains cas, à partir de la symétrie des paramètres infinitésimaux et de q, nous pouvons en déduire le point x' où G(x')=0. Si ce n'est pas le cas, nous nous limitons à des bonnes approximations. Cette même démarche est toujours possible si nous sommes dans des situations particulières, par exemple, lorsque nous avons une seule barrière. Dans le deuxième chapitre, nous traitons les problèmes en dimension deux ou plus. Puisque la condition de Whittle est difficile à satisfaire dans ce cas, nous essayons de généraliser les résultats du premier chapitre. Nous utilisons alors dans quelques exemples la méthode des similitudes, qui permet de transformer le problème en dimension un. Ensuite, nous proposons une nouvelle méthode de résolution. Cette dernière linéarise l'équation de programmation dynamique qui est une équation aux dérivées partielles non linéaire. Il reste à la fin à trouver les conditions initiales pour la nouvelle fonction et aussi à vérifier que les n expressions obtenues pour F sont équivalentes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Après des décennies de développement, l'ablation laser est devenue une technique importante pour un grand nombre d'applications telles que le dépôt de couches minces, la synthèse de nanoparticules, le micro-usinage, l’analyse chimique, etc. Des études expérimentales ainsi que théoriques ont été menées pour comprendre les mécanismes physiques fondamentaux mis en jeu pendant l'ablation et pour déterminer l’effet de la longueur d'onde, de la durée d'impulsion, de la nature de gaz ambiant et du matériau de la cible. La présente thèse décrit et examine l'importance relative des mécanismes physiques qui influencent les caractéristiques des plasmas d’aluminium induits par laser. Le cadre général de cette recherche forme une étude approfondie de l'interaction entre la dynamique de la plume-plasma et l’atmosphère gazeuse dans laquelle elle se développe. Ceci a été réalisé par imagerie résolue temporellement et spatialement de la plume du plasma en termes d'intensité spectrale, de densité électronique et de température d'excitation dans différentes atmosphères de gaz inertes tel que l’Ar et l’He et réactifs tel que le N2 et ce à des pressions s’étendant de 10‾7 Torr (vide) jusqu’à 760 Torr (pression atmosphérique). Nos résultats montrent que l'intensité d'émission de plasma dépend généralement de la nature de gaz et qu’elle est fortement affectée par sa pression. En outre, pour un délai temporel donné par rapport à l'impulsion laser, la densité électronique ainsi que la température augmentent avec la pression de gaz, ce qui peut être attribué au confinement inertiel du plasma. De plus, on observe que la densité électronique est maximale à proximité de la surface de la cible où le laser est focalisé et qu’elle diminue en s’éloignant (axialement et radialement) de cette position. Malgré la variation axiale importante de la température le long du plasma, on trouve que sa variation radiale est négligeable. La densité électronique et la température ont été trouvées maximales lorsque le gaz est de l’argon et minimales pour l’hélium, tandis que les valeurs sont intermédiaires dans le cas de l’azote. Ceci tient surtout aux propriétés physiques et chimiques du gaz telles que la masse des espèces, leur énergie d'excitation et d'ionisation, la conductivité thermique et la réactivité chimique. L'expansion de la plume du plasma a été étudiée par imagerie résolue spatio-temporellement. Les résultats montrent que la nature de gaz n’affecte pas la dynamique de la plume pour des pressions inférieures à 20 Torr et pour un délai temporel inférieur à 200 ns. Cependant, pour des pressions supérieures à 20 Torr, l'effet de la nature du gaz devient important et la plume la plus courte est obtenue lorsque la masse des espèces du gaz est élevée et lorsque sa conductivité thermique est relativement faible. Ces résultats sont confirmés par la mesure de temps de vol de l’ion Al+ émettant à 281,6 nm. D’autre part, on trouve que la vitesse de propagation des ions d’aluminium est bien définie juste après l’ablation et près de la surface de la cible. Toutefois, pour un délai temporel important, les ions, en traversant la plume, se thermalisent grâce aux collisions avec les espèces du plasma et du gaz.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La réflexion est considérée comme un élément significatif de la pédagogie et de la pratique médicales sans qu’il n’existe de consensus sur sa définition ou sur sa modélisation. Comme la réflexion prend concurremment plusieurs sens, elle est difficile à opérationnaliser. Une définition et un modèle standard sont requis afin d’améliorer le développement d’applications pratiques de la réflexion. Dans ce mémoire, nous identifions, explorons et analysons thématiquement les conceptualisations les plus influentes de la réflexion, et développons de nouveaux modèle et définition. La réflexion est définie comme le processus de s’engager (le « soi » (S)) dans des interactions attentives, critiques, exploratoires et itératives (ACEI) avec ses pensées et ses actions (PA), leurs cadres conceptuels sous-jacents (CC), en visant à les changer et en examinant le changement lui-même (VC). Notre modèle conceptuel comprend les cinq composantes internes de la réflexion et les éléments extrinsèques qui l’influencent.