999 resultados para Dynamique temporelle


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le problème de tournées de véhicules (VRP), introduit par Dantzig and Ramser en 1959, est devenu l'un des problèmes les plus étudiés en recherche opérationnelle, et ce, en raison de son intérêt méthodologique et de ses retombées pratiques dans de nombreux domaines tels que le transport, la logistique, les télécommunications et la production. L'objectif général du VRP est d'optimiser l'utilisation des ressources de transport afin de répondre aux besoins des clients tout en respectant les contraintes découlant des exigences du contexte d’application. Les applications réelles du VRP doivent tenir compte d’une grande variété de contraintes et plus ces contraintes sont nombreuse, plus le problème est difficile à résoudre. Les VRPs qui tiennent compte de l’ensemble de ces contraintes rencontrées en pratique et qui se rapprochent des applications réelles forment la classe des problèmes ‘riches’ de tournées de véhicules. Résoudre ces problèmes de manière efficiente pose des défis considérables pour la communauté de chercheurs qui se penchent sur les VRPs. Cette thèse, composée de deux parties, explore certaines extensions du VRP vers ces problèmes. La première partie de cette thèse porte sur le VRP périodique avec des contraintes de fenêtres de temps (PVRPTW). Celui-ci est une extension du VRP classique avec fenêtres de temps (VRPTW) puisqu’il considère un horizon de planification de plusieurs jours pendant lesquels les clients n'ont généralement pas besoin d’être desservi à tous les jours, mais plutôt peuvent être visités selon un certain nombre de combinaisons possibles de jours de livraison. Cette généralisation étend l'éventail d'applications de ce problème à diverses activités de distributions commerciales, telle la collecte des déchets, le balayage des rues, la distribution de produits alimentaires, la livraison du courrier, etc. La principale contribution scientifique de la première partie de cette thèse est le développement d'une méta-heuristique hybride dans la quelle un ensemble de procédures de recherche locales et de méta-heuristiques basées sur les principes de voisinages coopèrent avec un algorithme génétique afin d’améliorer la qualité des solutions et de promouvoir la diversité de la population. Les résultats obtenus montrent que la méthode proposée est très performante et donne de nouvelles meilleures solutions pour certains grands exemplaires du problème. La deuxième partie de cette étude a pour but de présenter, modéliser et résoudre deux problèmes riches de tournées de véhicules, qui sont des extensions du VRPTW en ce sens qu'ils incluent des demandes dépendantes du temps de ramassage et de livraison avec des restrictions au niveau de la synchronization temporelle. Ces problèmes sont connus respectivement sous le nom de Time-dependent Multi-zone Multi-Trip Vehicle Routing Problem with Time Windows (TMZT-VRPTW) et de Multi-zone Mult-Trip Pickup and Delivery Problem with Time Windows and Synchronization (MZT-PDTWS). Ces deux problèmes proviennent de la planification des opérations de systèmes logistiques urbains à deux niveaux. La difficulté de ces problèmes réside dans la manipulation de deux ensembles entrelacés de décisions: la composante des tournées de véhicules qui vise à déterminer les séquences de clients visités par chaque véhicule, et la composante de planification qui vise à faciliter l'arrivée des véhicules selon des restrictions au niveau de la synchronisation temporelle. Auparavant, ces questions ont été abordées séparément. La combinaison de ces types de décisions dans une seule formulation mathématique et dans une même méthode de résolution devrait donc donner de meilleurs résultats que de considérer ces décisions séparément. Dans cette étude, nous proposons des solutions heuristiques qui tiennent compte de ces deux types de décisions simultanément, et ce, d'une manière complète et efficace. Les résultats de tests expérimentaux confirment la performance de la méthode proposée lorsqu’on la compare aux autres méthodes présentées dans la littérature. En effet, la méthode développée propose des solutions nécessitant moins de véhicules et engendrant de moindres frais de déplacement pour effectuer efficacement la même quantité de travail. Dans le contexte des systèmes logistiques urbains, nos résultats impliquent une réduction de la présence de véhicules dans les rues de la ville et, par conséquent, de leur impact négatif sur la congestion et sur l’environnement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La phobie sociale est le plus souvent décrite comme suivant une trajectoire chronique. Afin de modifier ce cours clinique, plusieurs protocoles de traitement ont été développés, leur efficacité ayant été démontrée dans de nombreuses études. Toutefois, est-ce que les gains rapportés se maintiennent des années suivant la fin du traitement? Cette dissertation avait pour objectif d’examiner cette question. Une recension d’études a d’abord permis d’effectuer une analyse critique des évidences relatives à la durabilité des effets thérapeutiques des traitements contemporains. Cette recension a permis de constater que les études ayant inclus une période de suivi excédant un an sont peu nombreuses. Lorsque de telles études ont été recensées, la réduction de l’anxiété s’est avérée la retombée thérapeutique principalement investiguée. Les évidences demeurent parcellaires concernant la durabilité des gains sur d’autres dimensions de la phobie sociale, en l’occurrence le fonctionnement social, et quant au maintien de la rémission. Pour combler ces lacunes, la durabilité des gains thérapeutiques, 8 à 15 ans suivant la fin d’un traitement d’approche interpersonnelle (AI), a été évaluée. Cette approche vise la dissolution du pattern global d’auto-protection, en améliorant la participation sociale et en facilitant le développement de modes relationnels plus adaptés. Cinquante-huit individus, satisfaisant initialement les critères de la phobie sociale, ont pris part à cette étude. Ces derniers ont rapporté des gains significatifs, jusqu’à une relance d’un an suivant la fin du traitement. L’évolution de l’anxiété sociale, de la détresse générale et du fonctionnement social, de la relance d’un an à la relance de 8 à 15 ans, a donc été évaluée. La signification statistique et clinique des effets obtenus dans le temps, de même que les différences individuelles, ont été examinées. Les résultats révèlent que le protocole de traitement AI a produit des effets durables depuis la relance d’un an sur les variables examinées. La plupart des participants en rémission à la relance d’un an l’étaient encore une dizaine d’années plus tard. Les participants ayant rapporté une réduction cliniquement significative de la détresse sociale un an suivant la fin du traitement ont connu une trajectoire similaire. Une augmentation significative du taux de rémission a également été constatée. Une analyse fonctionnelle a d’ailleurs révélé une amélioration des répertoires de comportements sociaux chez la majorité des participants, suggérant une dynamique de changement reflétant le passage de l’auto-protection à la participation sociale. Par ailleurs, une hypothèse issue de la perspective interpersonnelle de la phobie sociale et de son traitement a été étayée : une convergence des changements relevés sur les dimensions anxieuse et interpersonnelle a été notée. En somme, l’ensemble de ces résultats soutient l’efficacité à long terme du traitement AI.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte : De manière générale, on considère que le processus de validation d’un instrument de mesure porte sur la validité et la fiabilité. Or, la nature dynamique et évolutive de certaines problématiques, comme la stigmatisation des personnes vivant avec le VIH (PVVIH), laisse croire qu’il est particulièrement important de réinvestir rapidement dans la pratique, les résultats produits par les mesures ainsi validées. Objectifs : La présente thèse vise à développer et valider une échelle de mesure des attitudes stigmatisantes envers les PVVIH en intégrant un dispositif participatif. La thèse utilise en partie les données d’une enquête de surveillance des attitudes envers les PVVIH au Québec, elle comporte trois études qui répondent aux trois objectifs spécifiques suivants : (1) valider la version révisée d’un instrument de mesure des attitudes favorables à la stigmatisation dans la population générale du Québec envers les PVVIH; (2) analyser la relation entre la mesure des attitudes favorables à la stigmatisation et le recours au dépistage du VIH dans la population générale du Québec; (3) décrire et analyser les processus de circulation et d’utilisation des connaissances produites par l’instrument de mesure dans les réseaux professionnels des membres d’un comité consultatif. Méthodes : Un comité consultatif réunissant plusieurs partenaires issus de différents milieux a été constitué dès l’obtention de la subvention. Il a été consulté et informé avant, pendant et après l’enquête téléphonique populationnelle (n=1500) ayant permis de colliger les données. L’Échelle des Attitudes Stigmatisantes envers les Personnes Vivant avec le VIH (EASE-PVVIH) a été validée au moyen de plusieurs analyses psychométriques : analyses factorielles exploratoires et confirmatives, corrélations, régression linéaire multiple, test-t, tests d’hypothèses d’invariance de la structure factorielle et alphas de Cronbach (objectif 1). L’association entre les attitudes favorables à la stigmatisation et le recours au dépistage du VIH a été testée à l’aide de régressions logistiques hiérarchiques (objectif 2). Quant aux processus de circulation et d’utilisation des connaissances dans les réseaux professionnels, ils ont été analysés au moyen d’une étude de cas rétrospective (objectif 3). Résultats : Les analyses ont révélé trois résultats importants. Premièrement, d’un point de vue psychométrique, l’EASE-PVVIH est un outil fiable et valide pour mesurer les attitudes stigmatisantes envers les personnes vivant avec le VIH. Deuxièmement, sous une certaine forme caractérisée par l’inquiétude éprouvée lors de rencontres occasionnelles, les attitudes stigmatisantes par rapport aux personnes vivant avec le VIH semblent nuire au recours au test de dépistage dans la population générale au Québec. Troisièmement, un dispositif participatif en particulier, soit un comité consultatif, semble être un moyen pour favoriser le réinvestissement rapide et étendre la portée des résultats produits par la recherche dans des actions concrètes de santé publique. Conclusion : Ces résultats mettent en lumière la portée d’un dispositif participatif pour la validation d’instrument de mesure. L’arrimage entre les préoccupations scientifiques et pratiques apparaît être une avenue prometteuse pour améliorer la qualité et la pertinence sociale des données produites par les mesures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le contexte de la caractérisation des tissus mammaires, on peut se demander ce que l’examen d’un attribut en échographie quantitative (« quantitative ultrasound » - QUS) d’un milieu diffusant (tel un tissu biologique mou) pendant la propagation d’une onde de cisaillement ajoute à son pouvoir discriminant. Ce travail présente une étude du comportement variable temporel de trois paramètres statistiques (l’intensité moyenne, le paramètre de structure et le paramètre de regroupement des diffuseurs) d’un modèle général pour l’enveloppe écho de l’onde ultrasonore rétrodiffusée (c.-à-d., la K-distribution homodyne) sous la propagation des ondes de cisaillement. Des ondes de cisaillement transitoires ont été générés en utilisant la mèthode d’ imagerie de cisaillement supersonique ( «supersonic shear imaging » - SSI) dans trois fantômes in-vitro macroscopiquement homogènes imitant le sein avec des propriétés mécaniques différentes, et deux fantômes ex-vivo hétérogénes avec tumeurs de souris incluses dans un milieu environnant d’agargélatine. Une comparaison de l’étendue des trois paramètres de la K-distribution homodyne avec et sans propagation d’ondes de cisaillement a montré que les paramètres étaient significativement (p < 0,001) affectès par la propagation d’ondes de cisaillement dans les expériences in-vitro et ex-vivo. Les résultats ont également démontré que la plage dynamique des paramétres statistiques au cours de la propagation des ondes de cisaillement peut aider à discriminer (avec p < 0,001) les trois fantômes homogènes in-vitro les uns des autres, ainsi que les tumeurs de souris de leur milieu environnant dans les fantômes hétérogénes ex-vivo. De plus, un modéle de régression linéaire a été appliqué pour corréler la plage de l’intensité moyenne sous la propagation des ondes de cisaillement avec l’amplitude maximale de déplacement du « speckle » ultrasonore. La régression linéaire obtenue a été significative : fantômes in vitro : R2 = 0.98, p < 0,001 ; tumeurs ex-vivo : R2 = 0,56, p = 0,013 ; milieu environnant ex-vivo : R2 = 0,59, p = 0,009. En revanche, la régression linéaire n’a pas été aussi significative entre l’intensité moyenne sans propagation d’ondes de cisaillement et les propriétés mécaniques du milieu : fantômes in vitro : R2 = 0,07, p = 0,328, tumeurs ex-vivo : R2 = 0,55, p = 0,022 ; milieu environnant ex-vivo : R2 = 0,45, p = 0,047. Cette nouvelle approche peut fournir des informations supplémentaires à l’échographie quantitative statistique traditionnellement réalisée dans un cadre statique (c.-à-d., sans propagation d’ondes de cisaillement), par exemple, dans le contexte de l’imagerie ultrasonore en vue de la classification du cancer du sein.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La protection des enfants dans les pays en développement constitue encore aujourd’hui une problématique qui continue à alimenter la préoccupation et des débats sur l’avenir des enfants à l’échelle nationale et internationale. En dépit des interventions répétées des organismes internationaux œuvrant dans le domaine de la protection des enfants à travers le monde, les conditions socioéconomiques de millions d’enfants ne cessent d’empirer, laissant ainsi leur avenir dans une incertitude accablante. Le souci de secourir ces enfants a ouvert la voie à l’amplification du phénomène d’adoption internationale qui témoigne d’une forme de «solidarité» internationale en faveur des enfants à travers le monde mais qui finit par s’imposer comme une forme de protection sociale qui transcende les frontières nationales. En Haïti, la précarité des conditions de vie a permis la mise en action d’un ensemble de stratégies d’entraide se reposant sur des liens communautaires forts qui se veut une sorte de soupape pour amortir les impacts sur les membres de la famille, mais qui s’étend parfois sur toute la communauté. Dans cette dynamique, l’enfant bénéficie d’une attention soutenue. Ainsi, certains membres de la diaspora haïtienne en Amérique du Nord, plus précisément à Montréal ont procédé à l’adoption dans leur famille élargie en Haïti. L’objectif de cette recherche est donc de dégager une appréhension de l’adoption intrafamiliale en Haïti, plus particulièrement celle réalisée par des haïtiens vivants à Montréal. Mais de manière spécifique, nous visons à : 1) comprendre la nature des décisions d’adopter et sa spécificité en contexte d’adoption intrafamiliale chez les adoptants québécois originaires d’Haïti, 2) établir les étapes et le contexte des démarches d’adoption qui caractérisent les projets des adoptants haïtiens québécois et 3) comprendre dans quelle mesure la protection des enfants fait partie du désir d’adopter chez ces adoptants en dégageant leur point de vue. Cette recherche nous a permis de comprendre que l’adoption intrafamiliale en Haïti est marquée par une grande diversité de motivations tels que le désir d’enfants, le sauvetage des enfants, la redevance sociale, la réussite sociale de l’enfant, l’accès à l’éducation, le désengagement social, le souci de maintenir à distance l’esprit de clan et le don d’enfants. Si ces motifs visent pour la plupart à la protection de l’enfant, ils sont aussi en lien avec la culture haïtienne qui voit dans celui-ci une véritable lueur d’espoir pour l’amélioration des conditions de vie des parents dans leurs vieux jours.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le virus de l’hépatite C (VHC) infecte ~185 millions d’individus dans le monde. Malgré le développement des nouvelles thérapies dirigées contre le VHC, on compte deux millions de nouvelles infections chaque année, en particulier dans les pays sous-développés et les populations marginalisées. Comme pour la plupart des virus à infection chronique, le développement d’un vaccin prophylactique efficace est limité par le manque de caractérisation des déterminants de la mémoire immunitaire protectrice lors des épisodes de réinfection naturelle chez les êtres humains. Le VHC représente un modèle unique au sein des virus à infection chronique pour étudier l’immunité protectrice. En effet ~30% des patients infectés par le VHC peuvent être guéris suite à un premier épisode d’infection spontanément. Dans cette thèse, nous avons étudié l’immunité protectrice contre le VHC dans une cohorte d’utilisateurs de drogues par injection qui sont à risque d’être infectés ou réinfectés. Notre hypothèse est que la majorité des patients qui ont résolu une première infection par le VHC sont protégés contre le développement d’une infection chronique s’ils sont réexposés. Cette immunité protectrice est associée à la présence des cellules T CD4 et CD8 polyfonctionnelles qui possèdent des fréquences, magnitudes et avidités élevées. La capacité protectrice des cellules T mémoire contre les séquences variables du VHC est dépendante de la diversité et flexibilité du répertoire de leurs récepteurs de cellules T (TCR), qui reconnaissent les séquences variables des épitopes ciblés. Notre premier objectif était de définir et détailler les déterminants de l’immunité protectrice conférée par les cellules T spécifiques du VHC. Nos résultats ont montré que la protection pendant l’épisode de réinfection était associée à une augmentation de la magnitude et du spectre des réponses spécifiques par les cellules T CD4 et CD8 polyfonctionnelles, ainsi que par l’apparition d’une population de cellules T tétramère+ CD8+ effectrices qui expriment faiblement le marqueur CD127 (CD127lo) lors du pic de la réponse. Chez les patients qui ont développé une infection chronique pendant l’épisode de réinfection, nous avons observé une expansion très limitée des cellules T CD4 et CD8. Le séquençage des épitopes ciblés par les cellules T CD8 chez ces patients qui sont non-protégés a montré que les séquences de ces épitopes sont différentes des séquences de référence qui étaient utilisées pour tous les essais immunologiques de cette étude. Le deuxième objectif était d’analyser la dynamique du répertoire des TCRs des cellules T CD8 spécifiques chez les patients protégés versus les patients non-protégés. Nos résultats ont montré que le répertoire des cellules T CD8 spécifiques est plus focalisé que chez les patients protégés. En plus, nous avons observé que les clonotypes qui forment le répertoire chez les patients protégés sont distincts de ceux chez les patients non-protégés. Ces clonotypes chez les patients protégés ont montré de plus grandes avidité et polyfonctionnalité que leurs homologues chez les patients non-protégés. En conclusion, nos résultats suggèrent que la protection contre le développement d’une infection chronique pendant l’épisode de réinfection par le VHC est associée à une augmentation de la magnitude, du spectre et de la fonctionnalité des réponses des cellules T spécifiques, ainsi qu’à un répertoire des TCRs plus focalisé composé des clonotypes distincts qui possèdent de plus grandes avidité et polyfonctionnalité que chez les patients non-protégés. L’homologie des séquences des souches virales entre les différents épisodes de l’infection est un déterminant majeur de l’établissement d’une protection efficace. Ces résultats ont donc des implications très importantes pour le développement d’un vaccin prophylactique contre le VHC et d’autres virus à infection chronique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une variété d’opérations cognitives dépend de la capacité de retenir de l’information auditive pour une courte période de temps. Notamment l’information auditive prend son sens avec le temps; la rétention d’un son disparu permet donc de mieux comprendre sa signification dans le contexte auditif et mène ultimement à une interaction réussite avec l’environnement. L’objectif de cette thèse était d’étudier l’activité cérébrale reliée à la rétention des sons et, ce faisant, parvenir à une meilleure compréhension des mécanismes de bas niveau de la mémoire à court-terme auditive. Trois études empiriques se sont penchées sur différents aspects de la rétention des sons. Le premier article avait pour but d’étudier les corrélats électrophysiologiques de la rétention des sons variant en timbre en utilisant la technique des potentiels reliés aux événements. Une composante fronto-centrale variant avec la charge mnésique a été ainsi révélée. Dans le deuxième article, le patron électro-oscillatoire de la rétention a été exploré. Cette étude a dévoilé une augmentation de l’amplitude variant avec la charge mnésique dans la bande alpha pendant la rétention des sons ainsi qu’une dissociation entre l’activité oscillatoire observée pendant la rétention et celle observée pendant la présentation des sons test. En démontrant des différentes modulations des amplitudes dans la bande alpha et la bande beta, cette étude a pu révéler des processus distincts mais interdépendants de la mémoire à court-terme auditive. Le troisième article a davantage visé à mieux connaître les structures cérébrales soutenant la rétention de sons. L’activité cérébrale a été mesurée avec la magnétoencéphalographie, et des localisations des sources ont été effectuées à partir de ces données. Les résultats ont dévoilé l’implication d’un réseau cérébral contenant des structures temporales, frontales, et pariétales qui était plus important dans l’hémisphère droit que dans l’hémisphère gauche. Les résultats des études empiriques ont permis de souligner l’aspect sensoriel de la mémoire à court-terme auditive et de montrer des similarités dans la rétention de différentes caractéristiques tonales. Dans leur ensemble, les études ont contribué à l’identification des processus neuronaux reliés à la rétention des sons en étudiant l’activité électromagnétique et l’implication des structures cérébrales correspondantes sur une échelle temporelle fine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La spectroscopie infrarouge à matrice à plan focal (PAIRS) est utilisée pour étudier la déformation et la relaxation des polymères à très haute vitesse, soit de 46 cm/s, grâce à sa résolution temporelle de quelques millisecondes. Des mesures complémentaires de spectroscopie infrarouge d’absorbance structurale par modulation de la polarisation (PM-IRSAS) ont été réalisées pour suivre des déformations plus lentes de 0,16 à 1,6 cm/s avec une résolution temporelle de quelques centaines de millisecondes. Notre étude a permis d’observer, à haute vitesse de déformation, un nouveau temps de relaxation (τ0) de l’ordre d’une dizaine de millisecondes qui n’est pas prédit dans la littérature. Le but de cette étude est de quantifier ce nouveau temps de relaxation ainsi que de déterminer les effets de la température, de la masse molaire et de la composition du mélange sur ce dernier. Des mesures effectuées sur du polystyrène (PS) de deux masses molaires différentes, soit 210 et 900 kg/mol, à diverses températures ont révélé que ce temps est indépendant de la masse molaire mais qu’il varie avec la température. Des mesures effectuées sur des films composés de PS900 et de PS deutéré de 21 kg/mol, ont révélé que ce temps ne dépend pas de la composition du mélange et que la longueur des chaînes de PS n’a aucun impact sur celui-ci. D’autres mesures effectuées sur des films de PS900 mélangé avec le poly(vinyl méthyl éther) (PVME) ont révélé que ce temps est identique pour le PS900 pur et le PS900 dans le mélange, mais qu’il est plus court pour le PVME, de l’ordre de quelques millisecondes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'épaule est souvent affectée par des troubles musculo-squelettiques. Toutefois, leur évaluation est limitée à des mesures qualitatives qui nuisent à la spécificité et justesse du diagnostic. L'analyse de mouvement tridimensionnel pourrait complémenter le traitement conventionnel à l'aide de mesures quantitatives fonctionnelles. L'interaction entre les articulations de l'épaule est estimée par le rythme scapulo-huméral, mais la variabilité prononcée qu'il affiche nuit à son utilisation clinique. Ainsi, l'objectif général de cette thèse était de réduire la variabilité de la mesure du rythme scapulo-huméral. L'effet de la méthode de calcul du rythme scapulo-huméral et des conditions d'exécution du mouvement (rotation axiale du bras, charge, vitesse, activité musculaire) ont été testées. La cinématique des articulations de l'épaule a été calculé par chaîne cinématique et filtre de Kalman étendu sur des sujets sains avec un système optoélectronique. La méthode usuelle de calcul du rythme scapulo-huméral extrait les angles d'élévation gléno-humérale et de rotation latérale scapulo-thoracique. Puisque ces angles ne sont pas co-planaires au thorax, leur somme ne correspond pas à l'angle d'élévation du bras. Une nouvelle approche de contribution articulaire incluant toutes les rotations de chaque articulation est proposée et comparée à la méthode usuelle. La méthode usuelle surestimait systématiquement la contribution gléno-humérale par rapport à la méthode proposée. Ce nouveau calcul du rythme scapulo-huméral permet une évaluation fonctionnelle dynamique de l'épaule et réduit la variabilité inter-sujets. La comparaison d'exercices de réadaptation du supra-épineux contrastant la rotation axiale du bras a été réalisée, ainsi que l'effet d'ajouter une charge externe. L'exercice «full-can» augmentait le rythme scapulo-huméral et la contribution gléno-humérale ce qui concorde avec la fonction du supra-épineux. Au contraire, l'exercice «empty-can» augmentait la contribution scapulo-thoracique ce qui est associé à une compensation pour éviter la contribution gléno-humérale. L'utilisation de charge externe lors de la réadaptation du supra-épineux semble justifiée par un rythme scapulo-huméral similaire et une élévation gléno-humérale supérieure. Le mouvement de l'épaule est souvent mesuré ou évalué en condition statique ou dynamique et passive ou active. Cependant, l'effet de ces conditions sur la coordination articulaire demeure incertain. La comparaison des ces conditions révélait des différences significatives qui montrent l'importance de considérer les conditions de mouvement pour l'acquisition ou la comparaison des données.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les protéines amyloïdes sont retrouvées sous forme de fibres dans de nombreuses maladies neurodégénératives. En tentant d’élucider le mécanisme de fibrillation, les chercheurs ont découvert que cette réaction se fait par un phénomène de nucléation passant par des oligomères. Il semblerait que ces espèces soient la principale cause de la toxicité observée dans les cellules des patients atteints d’amyloïdose. C’est pourquoi un intérêt particulier est donc porté aux premières étapes d’oligomérisation. Dans ce mémoire, nous nous intéressons à une séquence d’acide aminé fortement hydrophobe de l’α-synucléine appelée composante non β -amyloïde (Non-Amyloid β Component ou NAC). Cette dernière est retrouvée sous forme de fibres dans les corps et les neurites de Lewy des patients atteints de la maladie de Parkinson. De plus, elle constitue une composante minoritaire des fibres impliquées dans la maladie d’Alzheimer. Nous avons observé les changements structuraux qui ont lieu pour le monomère, le dimère et le trimère de la séquence NAC de l’α-synucléine. Nous nous sommes aussi intéressés aux conséquences structurelles observées dans des oligomères hétérogènes qui impliqueraient, Aβ1−40. Pour cela nous utilisons des dynamiques moléculaires, d’échange de répliques couplées au potentiel gros-grain, OPEP. Nous constatons une disparition des hélices α au profit des feuillets β , ainsi que le polymorphisme caractéristique des fibres amyloïdes. Certaines régions se sont démarquées par leurs capacités à former des feuillets β . La disparition de ces régions lorsque NAC est combinée à Aβ laisse entrevoir l’importance de l’emplacement des résidus hydrophobes dans des structures susceptibles de former des fibres amyloïdes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ma thèse est composée de trois essais sur l'inférence par le bootstrap à la fois dans les modèles de données de panel et les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peut être faible. La théorie asymptotique n'étant pas toujours une bonne approximation de la distribution d'échantillonnage des estimateurs et statistiques de tests, je considère le bootstrap comme une alternative. Ces essais tentent d'étudier la validité asymptotique des procédures bootstrap existantes et quand invalides, proposent de nouvelles méthodes bootstrap valides. Le premier chapitre #co-écrit avec Sílvia Gonçalves# étudie la validité du bootstrap pour l'inférence dans un modèle de panel de données linéaire, dynamique et stationnaire à effets fixes. Nous considérons trois méthodes bootstrap: le recursive-design bootstrap, le fixed-design bootstrap et le pairs bootstrap. Ces méthodes sont des généralisations naturelles au contexte des panels des méthodes bootstrap considérées par Gonçalves et Kilian #2004# dans les modèles autorégressifs en séries temporelles. Nous montrons que l'estimateur MCO obtenu par le recursive-design bootstrap contient un terme intégré qui imite le biais de l'estimateur original. Ceci est en contraste avec le fixed-design bootstrap et le pairs bootstrap dont les distributions sont incorrectement centrées à zéro. Cependant, le recursive-design bootstrap et le pairs bootstrap sont asymptotiquement valides quand ils sont appliqués à l'estimateur corrigé du biais, contrairement au fixed-design bootstrap. Dans les simulations, le recursive-design bootstrap est la méthode qui produit les meilleurs résultats. Le deuxième chapitre étend les résultats du pairs bootstrap aux modèles de panel non linéaires dynamiques avec des effets fixes. Ces modèles sont souvent estimés par l'estimateur du maximum de vraisemblance #EMV# qui souffre également d'un biais. Récemment, Dhaene et Johmans #2014# ont proposé la méthode d'estimation split-jackknife. Bien que ces estimateurs ont des approximations asymptotiques normales centrées sur le vrai paramètre, de sérieuses distorsions demeurent à échantillons finis. Dhaene et Johmans #2014# ont proposé le pairs bootstrap comme alternative dans ce contexte sans aucune justification théorique. Pour combler cette lacune, je montre que cette méthode est asymptotiquement valide lorsqu'elle est utilisée pour estimer la distribution de l'estimateur split-jackknife bien qu'incapable d'estimer la distribution de l'EMV. Des simulations Monte Carlo montrent que les intervalles de confiance bootstrap basés sur l'estimateur split-jackknife aident grandement à réduire les distorsions liées à l'approximation normale en échantillons finis. En outre, j'applique cette méthode bootstrap à un modèle de participation des femmes au marché du travail pour construire des intervalles de confiance valides. Dans le dernier chapitre #co-écrit avec Wenjie Wang#, nous étudions la validité asymptotique des procédures bootstrap pour les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peu être faible. Nous montrons analytiquement qu'un bootstrap standard basé sur les résidus et le bootstrap restreint et efficace #RE# de Davidson et MacKinnon #2008, 2010, 2014# ne peuvent pas estimer la distribution limite de l'estimateur du maximum de vraisemblance à information limitée #EMVIL#. La raison principale est qu'ils ne parviennent pas à bien imiter le paramètre qui caractérise l'intensité de l'identification dans l'échantillon. Par conséquent, nous proposons une méthode bootstrap modifiée qui estime de facon convergente cette distribution limite. Nos simulations montrent que la méthode bootstrap modifiée réduit considérablement les distorsions des tests asymptotiques de type Wald #$t$# dans les échantillons finis, en particulier lorsque le degré d'endogénéité est élevé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Plusieurs études ont permis la caractérisation de la structure et de la fonction du ribosome. En ce qui attrait à la biogénèse du ribosome, nombreux aspects restent à être découverts et compris de façon plus dynamique. En effet, cette biogénèse englobe une variété de voies de modifications et d’assemblages requises pour la maturation des ARNr et pour leurs liaisons avec les protéines ribosomales. De ce fait, les protéines Noc ont été caractérisées comme des facteurs d’assemblages et ont permis la découverte d’une des premières indications sur l’ordre spatio-temporel de la maturation du ribosome. Ainsi, en utilisant la levure comme modèle, notre objectif est d’étudier d’avantage l’échange des complexes composés des protéines Noc ainsi que leur localisation intranucléaire. Ainsi, la nature des interactions de Noc2p avec Noc1p et Noc3p et l’influence de l’arrêt du transport intranucléaire ont été étudiés en utilisant des promoteurs inductibles, la microscopie à fluorescence, des immunobuvardages, qRT-PCR et des purifications par affinité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une sonde électrostatique de Langmuir cylindrique a été utilisée pour caractériser une post-décharge d’un plasma d’ondes de surface de N2-O2 par la mesure de la densité des ions et électrons ainsi que la température des électrons dérivée de la fonction de distribution en énergie des électrons (EEDF). Une densité maximale des électrons au centre de la early afterglow de l’ordre de 1013 m-3 a été déterminée, alors que celle-ci a chuté à 1011 m-3 au début de la late afterglow. Tout au long du profil de la post-décharge, une densité des ions supérieure à celle des électrons indique la présence d’un milieu non macroscopiquement neutre. La post-décharge est caractérisée par une EEDF quasi maxwellienne avec une température des électrons de 0.5±0.1 eV, alors qu’elle grimpe à 1.1 ±0.2 eV dans la early afterglow due à la contribution des collisions vibrationnelles-électroniques (V-E) particulièrement importantes. L’ajout d’O2 dans la décharge principale entraîne un rehaussement des espèces chargées et de la température des électrons suivi d’une chute avec l’augmentation de la concentration d’O2. Le changement de la composition électrique de la post-décharge par la création de NO+ au détriment des ions N2+ est à l’origine du phénomène. Le recours à cette post-décharge de N2 pour la modification des propriétés d’émission optique de nanofils purs de GaN et avec des inclusions d’InGaN a été étudié par photoluminescence (PL). Bien que l’émission provenant des nanofils de GaN et de la matrice de GaN recouvrant les inclusions diminue suite à la création de sites de recombinaison non radiatifs, celle provenant des inclusions d’InGaN augmente fortement. Des mesures de PL par excitation indiquent que cet effet n’est pas attribuable à un changement de l’absorption de la surface de GaN. Ceci suggère un recuit dynamique induit par la désexcitation des métastables de N2 suite à leur collision à la surface des nanofils et la possibilité de passiver les défauts de surface tels que des lacunes d’azote par l’action d’atomes de N2 réactifs provenant de la post-décharge. L’incorporation d’O2 induit les mêmes effets en plus d’un décalage vers le rouge de la bande d’émission des inclusions, suggérant l’action des espèces d’O2 au sein même des nanostructures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente recherche traite des conflits d’aménagement pouvant être décelés dans les cuisines domiciliaires modernes. L’ajout d’objets mécanisés au rituel alimentaire quotidien a su changer la dynamique du lieu. En effet, l’architecture des cuisines modernes en Occident présente de grandes contradictions. Basées sur des standards architecturaux, les cuisines modulaires ne reflètent pas la variété et l’unicité des aliments auxquels les cuisines sont dédiées. Les cuisines devraient être le miroir de la vivacité naturelle des aliments et des échanges humains que la nourriture génère à travers le plaisir et le partage. Dans l’espoir de proposer des outils afin de rééquilibrer la dynamique de cette pièce, un cadre théorique basé sur les théories architecturales de l’architecte et mathématicien anglais Christopher Alexander a été établi. Supportant la présente recherche, ces théories architecturales s’inspirent de la structure et de la composition des choses de la nature et des monuments anciens afin d’établir des balises d’aménagement simples et équilibrées (qualité de vie, patterns, configuration des événements, configurations de l’espace, ...). Ces théories ont aidé à concevoir une formule d’ateliers participatifs qui visent à outiller les occupants, qui sont très souvent des non-professionnels du domaine de l’architecture et du design. Ces ateliers proposent un cheminement bien encadré qui permet aux participants de retravailler leur espace de cuisine respectif selon leurs goûts et leurs besoins. En fournissant un plan de l’étage où se situe la cuisine, quelques crayons, règles et autres matériel de dessin, les participants ont pour tâche de réaménager leur cuisine en un espace de cuisine idéal. La deuxième étape, qui elle se réalise en équipe avec tous les occupants participants de la demeure, consiste à réduire l’ampleur des changements afin d’arriver à un résultat réaliste. L’enthousiasme noté tout au long de ce processus a ainsi permis de confirmer que les non-professionnels du domaine de l’architecture et du design peuvent développer un intérêt marqué pour l’amélioration de leurs interactions quotidiennes, avec l’espace et entre les occupants, lorsque bien accompagnés dans cette tâche. Grâce aux propos et aux plans recueillis durant les séances d’ateliers participatifs ainsi qu’à l’analyse de ces données, une série d’interprétations ont émergé. Les données ont notamment démontrées l’influence positive de l’utilisation des patterns d’Alexander. L’analyse permet, en outre, de noter les tendances d’aménagement ayant émergé de l’utilisation des patterns dans les espaces de cuisine : définitivement, les cuisines se sont transformées en espace de vie partagé et polyvalent. Finalement, la présente recherche se conclut grâce à une série de recommandations qui traitent de la structure des cuisines, des ateliers participatifs et des patterns. Tout d’abord, l’impact de ces notions sur les espaces retravaillés par les participants est impressionnant. Les espaces sont bien organisés, vastes et, surtout, reflètent les occupants qui y vivent au quotidien. De plus, ayant démontré la facilité d’utilisation et la polyvalence des patterns, il a été jugé que certains aspects devraient être améliorés tels que l’actualisation de certains patterns, le prolongement du processus d’ateliers, le perfectionnement de la méthode et la diffusion des résultats.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les décisions de localisation sont souvent soumises à des aspects dynamiques comme des changements dans la demande des clients. Pour y répondre, la solution consiste à considérer une flexibilité accrue concernant l’emplacement et la capacité des installations. Même lorsque la demande est prévisible, trouver le planning optimal pour le déploiement et l'ajustement dynamique des capacités reste un défi. Dans cette thèse, nous nous concentrons sur des problèmes de localisation avec périodes multiples, et permettant l'ajustement dynamique des capacités, en particulier ceux avec des structures de coûts complexes. Nous étudions ces problèmes sous différents points de vue de recherche opérationnelle, en présentant et en comparant plusieurs modèles de programmation linéaire en nombres entiers (PLNE), l'évaluation de leur utilisation dans la pratique et en développant des algorithmes de résolution efficaces. Cette thèse est divisée en quatre parties. Tout d’abord, nous présentons le contexte industriel à l’origine de nos travaux: une compagnie forestière qui a besoin de localiser des campements pour accueillir les travailleurs forestiers. Nous présentons un modèle PLNE permettant la construction de nouveaux campements, l’extension, le déplacement et la fermeture temporaire partielle des campements existants. Ce modèle utilise des contraintes de capacité particulières, ainsi qu’une structure de coût à économie d’échelle sur plusieurs niveaux. L'utilité du modèle est évaluée par deux études de cas. La deuxième partie introduit le problème dynamique de localisation avec des capacités modulaires généralisées. Le modèle généralise plusieurs problèmes dynamiques de localisation et fournit de meilleures bornes de la relaxation linéaire que leurs formulations spécialisées. Le modèle peut résoudre des problèmes de localisation où les coûts pour les changements de capacité sont définis pour toutes les paires de niveaux de capacité, comme c'est le cas dans le problème industriel mentionnée ci-dessus. Il est appliqué à trois cas particuliers: l'expansion et la réduction des capacités, la fermeture temporaire des installations, et la combinaison des deux. Nous démontrons des relations de dominance entre notre formulation et les modèles existants pour les cas particuliers. Des expériences de calcul sur un grand nombre d’instances générées aléatoirement jusqu’à 100 installations et 1000 clients, montrent que notre modèle peut obtenir des solutions optimales plus rapidement que les formulations spécialisées existantes. Compte tenu de la complexité des modèles précédents pour les grandes instances, la troisième partie de la thèse propose des heuristiques lagrangiennes. Basées sur les méthodes du sous-gradient et des faisceaux, elles trouvent des solutions de bonne qualité même pour les instances de grande taille comportant jusqu’à 250 installations et 1000 clients. Nous améliorons ensuite la qualité de la solution obtenue en résolvent un modèle PLNE restreint qui tire parti des informations recueillies lors de la résolution du dual lagrangien. Les résultats des calculs montrent que les heuristiques donnent rapidement des solutions de bonne qualité, même pour les instances où les solveurs génériques ne trouvent pas de solutions réalisables. Finalement, nous adaptons les heuristiques précédentes pour résoudre le problème industriel. Deux relaxations différentes sont proposées et comparées. Des extensions des concepts précédents sont présentées afin d'assurer une résolution fiable en un temps raisonnable.