90 resultados para Golfe de Chaînes


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’oxydoréduction de monocouches auto-assemblées (SAMs) de ferrocénylalcanethiolates à la surface d’or (FcRSAu) a été étudiée en temps réel par la spectroscopie de résonance de plasmons de surface couplée avec l’électrochimie (E-SPR). La sensibilité de cette technique permet de déterminer des changements d’épaisseur de couche l’ordre de quelques angström résultant d’un changement de structure de la SAM. Plusieurs études antérieures ont proposé que l’oxydation électrochimique d’une SAM de FcRSAu induit une réorientation moléculaire. L’E-SPR est utilisé pour identifier l’origine de ce changement structurel. D’abord, une calibration du réfractomètre SPR utilisé a été effectuée afin de trouver une équation de conversion du signal SPR obtenu en pixel en angle d’incidence pour que l’on puisse calculer le changement d’épaisseur de monocouche à partir du changement d’angle de résonance avec le modèle de Fresnel. Par la suite, une caractérisation approfondie des SAMs de FcCnSAu (où n = 6, 8, 12, 14) en contact avec du NaClO4 acidifié a été réalisée par électrochimie, éllipsométrie, spectroscopie infrarouge et microscopie à force atomique. Les résultats obtenus montrent que l’augmentation de la longueur des chaînes alkyles donne des SAMs de ferrocènes plus épaisses et moins désordonnées. L’analyse par l’E-SPR de ces SAMs pures montre que le changement d’épaisseur induit par l’électro-oxydation dépend linéairement du nombre de méthylènes sur la chaîne alkyle. En appliquant la déconvolution mathématique aux voltampérogrammes cycliques enregistrés pour les SAM mixtes (FcC12SAu/C11SAu) de différentes compositions, on arrive à la conclusion qu’il y a un redressement des chaînes alkyles dans les domaines des ferrocènes agrégés mais la réorientation des têtes de ferrocène dans les domaines de ferrocènes agrégés ou dispersés ne peut pas être exclue. Enfin, l’effet de l’anion électrolytique sur le changement d’épaisseur de la SAM mesuré par l’E-SPR a été étudié. L’analyse électrochimique montre que la capacité de pairage d’anions avec les ferrocéniums décroit comme suit : PF6- > ClO4- > BF4- > NO3-. Tandis que l’épaisseur de la SAM donnée par le changement d’angle de résonance suit la tendance suivante : NO3- ≥ ClO4- > PF6- ≈ BF4-. Des études plus approfondies seront nécessaire pour clarifier cette tendance observée par E-SPR.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les azapeptides sont des mimes peptidiques où le carbone alpha d’un ou de plusieurs acides aminés est remplacé par un atome d’azote. Cette modification tend à stabiliser une conformation en repliement beta en raison de la répulsion électronique entre les paires d’électrons libres des atomes d’azote adjacents et de la géométrie plane de l’urée. De plus, le résidu semicarbazide a une meilleure résistance face aux protéases en plus d’être chimiquement plus stable qu’une liaison amide. Bien que les propriétés des azapeptides en fassent des mimes peptidiques intéressants, leurs méthodes de synthèses font appel à la synthèse laborieuse d’hydrazines substituées en solution. Le peptide sécréteur d’hormone de croissance 6 (GHRP-6, His-D-Trp-Ala-Trp-D-Phe-Lys-NH2) est un hexapeptide synthétique qui possède une affinité pour deux récepteurs distincts: les récepteurs GHS-R1a et CD36. Les travaux effectués au cours de mon doctorat qui seront détaillés dans cet ouvrage visent à atteindre deux objectifs: (1) le développement d’analogues du peptide GHRP-6 sélectif à un seul récepteur et (2) la mise au point d’une nouvelle méthodologie pour la synthèse combinatoire d’azapeptides. En réponse au premier objectif, la synthèse parallèle de 49 analogues aza-GHRP-6 a été effectuée et certains candidats sélectifs au récepteur CD36 ont été identifiés. L’étude de leurs propriétés anti-angiogéniques, effectuée par nos collaborateurs, a également permis d’identifier des candidats intéressants pour le traitement potentiel de la dégénérescence maculaire liée à l’âge. Une nouvelle approche pour la synthèse combinatoire d’azapeptides, faisant appel à l’alkylation et la déprotection chimiosélective d’une sous-unité semicarbazone ancrée sur support solide, a ensuite été développée. La portée de cette méthodologie a été augmentée par la découverte de conditions permettant l’arylation régiosélective de cette sous-unité semicarbazone, donnant accès à treize nouveaux dérivés aza-GHRP-6 possédant des résidus aza-arylglycines aux positions D-Trp2 et Trp4. L’élaboration de conditions propices à l’alkylation et la déprotection chimiosélective de la semicarbazone a donné accès à une variété de chaînes latérales sur l’acide aminé « aza » préalablement inaccessibles. Nous avons, entre autres, démontré qu’une chaîne latérale propargyl pouvait être incorporée sur l’acide aminé « aza ». Tenant compte de la réactivité des alcynes, nous avons ensuite élaboré des conditions réactionnelles permettant la formation in situ d’azotures aromatiques, suivie d’une réaction de cycloaddition 1,3-dipolaire sur support solide, dans le but d’obtenir des mimes de tryptophane. Sept analogues du GHRP-6 ont été synthétisés et testés pour affinité au récepteur CD36 par nos collaborateurs. De plus, nous avons effectué une réaction de couplage en solution entre un dipeptide possédant un résidu aza-propargylglycine, du paraformaldehyde et une variété d’amines secondaires (couplage A3) afin d’accéder à des mimes rigides d’aza-lysine. Ces sous-unités ont ensuite été incorporées sur support solide afin de générer sept nouveaux azapeptides avec des dérivés aza-lysine à la position Trp4 du GHRP-6. Enfin, une réaction de cyclisation 5-exo-dig a été développée pour la synthèse de N-amino imidazolin-2-ones en tant que nouveaux mimes peptidiques. Leur fonctionnalisation par une série de groupements benzyliques à la position 4 de l’hétérocycle a été rendue possible grâce à un couplage Sonogashira précédant la réaction de cyclisation. Les propriétés conformationnelles de cette nouvelle famille de composés ont été étudiées par cristallographie aux rayons X et spectroscopie RMN d’un tétrapeptide modèle. L’activité biologique de deux mimes peptidiques, possédant un résidu N-amino-4-méthyl- et 4-benzyl-imidazolin-2-one à la position Trp4 du GHRP-6, a aussi été examinée. L’ensemble de ces travaux devrait contribuer à l’avancement des connaissances au niveau des facteurs structurels et conformationnels requis pour le développement d’azapeptides en tant que ligands du récepteur CD36. De plus, les résultats obtenus devraient encourager davantage l’utilisation d’azapeptides comme peptidomimétiques grâce à leur nouvelle facilité de synthèse et la diversité grandissante au niveau de la chaîne latérale des acides aminés « aza ».

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’extraction aurifère est l’une des activités humaines qui a fortement accru l’émission de contaminants métalliques dans l’environnement. Le mercure (Hg), l’arsenic (As) et le sélénium (Se) sont 3 polluants métalliques de grande toxicité environnementale. En milieu aquatique, ils peuvent subir des transformations menant à des composés capables de bioaccumulation et de bioamplification. Il peut en résulter des concentrations 106 fois celle mesurée dans l’eau chez les poissons et les organismes situés en haut des chaînes alimentaires posant de ce fait de graves menaces pour la santé de ces organismes ainsi que leurs consommateurs y compris les humains. Cette étude a évalué les teneurs en Hg, As et Se dans les milieux aquatiques au Burkina Faso, une région d’Afrique sub-saharienne soumise à une exploitation minière intensive. Le risque potentiel pour les organismes aquatiques et les humains a été évalué en considérant les effets des interactions antagonistes Se/Hg et As/Se. La bioaccumulation et le transfert du Hg et du Se dans les réseaux trophiques sont également décrits. L’exposition au Hg de poissons par les humains a été également évalué au laboratoire par mesure de la bioaccessibilité comme équivalent de la biodisponibilité par simulation de la digestion humaine. En général, les milieux aquatiques étudiés étaient peu affectés par ces 3 métal(loïd)s bien que certaines espèces de poisson issus des réservoirs les plus profonds indiquent des teneurs de Hg au dessus de 500 ngHg/g (poids frais) recommandé par l’OMS. Ces niveaux sont susceptibles de présenter des risques toxicologiques pour les poissons et pour leurs consommateurs. En considérant l’antagonisme Se/Hg, 99 % des échantillons de poisson seraient moins exposés à la toxicité du Hg dû à la présence simultanée du sélénium dans le milieu et pourraient être consommés sans risque. Cependant, les effets potentiels de l’antagonisme As/Se pourraient réduire les effets bénéfiques du Se et ramener cette proportion à 83 %. L’application des mesures de signatures en isotopes stables d’azote (δ15N) et de carbone (δ13C) des organismes aquatiques a permis le traçage des voies de transfert du Hg et du Se dans les réseaux trophiques. On y observe des chaînes trophiques très courtes (3 - 4 niveaux trophiques) et des poissons majoritairement benthiques. L’approche isotopique n’a cependant pas permis de détecter les variations saisonnières des niveaux de contamination en Hg des poissons. L’exploration des contenus stomacaux des poissons a permis de mieux expliquer la baisse des concentrations en Hg et Se observées chez certains poissons au cours de la saison sèche en lien avec la variation de la composition des proies que l’analyse isotopique n’a pas cerné. L’étude suggère que l’analyse de contenus stomacaux ainsi que l’étude de la dynamique des communautés d’invertébrés couplées à celle des métaux pourraient améliorer la compréhension du fonctionnement des écosystèmes étudiés. Enfin, l’évaluation expérimentale de l’exposition au Hg indique que les modes de traitement avant consommation ainsi que l’usage de composés alimentaires tels le thé, le café lors de repas de poisson par certaines communautés humaines ont un impact sur la bioaccessibilité du Hg de poisson. Ces résultats, sous réserve de validation par des modèles animaux, suggèrent la prise en compte des habitudes alimentaires des communautés dans l’élaboration adéquat des avis de consommation de poisson.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce mémoire, nous proposons une méthodologie statistique permettant d’obtenir un estimateur de l’espérance de vie des clients en assurance. Les prédictions effectuées tiennent compte des caractéristiques individuelles des clients, notamment du fait qu’ils peuvent détenir différents types de produits d’assurance (automobile, résidentielle ou les deux). Trois approches sont comparées. La première approche est le modèle de Markov simple, qui suppose à la fois l’homogénéité et la stationnarité des probabilités de transition. L’autre modèle – qui a été implémenté par deux approches, soit une approche directe et une approche par simulations – tient compte de l’hétérogénéité des probabilités de transition, ce qui permet d’effectuer des prédictions qui évoluent avec les caractéristiques des individus dans le temps. Les probabilités de transition de ce modèle sont estimées par des régressions logistiques multinomiales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans cette thèse, nous présentons une nouvelle méthode smoothed particle hydrodynamics (SPH) pour la résolution des équations de Navier-Stokes incompressibles, même en présence des forces singulières. Les termes de sources singulières sont traités d'une manière similaire à celle que l'on retrouve dans la méthode Immersed Boundary (IB) de Peskin (2002) ou de la méthode régularisée de Stokeslets (Cortez, 2001). Dans notre schéma numérique, nous mettons en oeuvre une méthode de projection sans pression de second ordre inspirée de Kim et Moin (1985). Ce schéma évite complètement les difficultés qui peuvent être rencontrées avec la prescription des conditions aux frontières de Neumann sur la pression. Nous présentons deux variantes de cette approche: l'une, Lagrangienne, qui est communément utilisée et l'autre, Eulerienne, car nous considérons simplement que les particules SPH sont des points de quadrature où les propriétés du fluide sont calculées, donc, ces points peuvent être laissés fixes dans le temps. Notre méthode SPH est d'abord testée à la résolution du problème de Poiseuille bidimensionnel entre deux plaques infinies et nous effectuons une analyse détaillée de l'erreur des calculs. Pour ce problème, les résultats sont similaires autant lorsque les particules SPH sont libres de se déplacer que lorsqu'elles sont fixes. Nous traitons, par ailleurs, du problème de la dynamique d'une membrane immergée dans un fluide visqueux et incompressible avec notre méthode SPH. La membrane est représentée par une spline cubique le long de laquelle la tension présente dans la membrane est calculée et transmise au fluide environnant. Les équations de Navier-Stokes, avec une force singulière issue de la membrane sont ensuite résolues pour déterminer la vitesse du fluide dans lequel est immergée la membrane. La vitesse du fluide, ainsi obtenue, est interpolée sur l'interface, afin de déterminer son déplacement. Nous discutons des avantages à maintenir les particules SPH fixes au lieu de les laisser libres de se déplacer. Nous appliquons ensuite notre méthode SPH à la simulation des écoulements confinés des solutions de polymères non dilués avec une interaction hydrodynamique et des forces d'exclusion de volume. Le point de départ de l'algorithme est le système couplé des équations de Langevin pour les polymères et le solvant (CLEPS) (voir par exemple Oono et Freed (1981) et Öttinger et Rabin (1989)) décrivant, dans le cas présent, les dynamiques microscopiques d'une solution de polymère en écoulement avec une représentation bille-ressort des macromolécules. Des tests numériques de certains écoulements dans des canaux bidimensionnels révèlent que l'utilisation de la méthode de projection d'ordre deux couplée à des points de quadrature SPH fixes conduit à un ordre de convergence de la vitesse qui est de deux et à une convergence d'ordre sensiblement égale à deux pour la pression, pourvu que la solution soit suffisamment lisse. Dans le cas des calculs à grandes échelles pour les altères et pour les chaînes de bille-ressort, un choix approprié du nombre de particules SPH en fonction du nombre des billes N permet, en l'absence des forces d'exclusion de volume, de montrer que le coût de notre algorithme est d'ordre O(N). Enfin, nous amorçons des calculs tridimensionnels avec notre modèle SPH. Dans cette optique, nous résolvons le problème de l'écoulement de Poiseuille tridimensionnel entre deux plaques parallèles infinies et le problème de l'écoulement de Poiseuille dans une conduite rectangulaire infiniment longue. De plus, nous simulons en dimension trois des écoulements confinés entre deux plaques infinies des solutions de polymères non diluées avec une interaction hydrodynamique et des forces d'exclusion de volume.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La plupart des conditions détectées par le dépistage néonatal sont reliées à l'une des enzymes qui dégradent les acyls-CoA mitochondriaux. Le rôle physiopathologique des acyls-CoA dans ces maladies est peu connue, en partie parce que les esters liés au CoA sont intracellulaires et les échantillons tissulaires de patients humains ne sont généralement pas disponibles. Nous avons créé une modèle animal murin de l'une de ces maladies, la déficience en 3-hydroxy-3-methylglutaryl-CoA lyase (HL), dans le foie (souris HLLKO). HL est la dernière enzyme de la cétogenèse et de la dégradation de la leucine. Une déficience chronique en HL et les crises métaboliques aigües, produisent chacune un portrait anormal et distinct d'acyls-CoA hépatiques. Ces profils ne sont pas prévisibles à partir des niveaux d'acides organiques urinaires et d'acylcarnitines plasmatiques. La cétogenèse est indétectable dans les hépatocytes HLLKO. Dans les mitochondries HLLKO isolées, le dégagement de 14CO2 à partir du [2-14C]pyruvate a diminué en présence de 2-ketoisocaproate (KIC), un métabolite de la leucine. Au test de tolérance au pyruvate, une mesure de la gluconéogenèse, les souris HLLKO ne présentent pas la réponse hyperglycémique normale. L'hyperammoniémie et l'hypoglycémie, des signes classiques de plusieurs erreurs innées du métabolisme (EIM) des acyls-CoA, surviennent de façon spontanée chez des souris HLLKO et sont inductibles par l'administration de KIC. Une charge en KIC augmente le niveau d'acyls-CoA reliés à la leucine et diminue le niveau d'acétyl-CoA. Les mitochondries des hépatocytes des souris HLLKO traitées avec KIC présentent un gonflement marqué. L'hyperammoniémie des souris HLLKO répond au traitement par l'acide N-carbamyl-L-glutamique. Ce composé permet de contourner une enzyme acétyl-CoA-dépendante essentielle pour l’uréogenèse, le N-acétylglutamate synthase. Ceci démontre un mécanisme d’hyperammoniémie lié aux acyls-CoA. Dans une deuxième EIM des acyls-CoA, la souris SCADD, déficiente en déshydrogénase des acyls-CoA à chaînes courtes. Le profil des acyls-CoA hépatiques montre un niveau élevé du butyryl-CoA particulièrement après un jeûne et après une charge en triglycérides à chaîne moyenne précurseurs du butyryl-CoA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le cadre d’une sociologie des organisations portant sur les liens entre organisations télévisuelles et environnement, la présente thèse a pour objectif de cerner les modalités du développement récent de la télévision au Québec en le comparant à celui de la Belgique francophone et de la Suisse. Une telle comparaison repose sur un principe méthodologique simple: on cerne d’autant mieux la réalité que l’on étudie si on peut la comparer à une réalité équivalente d’autres sociétés. En s’appuyant sur des théories de développement organisationnel reliées au courant néo-fonctionnaliste et en adaptant des « histoires de cas » d’études organisationnelles à la réalité télévisuelle des années 90 et 2000, le chercheur a mis au point une grille de classification des données permettant d’étudier les composantes du développement de la télévision dans trois « petites » sociétés industrialisées. Dans un premier temps, il a pu constater une augmentation très importante du nombre de chaînes de télévision par rapport à ce qu’il était dans les années 50 à 70, le tout encadré par les autorités réglementaires en place. Par la suite, dans chacune de ces trois sociétés et sur une période de vingt-cinq ans, il a pu préciser les interactions et échanges entre organisations télévisuelles et environnement lesquels ont été, selon les cas, harmonieux, difficiles, voire même conflictuels. Après avoir comparé les modalités d’une telle augmentation entre les trois sociétés, le chercheur a pu constater une convergence de surface. On note bien quelques similitudes entre les trois sociétés, mais, surtout, chacune d’entre elles est restée sur son quant-à-soi. En Suisse, l’importance accordée au consensus social a favorisé un développement équilibré de l’augmentation des chaines. En Belgique, pays aux divisions profondes constamment réaffirmées, les oppositions ont permis, malgré tout, l’édification d’un ensemble audiovisuel relativement stable. Au Québec, avec une augmentation exponentielle du nombre de chaines, on a assisté à un véritable surdéveloppement de la télévision encouragé et planifié par les autorités gouvernementales canadiennes en réaction à un supposé envahissement culturel américain. Le CRTC, la régie des ondes canadiennes, a pesé de tout son poids pour favoriser l’augmentation du contenu canadien et de la production locale. Par ailleurs, cette augmentation s’est faite avec des ressources limitées. On en fait trop avec trop peu. C’est ce qui permettrait d’expliquer la baisse de qualité de la télévision québécoise contemporaine. Comme élément de solution aux problèmes que la télévision québécoise connait présentement, il faudrait considérer cette dernière pour ce qu’elle est véritablement: une petite télévision dans un univers industriellement hautement développé. Si une telle conception est très bien acceptée aussi bien en Belgique qu’en Suisse, elle ne l’est pas au Québec

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse doctorale effectuée en cotutelle au département d'histoire de l'Université de Montréal et à l'École doctorale d'archéologie de l'Université Paris 1 Panthéon-Sorbonne - UMR 7041, Archéologies et Sciences de l'Antiquité - Archéologie du monde grec.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La phosphorylation des protéines constitue l’une des plus importantes modifications post-traductionnelles (PTMs) et intervient dans de multiples processus physiologiques tels, la croissance, la différenciation cellulaire, l’apoptose, etc. En dépit de son importance, l’analyse des phosphoprotéines demeure une tâche difficile en raison de leur nature dynamique (car la phosphorylation des protéines est un processus réversible) et de leur faible abondance relative. En effet, la détermination des sites de phosphorylation est souvent difficile car les phosphopeptides sont souvent difficiles à détecter par des méthodes d’analyse chromatographique classique et par spectrométrie de masse (MS). De récentes études ont démontré que les nombreuses méthodes d’enrichissement de phosphopeptides existantes ne sont pas complètes, et que le nombre total de phosphopeptides détectés ne chevauchent pas complètement ces méthodes. C’est pour cela qu’il existe une nécessité de combler les lacunes des méthodes d’enrichissement existantes afin d’avoir des analyses phosphoprotéomiques plus complètes. Dans cette étude, nous avons utilisé les liquides ioniques (LI), plus particulièrement les sels d’imidazolium, comme une technique d’enrichissement alternative, dans le but de favoriser une extraction sélective de phosphopeptides présents en solution. Les sels d’imidazolium ont donc été utilisés en raison de leurs propriétés physico-chimiques "facilement" ajustables selon la nature des substituants sur le noyau imidazolium et la nature de l’anion. Les sels de monoimidazolium et de bis-imidazolium possédant respectivement des chaînes linéaires à 4, 12 et 16 atomes de carbone et ayant différents anions ont été synthétisés et utilisés pour effectuer des extractions liquide-liquide et solide-liquide des phosphopeptides en solution. Dans un premier temps, des extractions liquide-liquide ont été réalisées en utilisant un liquide ionique (LI) ayant une chaine linéaire de 4 atomes de carbone. Ces extractions réalisées avec le bis(trifluoromethanesulfonyl) amide de 3-butyl-1-methylimidazolium (BMIM-NTf2) et l’hexafluorophosphate de 3-butyl-1-methylimidazolium (BMIM-PF6) n’ont pas montré une extraction notable du PPS comparativement au PN. Dans un deuxième temps, des extractions solide-liquide ont été réalisées en fonctionnalisant des particules solides avec des sels d’imidazolium possédant des chaines linéaires de 12 ou 16 atomes de carbone. Ces extractions ont été faites en utilisant un phosphopentapeptide Ac-Ile-pTyr-Gly-Glu-Phe-NH2 (PPS) en présence de 2 analogues acides non-phosphorylés. Il a été démontré que les sels d’imidazolium à chaine C12 étaient meilleurs pour extraire le PPS que les deux autres peptides PN (Ac-Ile-Tyr-Gly-Glu-Phe-NH2) et PE (Ac-Glu-Tyr-Gly-Glu-Phe-NH2) L’électrophorèse capillaire (CE) et la chromatographie liquide à haute performance couplée à la spectrométrie de masse (LC-MS) ont été utilisées pour quantifier le mélange des trois peptides avant et après extraction ; dans le but de mesurer la sélectivité et l’efficacité d’extraction de ces peptides par rapport à la composition chimique du liquide ionique utilisé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse contribue à l'état actuel des connaissances sur la compatibilité des nouveaux bâtiments avec les environnements urbains historiques. Elle suit un mode de présentation classique: Introduction, Revue de Littérature, Méthodologie, Résultats, Discussion et Conclusion. Le problème étudié est le manque d'orientation pour intégrer les processus de développement et de sauvegarde dans les contextes établis. La littérature récente révèle que les règles de préservation, aussi appelées normes et lignes directrices, ne peuvent pas garantir une relation compatible entre une intervention et son milieu. La pensée contemporaine dans le domaine de la conservation et de la gestion du patrimoine invite donc l’exploration d'autres moyens pour lier la nouvelle architecture à l'ancienne. Ainsi, le présent projet de recherche explore une approche alternative aux règles de préservation en vue d’atteindre le but de nouveaux bâtiments compatibles et d’améliorer la prise de décision fondée sur les valeurs. Pour produire des résultats spécifiques et convaincants, un cas a été sélectionné. Celui-ci est une ville dans la région du Golfe Arabe : la Ville de Koweït. Le résultat principal est le développement d’une approche, mise en œuvre en posant des questions approfondies sur le lieu, la conception et la construction des nouveaux bâtiments. Les questions suggérées dans la thèse mettent l’accent sur les valeurs patrimoniales et les choix de conception afin de permettre un changement réfléchi au sein des environnements urbains historiques. Elles aident aussi à évaluer les nouvelles propositions de projets au cas par cas. Pour démontrer comment cette approche pourrait être présentée et utilisée par les requérants et les évaluateurs, un modèle théorique est proposé. Ce modèle a ensuite été discuté avec des professionnels locaux et internationaux qui ont identifié ses forces et ses limites. En conclusion, l’ensemble des résultats montre que la mise à disposition de règles et / ou de questions approfondies n’est pas une solution satisfaisante puisqu’il y a d'autres enjeux importants qui devraient être abordés: comment appliquer l'orientation efficacement une fois qu’elle a été créée, comment développer la compétence liée à la prise de décision fondée sur les valeurs et comment insérer la conservation du patrimoine dans la mentalité du gouvernement local et des communautés. Lorsque ces enjeux seront traités, le patrimoine pourra devenir partie intégrante du processus de planification, ce qui est le but ultime. Enfin, cinq axes de recherche sont recommandés pour poursuivre l’exploration des idées introduites dans cette étude.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Site web associé au mémoire: http://daou.st/JSreal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les polymères semi-conducteurs semicristallins sont utilisés au sein de diodes électroluminescentes, transistors ou dispositifs photovoltaïques organiques. Ces matériaux peuvent être traités à partir de solutions ou directement à partir de leur état solide et forment des agrégats moléculaires dont la morphologie dicte en grande partie leurs propriétés optoélectroniques. Le poly(3-hexylthiophène) est un des polymères semi-conducteurs les plus étudiés. Lorsque le poids moléculaire (Mw) des chaînes est inférieur à 50 kg/mol, la microstructure est polycristalline et composée de chaînes formant des empilements-π. Lorsque Mw>50 kg/mol, la morphologie est semicristalline et composée de domaines cristallins imbriquées dans une matrice de chaînes amorphes. À partir de techniques de spectroscopie en continu et ultrarapide et appuyé de modèles théoriques, nous démontrons que la cohérence spatiale des excitons dans ce matériau est légèrement anisotrope et dépend de Mw. Ceci nous permet d’approfondir la compréhension de la relation intime entre le couplage inter et intramoléculaire sur la forme spectrale en absorption et photoluminescence. De plus, nous démontrons que les excitations photogénérées directement aux interfaces entre les domaines cristallins et les régions amorphes génèrent des paires de polarons liés qui se recombinent par effet tunnel sur des échelles de temps supérieures à 10ns. Le taux de photoluminescence à long temps de vie provenant de ces paires de charges dépend aussi de Mw et varie entre ∼10% et ∼40% pour les faibles et hauts poids moléculaires respectivement. Nous fournissons un modèle permettant d’expliquer le processus de photogénération des paires de polarons et nous élucidons le rôle de la microstructure sur la dynamique de séparation et recombinaison de ces espèces.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il a été démontré que les mots sont plus faciles à reconnaître lorsque leur moitié inférieure est effacée, laissant leur moitié supérieure intacte, que lorsque leur moitié supérieure est effacée. Si la reconnaissance de lettres sous-tend la reconnaissance de mots tel qu'il est généralement pris pour acquis, alors un tel effet devrait aussi être présent au niveau des lettres, mais ce n'est pas le cas. Le but de ce mémoire a d'abord été d'investiguer cette différence entre lettres et mots et, ensuite, de démontrer que la préférence pour le haut des mots ne peut pas s'expliquer par les lettres. Finalement, nous nous questionnons sur l'existence d'un construit intermédiaire entre lettres et mots et proposons les chaînes lexicales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les méthodes de Monte Carlo par chaînes de Markov (MCCM) sont des méthodes servant à échantillonner à partir de distributions de probabilité. Ces techniques se basent sur le parcours de chaînes de Markov ayant pour lois stationnaires les distributions à échantillonner. Étant donné leur facilité d’application, elles constituent une des approches les plus utilisées dans la communauté statistique, et tout particulièrement en analyse bayésienne. Ce sont des outils très populaires pour l’échantillonnage de lois de probabilité complexes et/ou en grandes dimensions. Depuis l’apparition de la première méthode MCCM en 1953 (la méthode de Metropolis, voir [10]), l’intérêt pour ces méthodes, ainsi que l’éventail d’algorithmes disponibles ne cessent de s’accroître d’une année à l’autre. Bien que l’algorithme Metropolis-Hastings (voir [8]) puisse être considéré comme l’un des algorithmes de Monte Carlo par chaînes de Markov les plus généraux, il est aussi l’un des plus simples à comprendre et à expliquer, ce qui en fait un algorithme idéal pour débuter. Il a été sujet de développement par plusieurs chercheurs. L’algorithme Metropolis à essais multiples (MTM), introduit dans la littérature statistique par [9], est considéré comme un développement intéressant dans ce domaine, mais malheureusement son implémentation est très coûteuse (en termes de temps). Récemment, un nouvel algorithme a été développé par [1]. Il s’agit de l’algorithme Metropolis à essais multiples revisité (MTM revisité), qui définit la méthode MTM standard mentionnée précédemment dans le cadre de l’algorithme Metropolis-Hastings sur un espace étendu. L’objectif de ce travail est, en premier lieu, de présenter les méthodes MCCM, et par la suite d’étudier et d’analyser les algorithmes Metropolis-Hastings ainsi que le MTM standard afin de permettre aux lecteurs une meilleure compréhension de l’implémentation de ces méthodes. Un deuxième objectif est d’étudier les perspectives ainsi que les inconvénients de l’algorithme MTM revisité afin de voir s’il répond aux attentes de la communauté statistique. Enfin, nous tentons de combattre le problème dedentarité de l’algorithme MTM revisité, ce qui donne lieu à un tout nouvel algorithme. Ce nouvel algorithme performe bien lorsque le nombre de candidats générés à chaque itérations est petit, mais sa performance se dégrade à mesure que ce nombre de candidats croît.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.