625 resultados para hypothèse linéaire uniforme


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans cette thèse, nous étudions les fonctions propres de l'opérateur de Laplace-Beltrami - ou simplement laplacien - sur une surface fermée, c'est-à-dire une variété riemannienne lisse, compacte et sans bord de dimension 2. Ces fonctions propres satisfont l'équation $\Delta_g \phi_\lambda + \lambda \phi_\lambda = 0$ et les valeurs propres forment une suite infinie. L'ensemble nodal d'une fonction propre du laplacien est celui de ses zéros et est d'intérêt depuis les expériences de plaques vibrantes de Chladni qui remontent au début du 19ème siècle et, plus récemment, dans le contexte de la mécanique quantique. La taille de cet ensemble nodal a été largement étudiée ces dernières années, notamment par Donnelly et Fefferman, Colding et Minicozzi, Hezari et Sogge, Mangoubi ainsi que Sogge et Zelditch. L'étude de la croissance de fonctions propres n'est pas en reste, avec entre autres les récents travaux de Donnelly et Fefferman, Sogge, Toth et Zelditch, pour ne nommer que ceux-là. Notre thèse s'inscrit dans la foulée du travail de Nazarov, Polterovich et Sodin et relie les propriétés de croissance des fonctions propres avec la taille de leur ensemble nodal dans l'asymptotique $\lambda \nearrow \infty$. Pour ce faire, nous considérons d'abord les exposants de croissance, qui mesurent la croissance locale de fonctions propres et qui sont obtenus à partir de la norme uniforme de celles-ci. Nous construisons ensuite la croissance locale moyenne d'une fonction propre en calculant la moyenne sur toute la surface de ces exposants de croissance, définis sur de petits disques de rayon comparable à la longueur d'onde. Nous montrons alors que la taille de l'ensemble nodal est contrôlée par le produit de cette croissance locale moyenne et de la fréquence $\sqrt{\lambda}$. Ce résultat permet une reformulation centrée sur les fonctions propres de la célèbre conjecture de Yau, qui prévoit que la mesure de l'ensemble nodal croît au rythme de la fréquence. Notre travail renforce également l'intuition répandue selon laquelle une fonction propre se comporte comme un polynôme de degré $\sqrt{\lambda}$. Nous généralisons ensuite nos résultats pour des exposants de croissance construits à partir de normes $L^q$. Nous sommes également amenés à étudier les fonctions appartenant au noyau d'opérateurs de Schrödinger avec petit potentiel dans le plan. Pour de telles fonctions, nous obtenons deux résultats qui relient croissance et taille de l'ensemble nodal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire porte sur la simulation d'intervalles de crédibilité simultanés dans un contexte bayésien. Dans un premier temps, nous nous intéresserons à des données de précipitations et des fonctions basées sur ces données : la fonction de répartition empirique et la période de retour, une fonction non linéaire de la fonction de répartition. Nous exposerons différentes méthodes déjà connues pour obtenir des intervalles de confiance simultanés sur ces fonctions à l'aide d'une base polynomiale et nous présenterons une méthode de simulation d'intervalles de crédibilité simultanés. Nous nous placerons ensuite dans un contexte bayésien en explorant différents modèles de densité a priori. Pour le modèle le plus complexe, nous aurons besoin d'utiliser la simulation Monte-Carlo pour obtenir les intervalles de crédibilité simultanés a posteriori. Finalement, nous utiliserons une base non linéaire faisant appel à la transformation angulaire et aux splines monotones pour obtenir un intervalle de crédibilité simultané valide pour la période de retour.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En 2015, la récidive tumorale et les métastases du cancer du sein demeurent une cause importante de décès à travers le monde. Toutefois, ces cancers sont souvent hétérogènes car en dépit d’un phénotype similaire, l’évolution clinique et la réponse au traitement peuvent varier considérablement. Il y a donc un intérêt évident à identifier et à caractériser de nouveaux biomarqueurs pour permettre classer les tumeurs mammaires dans des sous-groupes plus homogènes. Notre hypothèse est que chaque cancer mammaire possède des caractéristiques distinctes au plan des altérations du génome et des profils d’expression géniques et que ces changements se traduisent cliniquement par une prédisposition à former des métastases ou à répondre ou non à la chimiothérapie et aux thérapies ciblées. Dans le cadre de nos travaux, nous nous sommes intéressés aux sous-types agressifs de tumeurs mammaires et notamment les cancers de type triple négatif. Nous avons aussi tenté d’identifier des marqueurs capables de distinguer l’une de l’autre les tumeurs de type luminal A et luminal B. Pour ce faire, nous avons d’abord utilisé une stratégie in silico à partir de données publiques (micro-puces d’ADN et séquençage de l’ARN). Nous avons ensuite construit sept micro-matrices tissulaires (TMA) provenant de tissus mammaires normaux et tumoraux fixés à la formaline et enrobés en paraffine. Ces outils nous ont permis d’évaluer par immunohistochimie les niveaux d’expression différentielle des marqueurs suivants : ANXA1, MMP-9, DP103 et MCM2. Ceux-ci ont été comparés aux marqueurs usuels du cancer du sein (ER, PR, HER2, CK5/6 et FOXA1) et corrélés aux données cliniques (survie globale et métastase). Nos résultats indiquent que ces nouveaux marqueurs jouent un rôle important dans l’évolution clinique défavorable des tumeurs de haut grade. Dans un premier article nous avons montré que l’expression d’ANXA1 est dérégulée dans les cancers de type triple-négatif et aussi, dans une certaine mesure, dans les tumeurs HER2+. Nous croyons qu’ANXA1 permet de mieux comprendre le processus d’hétérogénéité tumorale et facilite l’identification des tumeurs de haut grade. Nous proposons également qu’ d’ANXA1 stimule la transition épithélio-mésenchymateuse (EMT) et la formation des métastases. Dans un second temps, nous avons montré que les niveaux d’expression de MMP-9 reflètent la différenciation cellulaire et corrèlent avec les sous-types de cancers mammaires ayant un mauvais pronostic. Nous estimons que MMP-9 permet de mieux comprendre et d’identifier les tumeurs mammaires à haut risque. De fait, la surexpression de MMP-9 est associée à une augmentation des métastases, une récidive précoce et une diminution de la survie globale. Dans le cadre d’un troisième article, nous avons montré que la surexpression du marqueur de prolifération MCM2 s’observe dans les cancers triple-négatifs, HER2+ et Luminal B par comparaison aux cancers luminal A (p< 0.0001). Nos résultats suggèrent qu’en utilisant un seuil de 40% de noyaux marqués, nous pourrions distinguer l’une de l’autre les tumeurs de type luminal A et luminal B. Cela dit, avant de pouvoir envisager l’utilisation de ce marqueur en clinique, une étude de validation sur une nouvelle cohorte de patientes s’impose. En somme, les résultats de nos travaux suggèrent qu’ANXA1, MMP-9 et MCM2 sont des marqueurs intéressants pour mieux comprendre les mécanismes physiopathologiques impliqués dans la progression tumorale et le développement des métastases. À terme, ces nouveaux marqueurs pourraient être utilisés seuls ou en combinaison avec d’autres gènes candidats pour permettre le développement de trousses « multigènes » ou d’essais protéomiques multiplex pour prédire l’évolution clinique des cancers mammaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La sclérose latérale amyothrophique (SLA) est une maladie neurodégénérative charactérisée par la perte des neurones moteurs menant à la paralysie et à la mort. Environ 20% des cas familiaux de la SLA sont causés par des mutations de la superoxyde dismutase 1 (SOD1), conduisant vers un mauvais repliement de la protéine SOD1, ce qui a comme conséquence un gain de fonction toxique. Plusieurs anticorps spécifiques pour la forme mal repliée de la protéine ont été générés et utilisés comme agent thérapeutique dans des modèles précliniques. Comment le mauvais repliement de SOD1 provoque la perte sélective des neurones moteurs demeure non résolu. La morphologie, le bilan énergétique et le transport mitochondrial sont tous documentés dans les modèles de la SLA basés sur SOD1, la détérioration des mitochondries joue un rôle clé dans la dégénération des neurones moteurs. De plus, la protéine SOD1 mal repliée s’associe sélectivement sur la surface des mitochondries de la moelle épinière chez les modèles de rongeurs de la SLA. Notre hypothèse est que l’accumulation de la protéine SOD1 mal repliée sur les mitochondries pourrait nuire aux fonctions mitochondriales. À cette fin, nous avons développé un nouvel essai par cytométrie de flux afin d’isoler les mitochondries immunomarquées avec des anticorps spécifiques à la forme malrepliée de SOD1 tout en évaluant des aspects de la fonction mitochondriale. Cette méthode permettra de comparer les mitochondries portant la protéine SOD1 mal repliée à celles qui ne la portent pas. Nous avons utilisé un anticorps à conformation spécifique de SOD1, B8H10, pour démontrer que la protéine mal repliée SOD1 s’associe avec les mitochondries de la moelle épinière des rat SOD1G93A d’une manière dépendante du temps. Les mitochondries avec la protéine mal repliée SOD1 B8H10 associée à leur surface (B8H10+) ont un volume et une production excessive de superoxyde significativement plus grand, mais possèdent un potentiel transmembranaire comparable aux mitochondries B8H10-. En outre, la présence de la protéine mal repliée SOD1 reconnue par B8H10 coïncide avec des niveaux plus élevés de la forme pro-apoptotique de Bcl-2. L’immunofluorescence de sections de moelle épinière du niveau lombaire avec l’anticorps spécifique à la conformation B8H10 et AMF7-63, un autre anticorps conformationnel spécifique de SOD1, démontre des motifs de localisations distincts. B8H10 a été trouvé principalement dans les neurones moteurs et dans plusieurs points lacrymaux dans tout le neuropile. Inversement, AMF7-63 a marqué les neurones moteurs ainsi qu’un réseau fibrillaire distinctif concentré dans la corne antérieure. Au niveau subcellulaire, SOD1 possèdant la conformation reconnu par AMF7-63 est aussi localisée sur la surface des mitochondries de la moelle épinière d’une manière dépendante du temps. Les mitochondries AMF7-63+ ont une augmentation du volume comparé aux mitochondries B8H10+ et à la sous-population non marquée. Cependant, elles produisent une quantité similaire de superoxyde. Ensemble, ces données suggèrent qu’il y a plusieurs types de protéines SOD1 mal repliées qui convergent vers les mitochondries et causent des dommages. De plus, différentes conformations de SOD1 apportent une toxicité variable vers les mitochondries. Les protéines SOD1 mal repliées réagissant à B8H10 et AMF7-63 sont présentes en agrégats dans les fractions mitochondriales, nous ne pouvons donc pas prendre en compte leurs différents effets sur le volume mitochondrial. Les anticorps conformationnels sont des outils précieux pour identifier et caractériser le continuum du mauvais repliement de SOD1 en ce qui concerne les caractéristiques biochimiques et la toxicité. Les informations présentes dans cette thèse seront utilisées pour déterminer le potentiel thérapeutique de ces anticorps.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Problématique: Le virus du papillome humain (VPH) est présent dans près de 50% des cancers de l’oropharynx. Le potentiel oncogénique du VPH est encodé dans les oncoprotéines E6 et E7, qui agissent en modulant différents gènes, dont les gènes suppresseurs de tumeur p53 et pRb. Les cellules VPH positives démontrent une altération au niveau de la signalisation de la réponse aux dommages à l’ADN (RDA), un mécanisme de contrôle dans l’arrêt de la croissance des cellules ayant subit des dommages au niveau de leur ADN. Hypothèse et objectifs : Nous croyons que les défauts au niveau de la RDA des cancers VPH positifs peuvent être exploités afin de sensibiliser préférentiellement les cellules cancéreuses aux traitements de radiothérapie. Cette stratégie de recherche nécessite l’élaboration d’un modèle cellulaire de carcinogenèse isogénique pour le cancer de l’oropharynx que nous proposons de développer et de caractériser. L’étude vise à dériver des lignées isogéniques à partir de kératinocytes primaires et cellules épithéliales de l’oropharynx pour ensuite valider la carcinogenèse de notre modèle in vitro & in vivo Méthodologie : Des lignées cellulaires de kératinocytes primaires et de cellules épithéliales de l’oropharynx ont été successivement modifiées par transduction afin de présenter les mutations associées aux cancers de l’oropharynx induits par le VPH. Les cellules ont été modifiées avec des lentivirus codants pour la télomérase (hTERT), les oncogènes E6, E7 et RasV12. Afin de valider la cancérogenèse in vitro de notre modèle, des études d’invasion en matrigel et de croissance sans ancrage en agar mou ont été réalisées. Les populations cellulaires transformées ont été ensuite introduites dans des souris immunodéficientes afin d’évaluer leur tumorogénicité in vivo. Résultats : À partir des plasmides recombinés construits par méthodes de clonage traditionnelle et de recombinaison « Gateway », nous avons produit des lentivirus codants pour la télomérase humaine (hTERT), les oncogènes viraux E6 et E7 et l’oncogène Ras. Les kératinocytes primaires et cellules épithéliales de l’oropharynx ont été infectés successivement par transduction et sélectionnés. Nous avons validé l’expression de nos transgènes par méthode d’immunofluorescence, de Western Blot et de réaction de polymérisation en chaîne quantitative en temps réel (qRT-PCR). Nous avons établi trois lignées des cellules épithéliales de l’oropharynx (HNOE) à partir d’échantillons tissulaires prélevés lors d’amygdalectomie (HNOE42, HNO45, HNOE46). Les cellules transduites avec le lentivirus exprimant le promoteur fort CMV/TO de l’oncogène RasV12 ont présenté un changement morphologique compatible avec une sénescence prématurée induite par l’oncogène Ras. En exprimant des quantités plus faibles du RasV12 mutant, la lignée cellulaire HEKn hTERT-E6-E7 PGK RasV12 a réussi à échapper à la sénescence induite par l’oncogène Ras. La population cellulaire exprimant HEKn hTERT-E6-E7-PGK RasV12 a présenté un phénotype malin en culture et à l’étude d'invasion, mais n’a pas démontré de résultats positifs à l’étude de croissance sans ancrage en agar mou ni en xénogreffe en souris immunodéficientes. Conclusion : Nos résultats démontrent qu’en présence des oncogènes viraux E6 et E7, il y a un troisième mécanisme suppresseur de tumeur qui médie la sénescence induite par l’oncogène Ras. Nous avons identifié que la présence de E6 seule ne suffit pas à immortaliser les kératinocytes primaires humains (HEKn). Nous n’avons pas réussi à créer un modèle in vitro de carcinogenèse pour les cancers de l’oropharynx induits par le VPH.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La diversification des résultats de recherche (DRR) vise à sélectionner divers documents à partir des résultats de recherche afin de couvrir autant d’intentions que possible. Dans les approches existantes, on suppose que les résultats initiaux sont suffisamment diversifiés et couvrent bien les aspects de la requête. Or, on observe souvent que les résultats initiaux n’arrivent pas à couvrir certains aspects. Dans cette thèse, nous proposons une nouvelle approche de DRR qui consiste à diversifier l’expansion de requête (DER) afin d’avoir une meilleure couverture des aspects. Les termes d’expansion sont sélectionnés à partir d’une ou de plusieurs ressource(s) suivant le principe de pertinence marginale maximale. Dans notre première contribution, nous proposons une méthode pour DER au niveau des termes où la similarité entre les termes est mesurée superficiellement à l’aide des ressources. Quand plusieurs ressources sont utilisées pour DER, elles ont été uniformément combinées dans la littérature, ce qui permet d’ignorer la contribution individuelle de chaque ressource par rapport à la requête. Dans la seconde contribution de cette thèse, nous proposons une nouvelle méthode de pondération de ressources selon la requête. Notre méthode utilise un ensemble de caractéristiques qui sont intégrées à un modèle de régression linéaire, et génère à partir de chaque ressource un nombre de termes d’expansion proportionnellement au poids de cette ressource. Les méthodes proposées pour DER se concentrent sur l’élimination de la redondance entre les termes d’expansion sans se soucier si les termes sélectionnés couvrent effectivement les différents aspects de la requête. Pour pallier à cet inconvénient, nous introduisons dans la troisième contribution de cette thèse une nouvelle méthode pour DER au niveau des aspects. Notre méthode est entraînée de façon supervisée selon le principe que les termes reliés doivent correspondre au même aspect. Cette méthode permet de sélectionner des termes d’expansion à un niveau sémantique latent afin de couvrir autant que possible différents aspects de la requête. De plus, cette méthode autorise l’intégration de plusieurs ressources afin de suggérer des termes d’expansion, et supporte l’intégration de plusieurs contraintes telles que la contrainte de dispersion. Nous évaluons nos méthodes à l’aide des données de ClueWeb09B et de trois collections de requêtes de TRECWeb track et montrons l’utilité de nos approches par rapport aux méthodes existantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La stimulation électrique transcrânienne à courant direct (tDCS) est une technique non invasive de neuromodulation qui modifie l’excitabilité corticale via deux grosses électrodes de surface. Les effets dépendent de la polarité du courant, anodique = augmentation de l’excitabilité corticale et cathodique = diminution. Chez l’humain, il n’existe pas de consensus sur des effets de la tDCS appliquée au cortex somatosensoriel primaire (S1) sur la perception somesthésique. Nous avons étudié la perception vibrotactile (20 Hz, amplitudes variées) sur le majeur avant, pendant et après la tDCS appliquée au S1 controlatéral (anodale, a; cathodale, c; sham, s). Notre hypothèse « shift-gain » a prédit une diminution des seuils de détection et de discrimination pour la tDCS-a (déplacement vers la gauche de la courbe stimulus-réponse et une augmentation de sa pente). On attendait les effets opposés avec la tDCS-c, soit une augmentation des seuils (déplacement à droite et diminution de la pente). Chez la majorité des participants, des diminutions des seuils ont été observées pendant et immédiatement suivant la tDCS-a (1 mA, 20 min) en comparaison à la stimulation sham. Les effets n’étaient plus présents 30 min plus tard. Une diminution du seuil de discrimination a également été observée pendant, mais non après la tDCS-c (aucun effet pour détection). Nos résultats supportent notre hypothèse, uniquement pour la tDCS-a. Une suite logique serait d’étudier si des séances répétées de tDCS-a mènent à des améliorations durables sur la perception tactile. Ceci serait bénéfique pour la réadaptation sensorielle (ex. suite à un accident vasculaire cérébral).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectif. L’objectif est de comprendre comment les intervenants en relation d’aide et les agents des forces de l’ordre composent avec la violence au travail et le stress lié à l’imputabilité. Un cadre théorique basé sur l’identité professionnelle est proposé afin de comprendre la modulation de la santé psychologique au travail et testé via le Professional Quality of Life des intervenants en protection de la jeunesse. Les facteurs de prédiction de la banalisation de la violence au travail et des impacts psychologiques de cette banalisation sont également étudiés. Méthodologie. Un sondage mené auprès d’un échantillon représentatif constitué de 301 intervenants en protection de la jeunesse a permis d’examiner le Professional Quality of Life. Les effets de l’exposition à la violence en milieu de travail, à l’exposition au matériel traumatique et du stress lié à l’imputabilité sur la fatigue de compassion ont été analysés à l’aide d’équation structurelle. Les effets indirects attribuables au genre, au soutien organisationnel perçu, à l’adhésion à l’identité professionnelle, aux stratégies d’adaptation et à la confiance en ses moyens pour gérer un client agressif ont été mesurés. Pour l’examen des facteurs de prédiction de la banalisation de la violence au travail, les résultats d’un sondage mené auprès de 1141 intervenants en relation d’aide et des forces de l’ordre ont été analysés à l’aide de régression linéaire. L’analyse des réponses des 376 intervenants de cet échantillon ayant rapporté avoir été perturbé par un acte de violence au travail a permis de mesurer l’impact de la banalisation sur les conséquences psychologiques suite à une victimisation au travail. Les effets indirects attribuables à la banalisation de la violence ont été mesurés. Des analyses différenciées en fonction du sexe ont également été menées. Résultats. L’exposition à la violence, le sentiment d’imputabilité et l’évitement amplifiaient la fatigue de compassion chez les intervenants en protection de la jeunesse sondés. Les attitudes masculines, l’adhésion à l’identité professionnelle, la confiance en ses moyens pour gérer les clients agressifs l’atténuaient. Quant aux facteurs de prédiction de la banalisation de la violence au travail, les participants masculins étaient plus enclins que les femmes à la normaliser. Les agents des forces de l’ordre percevaient davantage la violence comme tabou que les intervenants en relation d’aide. Les facteurs organisationnels avaient tous un effet négatif sur le tabou entourant la violence au travail. Finalement, l’âge, les victimisations antérieures, les blessures graves et percevoir la violence au travail comme un tabou augmentaient le nombre de conséquences psychologiques suite à une victimisation. Les analyses différenciées en fonction du sexe ont identifié des facteurs de prédiction spécifiques aux hommes et aux femmes. Implications. Lors de déploiement de stratégies organisationnelles afin d’aider les employés à gérer avec les stress liés au travail, les organisations doivent considérer l’identité professionnelle de leur travailleur ainsi que des différences en fonction du sexe et du genre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les virus ont besoin d’interagir avec des facteurs cellulaires pour se répliquer et se propager dans les cellules d’hôtes. Une étude de l'interactome des protéines du virus d'hépatite C (VHC) par Germain et al. (2014) a permis d'élucider de nouvelles interactions virus-hôte. L'étude a également démontré que la majorité des facteurs de l'hôte n'avaient pas d'effet sur la réplication du virus. Ces travaux suggèrent que la majorité des protéines ont un rôle dans d'autres processus cellulaires tel que la réponse innée antivirale et ciblées pas le virus dans des mécanismes d'évasion immune. Pour tester cette hypothèse, 132 interactant virus-hôtes ont été sélectionnés et évalués par silençage génique dans un criblage d'ARNi sur la production interferon-beta (IFNB1). Nous avons ainsi observé que les réductions de l'expression de 53 interactants virus-hôte modulent la réponse antivirale innée. Une étude dans les termes de gène d'ontologie (GO) démontre un enrichissement de ces protéines au transport nucléocytoplasmique et au complexe du pore nucléaire. De plus, les gènes associés avec ces termes (CSE1L, KPNB1, RAN, TNPO1 et XPO1) ont été caractérisé comme des interactant de la protéine NS3/4A par Germain et al. (2014), et comme des régulateurs positives de la réponse innée antivirale. Comme le VHC se réplique dans le cytoplasme, nous proposons que ces interactions à des protéines associées avec le noyau confèrent un avantage de réplication et bénéficient au virus en interférant avec des processus cellulaire tel que la réponse innée. Cette réponse innée antivirale requiert la translocation nucléaire des facteurs transcriptionnelles IRF3 et NF-κB p65 pour la production des IFNs de type I. Un essai de microscopie a été développé afin d'évaluer l’effet du silençage de 60 gènes exprimant des protéines associés au complexe du pore nucléaire et au transport nucléocytoplasmique sur la translocation d’IRF3 et NF-κB p65 par un criblage ARNi lors d’une cinétique d'infection virale. En conclusion, l’étude démontre qu’il y a plusieurs protéines qui sont impliqués dans le transport de ces facteurs transcriptionnelles pendant une infection virale et peut affecter la production IFNB1 à différents niveaux de la réponse d'immunité antivirale. L'étude aussi suggère que l'effet de ces facteurs de transport sur la réponse innée est peut être un mécanisme d'évasion par des virus comme VHC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La construction modulaire est une stratégie émergente qui permet la fabrication de matériaux ordonnés à l’échelle atomique. Elle consiste en l’association programmée de sous-unités moléculaires via des sites réactifs judicieusement sélectionnés. L’application de cette stratégie a d’ores et déjà produit des matériaux aux propriétés remarquables, notamment les réseaux organiques covalents, dans lesquels des atomes de carbone et d’autres éléments légers sont liés de manière covalente. Bien que des matériaux assemblés par des interactions non-covalentes puissent être préparés sous la forme de monocristaux macroscopiques de cette façon, ceci n’était pas possible dans le cas des réseaux organiques covalents. Afin de pallier cette lacune, nous avons choisi d’étudier des réactions de polymérisation réversibles ayant lieu par un mécanisme d’addition. En effet, l’hypothèse de départ de cette thèse suppose qu’un tel processus émule le phénomène de cristallisation classique – régi par des interactions non-covalentes – et favorise la formation de monocristaux de dimensions importantes. Pour tester la validité de cette hypothèse, nous avons choisi d’étudier la polymérisation des composés polynitroso aromatiques puisque la dimérisation des nitrosoarènes est réversible et procède par addition. Dans un premier temps, nous avons revu en profondeur la littérature portant sur la dimérisation des nitrosoarènes. À partir des données alors recueillies, nous avons conçu, dans un deuxième temps, une série de composés polynitroso ayant le potentiel de former des réseaux organiques covalents bi- et tridimensionnels. Les paramètres thermodynamiques propres à leur polymérisation ont pu être estimés grâce à l’étude de composés mononitroso modèles. Dans un troisième temps, nous avons synthétisé les divers composés polynitroso visés par notre étude. Pour y parvenir, nous avons eu à développer une nouvelle méthodologie de synthèse des poly(N-arylhydroxylamines) – les précurseurs directs aux composés polynitroso. Dans un quatrième temps, nous avons étudié la polymérisation des composés polynitroso. En dépit de difficultés d’ordre pratique causées par la polymérisation spontanée de ces composés, nous avons pu identifier les conditions propices à leur polymérisation en réseaux organiques covalents hautement cristallins. Plusieurs nouveaux réseaux covalents tridimensionnels ont ainsi été produits sous la forme de monocristaux de dimensions variant entre 30 µm et 500 µm, confirmant la validité de notre hypothèse de départ. Il a par conséquent été possible de résoudre la structure de ces cristaux par diffraction de rayons X sur monocristal, ce qui n’avait jamais été possible dans le passé pour ce genre de matériau. Ces cristaux sont remarquablement uniformes et les polymères qui les composent ont des masses moléculaires extrêmement élevées (1014-1017 g/mol). Toutefois, la polymérisation de la majorité des composés polynitroso étudiés a plutôt conduit à des solides amorphes ou à des solides cristallins constitués de la forme monomérique de ces composés. D’autres composés nitroso modèles ont alors été préparés afin d’expliquer ce comportement, et des hypothèses ont été émises à partir des données alors recueillies. Enfin, les structures de plusieurs composés polynitroso ayant cristallisés sous une forme monomérique ont été analysés en détails par diffraction des rayons X. Notre stratégie, qui consiste en l’utilisation de monomères ayant la capacité de polymériser spontanément par un processus d’addition réversible, semble donc prometteuse pour obtenir de nouveaux réseaux covalents monocristallins à partir de composés polynitroso ou d’autres monomères de nature similaire. De plus, les résultats présentés au cours de cette thèse établissent un lien entre la science des polymères et la chimie supramoléculaire, en illustrant comment des structures ordonnées, covalentes ou non covalentes, peuvent toutes deux être construites de façon prévisible.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La régression logistique est un modèle de régression linéaire généralisée (GLM) utilisé pour des variables à expliquer binaires. Le modèle cherche à estimer la probabilité de succès de cette variable par la linéarisation de variables explicatives. Lorsque l’objectif est d’estimer le plus précisément l’impact de différents incitatifs d’une campagne marketing (coefficients de la régression logistique), l’identification de la méthode d’estimation la plus précise est recherchée. Nous comparons, avec la méthode MCMC d’échantillonnage par tranche, différentes densités a priori spécifiées selon différents types de densités, paramètres de centralité et paramètres d’échelle. Ces comparaisons sont appliquées sur des échantillons de différentes tailles et générées par différentes probabilités de succès. L’estimateur du maximum de vraisemblance, la méthode de Gelman et celle de Genkin viennent compléter le comparatif. Nos résultats démontrent que trois méthodes d’estimations obtiennent des estimations qui sont globalement plus précises pour les coefficients de la régression logistique : la méthode MCMC d’échantillonnage par tranche avec une densité a priori normale centrée en 0 de variance 3,125, la méthode MCMC d’échantillonnage par tranche avec une densité Student à 3 degrés de liberté aussi centrée en 0 de variance 3,125 ainsi que la méthode de Gelman avec une densité Cauchy centrée en 0 de paramètre d’échelle 2,5.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le problème de la direction du temps est un problème classique autant en physique qu’en philosophie. Quoiqu’il existe plusieurs façons de s’interroger sur ce problème, l’approche thermodynamique est la plus fréquemment utilisée. Cette approche consiste à considérer la flèche du temps thermodynamique comme la flèche fondamentale de laquelle les autres flèches ne sont que des manifestations. Ce mémoire vise à fournir une analyse philosophique de cette approche. Pour ce faire, nous esquisserons la problématique générale, nous exposerons les différentes approches et théories alternatives visant à résoudre ce problème et nous présenterons la thèse forte soutenant l’approche thermodynamique. Ensuite, nous évaluerons la pertinence du recours à la mécanique statistique et à la cosmologie visant à remédier aux déficiences de cette même approche. Enfin, nous analyserons en quoi cette approche, et plus particulièrement la notion d’entropie, est en mesure de fournir un cadre conceptuel pour la résolution du problème de la flèche du temps.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de cette étude est de réaliser une analyse comparative de la pauvreté et de la structure de consommation des ménages des capitales des Etats membres de l’Union Economique et Monétaire Ouest Africaine (UEMOA) à partir des données des enquêtes dépenses des ménages (EDM) réalisées en 2008 dans ces agglomérations. En s’appuyant sur l’approche monétaire de la pauvreté mise en oeuvre par la méthode du coût des besoins essentiels, il ressort que plus d’un ménage sur 10, soit 10,5% de l’ensemble de la population étudiée vit sous le seuil de pauvreté estimé à 277450 F CFA de dépenses annuelles par unité de consommation. Le test de dominance stochastique de 1er ordre confirme que l’ampleur du phénomène est en moyenne plus importante dans les villes sahéliennes (Bamako, Niamey, Ouagadougou) que dans les grandes villes côtières (Abidjan, Dakar, Lomé). Par ailleurs, l’analyse économétrique révèle que la taille du ménage et le capital humain du chef de ménage sont des déterminants importants du niveau de vie monétaire des ménages. En effet, tandis que le risque de pauvreté est plus élevé chez les ménages de grande taille, le niveau de vie d’un ménage est d’autant plus élevé que le niveau d’instruction du chef est important. En outre, on observe que dans les agglomérations où le taux de pauvreté est le plus élevé, les ménages accordent un poids plus élevé aux dépenses alimentaires. Enfin, l’estimation des élasticités dépenses totales de la demande à l’aide d’une régression linéaire suggère qu’en moyenne, les besoins de consommation insatisfaits par les ménages portent sur les services (les transports, la communication, la santé, l’éducation et les loisirs).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse est une collection de trois articles en économie de l'information. Le premier chapitre sert d'introduction et les Chapitres 2 à 4 constituent le coeur de l'ouvrage. Le Chapitre 2 porte sur l’acquisition d’information sur l’Internet par le biais d'avis de consommateurs. En particulier, je détermine si les avis laissés par les acheteurs peuvent tout de même transmettre de l’information à d’autres consommateurs, lorsqu’il est connu que les vendeurs peuvent publier de faux avis à propos de leurs produits. Afin de comprendre si cette manipulation des avis est problématique, je démontre que la plateforme sur laquelle les avis sont publiés (e.g. TripAdvisor, Yelp) est un tiers important à considérer, autant que les vendeurs tentant de falsifier les avis. En effet, le design adopté par la plateforme a un effet indirect sur le niveau de manipulation des vendeurs. En particulier, je démontre que la plateforme, en cachant une partie du contenu qu'elle détient sur les avis, peut parfois améliorer la qualité de l'information obtenue par les consommateurs. Finalement, le design qui est choisi par la plateforme peut être lié à la façon dont elle génère ses revenus. Je montre qu'une plateforme générant des revenus par le biais de commissions sur les ventes peut être plus tolérante à la manipulation qu'une plateforme qui génère des revenus par le biais de publicité. Le Chapitre 3 est écrit en collaboration avec Marc Santugini. Dans ce chapitre, nous étudions les effets de la discrimination par les prix au troisième degré en présence de consommateurs non informés qui apprennent sur la qualité d'un produit par le biais de son prix. Dans un environnement stochastique avec deux segments de marché, nous démontrons que la discrimination par les prix peut nuire à la firme et être bénéfique pour les consommateurs. D'un côté, la discrimination par les prix diminue l'incertitude à laquelle font face les consommateurs, c.-à-d., la variance des croyances postérieures est plus faible avec discrimination qu'avec un prix uniforme. En effet, le fait d'observer deux prix (avec discrimination) procure plus d'information aux consommateurs, et ce, même si individuellement chacun de ces prix est moins informatif que le prix uniforme. De l'autre côté, il n'est pas toujours optimal pour la firme de faire de la discrimination par les prix puisque la présence de consommateurs non informés lui donne une incitation à s'engager dans du signaling. Si l'avantage procuré par la flexibilité de fixer deux prix différents est contrebalancé par le coût du signaling avec deux prix différents, alors il est optimal pour la firme de fixer un prix uniforme sur le marché. Finalement, le Chapitre 4 est écrit en collaboration avec Sidartha Gordon. Dans ce chapitre, nous étudions une classe de jeux où les joueurs sont contraints dans le nombre de sources d'information qu'ils peuvent choisir pour apprendre sur un paramètre du jeu, mais où ils ont une certaine liberté quant au degré de dépendance de leurs signaux, avant de prendre une action. En introduisant un nouvel ordre de dépendance entre signaux, nous démontrons qu'un joueur préfère de l'information qui est la plus dépendante possible de l'information obtenue par les joueurs pour qui les actions sont soit, compléments stratégiques et isotoniques, soit substituts stratégiques et anti-toniques, avec la sienne. De même, un joueur préfère de l'information qui est la moins dépendante possible de l'information obtenue par les joueurs pour qui les actions sont soit, substituts stratégiques et isotoniques, soit compléments stratégiques et anti-toniques, avec la sienne. Nous établissons également des conditions suffisantes pour qu'une structure d'information donnée, information publique ou privée par exemple, soit possible à l'équilibre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les nanotechnologies appliquées aux sciences pharmaceutiques ont pour but d’améliorer l’administration de molécules actives par l’intermédiaire de transporteurs nanométriques. Parmi les différents types de véhicules proposés pour atteindre ce but, on retrouve les nanoparticules polymériques (NP) constituées de copolymères “en bloc”. Ces copolymères permettent à la fois l’encapsulation de molécules actives et confèrent à la particule certaines propriétés de surface (dont l’hydrophilicité) nécessaires à ses interactions avec les milieux biologiques. L’architecture retenue pour ces copolymères est une structure constituée le plus fréquemment de blocs hydrophiles de poly(éthylène glycol) (PEG) associés de façon linéaire à des blocs hydrophobes de type polyesters. Le PEG est le polymère de choix pour conférer une couronne hydrophile aux NPs et son l’efficacité est directement liée à son organisation et sa densité de surface. Néanmoins, malgré les succès limités en clinique de ces copolymères linéaires, peu de travaux se sont attardés à explorer les effets sur la structure des NPs d’architectures alternatives, tels que les copolymères en peigne ou en brosse. Durant ce travail, plusieurs stratégies ont été mises au point pour la synthèse de copolymères en peigne, possédant un squelette polymérique polyesters-co-éther et des chaines de PEG liées sur les groupes pendants disponibles (groupement hydroxyle ou alcyne). Dans la première partie de ce travail, des réactions d’estérification par acylation et de couplage sur des groupes pendants alcool ont permis le greffage de chaîne de PEG. Cette méthode génère des copolymères en peigne (PEG-g-PLA) possédant de 5 à 50% en poids de PEG, en faisant varier le nombre de chaînes branchées sur un squelette de poly(lactique) (PLA). Les propriétés structurales des NPs produites ont été étudiées par DLS, mesure de charge et MET. Une transition critique se situant autour de 15% de PEG (poids/poids) est observée avec un changement de morphologie, d’une particule solide à une particule molle (“nanoagrégat polymére”). La méthode de greffage ainsi que l’addition probable de chaine de PEG en bout de chaîne principale semblent également avoir un rôle dans les changements observés. L’organisation des chaînes de PEG-g-PLA à la surface a été étudiée par RMN et XPS, méthodes permettant de quantifier la densité de surface en chaînes de PEG. Ainsi deux propriétés clés que sont la résistance à l’agrégation en conditions saline ainsi que la résistance à la liaison aux protéines (étudiée par isothermes d’adsorption et microcalorimétrie) ont été reliées à la densité de surface de PEG et à l’architecture des polymères. Dans une seconde partie de ce travail, le greffage des chaînes de PEG a été réalisé de façon directe par cyclo-adition catalysée par le cuivre de mPEG-N3 sur les groupes pendants alcyne. Cette nouvelle stratégie a été pensée dans le but de comprendre la contribution possible des chaines de PEG greffées à l’extrémité de la chaine de PLA. Cette librairie de PEG-g-PLA, en plus d’être composée de PEG-g-PLA avec différentes densités de greffage, comporte des PEG-g-PLA avec des PEG de différent poids moléculaire (750, 2000 et 5000). Les chaines de PEG sont seulement greffées sur les groupes pendants. Les NPs ont été produites par différentes méthodes de nanoprécipitation, incluant la nanoprécipitation « flash » et une méthode en microfluidique. Plusieurs variables de formulation telles que la concentration du polymère et la vitesse de mélange ont été étudiées afin d’observer leur effet sur les caractéristiques structurales et de surface des NPs. Les tailles et les potentiels de charges sont peu affectés par le contenu en PEG (% poids/poids) et la longueur des chaînes de PEG. Les images de MET montrent des objets sphériques solides et l'on n’observe pas d’objets de type agrégat polymériques, malgré des contenus en PEG comparable à la première bibliothèque de polymère. Une explication possible est l’absence sur ces copolymères en peigne de chaine de PEG greffée en bout de la chaîne principale. Comme attendu, les tailles diminuent avec la concentration du polymère dans la phase organique et avec la diminution du temps de mélange des deux phases, pour les différentes méthodes de préparation. Finalement, la densité de surface des chaînes de PEG a été quantifiée par RMN du proton et XPS et ne dépendent pas de la méthode de préparation. Dans la troisième partie de ce travail, nous avons étudié le rôle de l’architecture du polymère sur les propriétés d’encapsulation et de libération de la curcumine. La curcumine a été choisie comme modèle dans le but de développer une plateforme de livraison de molécules actives pour traiter les maladies du système nerveux central impliquant le stress oxydatif. Les NPs chargées en curcumine, montrent la même transition de taille et de morphologie lorsque le contenu en PEG dépasse 15% (poids/poids). Le taux de chargement en molécule active, l’efficacité de changement et les cinétiques de libérations ainsi que les coefficients de diffusion de la curcumine montrent une dépendance à l’architecture des polymères. Les NPs ne présentent pas de toxicité et n’induisent pas de stress oxydatif lorsque testés in vitro sur une lignée cellulaire neuronale. En revanche, les NPs chargées en curcumine préviennent le stress oxydatif induit dans ces cellules neuronales. La magnitude de cet effet est reliée à l’architecture du polymère et à l’organisation de la NP. En résumé, ce travail a permis de mettre en évidence quelques propriétés intéressantes des copolymères en peigne et la relation intime entre l’architecture des polymères et les propriétés physico-chimiques des NPs. De plus les résultats obtenus permettent de proposer de nouvelles approches pour le design des nanotransporteurs polymériques de molécules actives.