955 resultados para Pseudo-télépathie


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’application des métaux de transition à la fonctionnalisation directe a ouvert la voie à une nouvelle classe de réactions pour la formation de liens carbone-carbone. De par l'omniprésence des liaisons C–H, l’introduction de nouvelles fonctionnalités chimiques par voie directe et pré-activation minimale s’impose comme une stratégie de synthèse très attrayante. Ainsi, il est envisageable de préparer de manière rapide et efficace des supports complexes menant à des molécules complexes, qui pourraient être utiles dans divers domaines de la chimie. L'objectif principal de la présente thèse vise la fonctionnalisation directe des arènes hétérocycliques et non hétérocycliques et, plus précisément, les techniques d’arylation. Dans un premier temps, nous allons aborder le thème de l’arylation directe tout en mettant l’accent sur les pyridines (Chapitre 1). Ces molécules sont à la base d'une multitude de composés biologiquement actifs et jouent un rôle important dans le domaine des sciences des matériaux, de l’agrochimie et de la synthèse des produits naturels. Dans un deuxième temps, nous discuterons de nos travaux sur l’arylation directe catalysé par un complex de palladium sur des ylures de N-iminopyridinium en soulignant la dérivatisation du sel de pyridinium après une phénylation sp2 (Chapitre 2). L’étude de ce procédé nous a permis de mettre en lumière plusieurs découvertes importantes, que nous expliquerons en détails une à une : l’arylation benzylique directe lorsque des ylures N-iminopyridinium substituées avec un groupement alkyl à la position 2 sont utilisés comme partenaires dans la réaction; les allylations Tsuji-Trost catalysée par un complex de palladium; et l’alkylation directe et sans métal via une catalyse par transfert de phase. Plusieurs défis restent à relever pour le développement de procédés directs utilisant des métaux de transition peu coûteux, d’autant plus que la synthèse par transformation directe des pyridines 2-alcényles, lesquelles sont pertinentes sur le plan pharmacologique, n’a pas encore été rapportée à ce jour. Avec cette problématique en tête, nous avons réussi à mettre au point une alcénylation directe catalysé par un complex de cuivre sur des ylures de N-iminopyridinium. Nous discuterons également d’une nouvelle méthode pour la préparation des iodures de vinyle utilisés dans les couplages. Ces réactions sont non seulement remarquablement chimiosélectives, mais sont aussi applicables à plusieurs substrats (Chapitre 3). En optimisant ce procédé direct, nous avons découvert une façon unique de synthétiser les pyrazolo[1,5-a]pyridines 2-substituées (Chapitre 4). Le mécanisme global met en jeu une séquence tandem de fonctionnalisation-cyclisation directe et un procédé direct en cascade, qui n’avais jamais été rapporté. Cela simplifie ansi la synthèse autrement compliquée de ces substrats en y apportant une solution à un problème de longue date. Dans les deux derniers chapitres, nous examinerons en détail les techniques d’arylation directe qui n'impliquent pas les partenaires de couplage hétérocycliques. Entre autres, au Chapitre 5, nous soulignerons notre découverte d’un umpolung dirigé et catalysé par un complexe de palladium du benzène et de quelques autres dérivés arènes. Il s’agit là du premier cas de fonctionnalisation directe dans laquelle le groupe directeur se trouve sur le partenaire halogène et il s’ajoute à la courte liste d’exemples connus dans la littérature rapportant une arylation directe du benzène. Finalement, au Chapitre 6, nous passerons en revue une nouvelle arylation directe catalysée au fer, qui se veut un procédé peu coûteux, durable et présentant une économie d’atomes. Nous discutons des substrats possibles ainsi des études mécanistiques réalisés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La détermination de la structure tertiaire du ribosome fut une étape importante dans la compréhension du mécanisme de la synthèse des protéines. Par contre, l’élucidation de la structure du ribosome comme tel ne permet pas une compréhension de sa fonction. Pour mieux comprendre la nature des relations entre la structure et la fonction du ribosome, sa structure doit être étudiée de manière systématique. Au cours des dernières années, nous avons entrepris une démarche systématique afin d’identifier et de caractériser de nouveaux motifs structuraux qui existent dans la structure du ribosome et d’autres molécules contenant de l’ARN. L’analyse de plusieurs exemples d’empaquetage de deux hélices d’ARN dans la structure du ribosome nous a permis d’identifier un nouveau motif structural, nommé « G-ribo ». Dans ce motif, l’interaction d’une guanosine dans une hélice avec le ribose d’un nucléotide d’une autre hélice donne naissance à un réseau d’interactions complexes entre les nucléotides voisins. Le motif G-ribo est retrouvé à 8 endroits dans la structure du ribosome. La structure du G-ribo possède certaines particularités qui lui permettent de favoriser la formation d’un certain type de pseudo-nœuds dans le ribosome. L’analyse systématique de la structure du ribosome et de la ARNase P a permis d’identifier un autre motif structural, nommé « DTJ » ou « Double-Twist Joint motif ». Ce motif est formé de trois courtes hélices qui s’empilent l’une sur l’autre. Dans la zone de contact entre chaque paire d’hélices, deux paires de bases consécutives sont surenroulées par rapport à deux paires de bases consécutives retrouvées dans l’ARN de forme A. Un nucléotide d’une paire de bases est toujours connecté directement à un nucléotide de la paire de bases surenroulée, tandis que les nucléotides opposés sont connectés par un ou plusieurs nucléotides non appariés. L’introduction d’un surenroulement entre deux paires de bases consécutives brise l’empilement entre les nucléotides et déstabilise l’hélice d’ARN. Dans le motif DTJ, les nucléotides non appariés qui lient les deux paires de bases surenroulées interagissent avec une des trois hélices qui forment le motif, offrant ainsi une stratégie élégante de stabilisation de l’arrangement. Pour déterminer les contraintes de séquences imposées sur la structure tertiaire d’un motif récurrent dans le ribosome, nous avons développé une nouvelle approche expérimentale. Nous avons introduit des librairies combinatoires de certains nucléotides retrouvés dans des motifs particuliers du ribosome. Suite à l’analyse des séquences alternatives sélectionnées in vivo pour différents représentants d’un motif, nous avons été en mesure d’identifier les contraintes responsables de l’intégrité d’un motif et celles responsables d’interactions avec les éléments qui forment le contexte structural du motif. Les résultats présentés dans cette thèse élargissent considérablement notre compréhension des principes de formation de la structure d’ARN et apportent une nouvelle façon d’identifier et de caractériser de nouveaux motifs structuraux d’ARN.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La maladie d’Alzheimer (MA) est de loin le type de démence le plus répandu chez les personnes âgées. Il est maintenant possible de proposer un certain nombre d’interventions ou de stratégies préventives aux personnes portant un diagnostic de MA ou à risque de développer la maladie. Il est donc important de diagnostiquer cette maladie le plus tôt possible. Les personnes avec un trouble cognitif léger (TCL) représentent une population d’intérêt puisqu’elles sont à haut risque d’évoluer vers une démence et plusieurs d’entres elles seraient ainsi dans une phase prodromale de la MA. Les travaux de cette thèse visent à explorer les activations fonctionnelles associées à la mémoire épisodique et à la mémoire de travail dans le TCL ainsi qu’aux effets de la sévérité de la maladie et des caractéristiques de la tâche sur ces activations. Dans un premier temps, nous exposerons les connaissances relatives au niveau des atteintes cognitives, du patron d’activation fonctionnelle et des plus récents modèles élaborés pour expliquer les changements d’activation dans le vieillissement normal et pathologique (Chapitre 1). Par la suite, les études réalisées dans le cadre de cette thèse seront présentées. Nous avons d’abord étudié la fiabilité du signal d’activation chez les TCL et chez les personnes âgées saines (PA) à l’aide de tâches d’encodage et de récupération de mots (Chapitre 2). Nous avons ensuite comparé le patron d’activation cérébral des PA et des personnes TCL alors qu’elles réalisaient une tâche d’encodage et de récupération de mots. L’effet de la sévérité a été évalué en corrélant les activations des personnes TCL à leurs scores obtenu à une échelle évaluant leur cognition globale (Chapitre 3). L’effet de sévérité a ensuite été étudié de manière plus approfondie chez un plus grand nombre de TCL en utilisant la médiane du groupe à cette même échelle pour déterminer un groupe de TCL plus atteints et un groupe de TCL moins atteints. Ces deux groupes ont ensuite été comparés à un groupe de PA lors d’une tâche d’encodage de paires de mots reliés sémantiquement ou non-reliés (Chapitre 4), une tâche de reconnaissance de paires de mots mesurant principalement la familiarité ou principalement la recollection (Chapitre 5), ainsi que deux tâches impliquant des composantes différentes de la mémoire de travail et des fonctions exécutives, soit la manipulation de l’information et l’attention divisée (Chapitre 6). Les résultats présentés dans cette thèse ont mis en évidence une distinction entre le patron d’activation des TCL et des PA qui semble caractérisée par une interaction entre le niveau de sévérité de la maladie et les processus cognitifs impliqués dans la tâche. L’effet de sévérité a été observé lors de plusieurs tâches impliquant des processus cognitifs différents où les MCI moins atteints ont montré principalement des hyperactivations sous-tendant des mécanismes compensatoires et les MCI plus atteints ont montré principalement des hypoactivations soulignant la dégradation de ces mécanismes. Par ailleurs, les résultats de nos études ont aussi montré que cet effet de sévérité est modulé par le moment d’altération du processus cognitif impliqué dans la tâche: les processus altérés précocément dans le TCL sont caractériséees par des hyperactivations chez les TCL moins atteints tandis que les processus altérés plus tardivement ont plutôt élicité des hyperactivations chez les TCL plus atteints. Les implications de ces résultats, ainsi que les limites des études, sont discutés (Chapitre 7).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La membrane cellulaire est principalement une bicouche phospholipidique constituant une barrière qui régule les échanges entre la cellule et son environnement. Son intérieur hydrophobe empêche le passage d’espèces hydrophiles, chargées, de grande masse moléculaire et polaires, qui sont généralement transportées par des protéines à travers la bicouche. Dans certains cas de systèmes défectueux (e.g. les canalopathies), l’équilibre des concentrations en ions à l’intérieur et à l’extérieur des cellules est perturbé et les cellules sont compromises. C’est pourquoi le développement de transporteurs transmembranaires synthétiques est nécessaire. De nombreux travaux ont été faits dans le développement de transporteurs synthétiques d’anions (particulièrement du chlorure). Dans cette thèse, nous présentons nos travaux sur un nouveau transporteur d’anion appelé axe parapluie, capable de changer de conformation dépendamment de la polarité de son environnement. Dans un premier temps, nous avons conçu le design, puis synthétisé ces axes parapluie qui montrent une importante activité en tant que transporteur de chlorures. Ces composés réunissent deux concepts : - Le parapluie, constitué d’acides biliaires amphiphiles (une face hydrophile, une face hydrophobe). La flexibilité des articulations combinée à la grande surface des acides choliques permettent d’empêcher les interactions défavorables entre les parties hydrophiles et hydrophobes, ce qui facilite l’insertion dans la bicouche. - Un site ammonium secondaire en tant que site de reconnaissance, capable de former des ponts hydrogène avec des ions chlorure. De plus, l’axe peut complexer une roue de type éther couronne pour former un pseudo-rotaxane ou rotaxane parapluie ce qui résulte en l’inhibition partielle de leurs propriétés de transport. Ceci nous mène au second objectif de cette thèse, le développement d’un nouveau moyen de transport pour les médicaments cycliques. Certains macrocycles polaires et biologiquement actifs tels que les nactines ont besoin d’atteindre leur objectif à l’intérieur de la cellule pour jouer leur rôle. La membrane cellulaire est alors un obstacle. Nous avons imaginé tirer profit de notre axe parapluie pour transporter un médicament cyclique (en tant que roue d’un rotaxane parapluie). Les assemblages des rotaxanes parapluie furent accomplis par la méthode de clipage. Le comportement de l’axe et du rotaxane parapluie fut étudié par RMN et fluorimétrie. Le mouvement du parapluie passant d’une conformation fermée à exposée dépendamment du milieu fut observé pour le rotaxane parapluie. Il en fut de même pour les interactions entre le rotaxane parapluie et des vésicules constituées de phospholipides. Finalement, la capacité du rotaxane parapluie à franchir la bicouche lipidique pour transporter la roue à l’intérieur de la vésicule fut démontrée à l’aide de liposomes contenant de la α-chymotrypsine. Cette dernière pu cliver certains liens amide de l’axe parapluie afin de relarguer la roue.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le but de cette thèse est d étendre la théorie du bootstrap aux modèles de données de panel. Les données de panel s obtiennent en observant plusieurs unités statistiques sur plusieurs périodes de temps. Leur double dimension individuelle et temporelle permet de contrôler l 'hétérogénéité non observable entre individus et entre les périodes de temps et donc de faire des études plus riches que les séries chronologiques ou les données en coupe instantanée. L 'avantage du bootstrap est de permettre d obtenir une inférence plus précise que celle avec la théorie asymptotique classique ou une inférence impossible en cas de paramètre de nuisance. La méthode consiste à tirer des échantillons aléatoires qui ressemblent le plus possible à l échantillon d analyse. L 'objet statitstique d intérêt est estimé sur chacun de ses échantillons aléatoires et on utilise l ensemble des valeurs estimées pour faire de l inférence. Il existe dans la littérature certaines application du bootstrap aux données de panels sans justi cation théorique rigoureuse ou sous de fortes hypothèses. Cette thèse propose une méthode de bootstrap plus appropriée aux données de panels. Les trois chapitres analysent sa validité et son application. Le premier chapitre postule un modèle simple avec un seul paramètre et s 'attaque aux propriétés théoriques de l estimateur de la moyenne. Nous montrons que le double rééchantillonnage que nous proposons et qui tient compte à la fois de la dimension individuelle et la dimension temporelle est valide avec ces modèles. Le rééchantillonnage seulement dans la dimension individuelle n est pas valide en présence d hétérogénéité temporelle. Le ré-échantillonnage dans la dimension temporelle n est pas valide en présence d'hétérogénéité individuelle. Le deuxième chapitre étend le précédent au modèle panel de régression. linéaire. Trois types de régresseurs sont considérés : les caractéristiques individuelles, les caractéristiques temporelles et les régresseurs qui évoluent dans le temps et par individu. En utilisant un modèle à erreurs composées doubles, l'estimateur des moindres carrés ordinaires et la méthode de bootstrap des résidus, on montre que le rééchantillonnage dans la seule dimension individuelle est valide pour l'inférence sur les coe¢ cients associés aux régresseurs qui changent uniquement par individu. Le rééchantillonnage dans la dimen- sion temporelle est valide seulement pour le sous vecteur des paramètres associés aux régresseurs qui évoluent uniquement dans le temps. Le double rééchantillonnage est quand à lui est valide pour faire de l inférence pour tout le vecteur des paramètres. Le troisième chapitre re-examine l exercice de l estimateur de différence en di¤érence de Bertrand, Duflo et Mullainathan (2004). Cet estimateur est couramment utilisé dans la littérature pour évaluer l impact de certaines poli- tiques publiques. L exercice empirique utilise des données de panel provenant du Current Population Survey sur le salaire des femmes dans les 50 états des Etats-Unis d Amérique de 1979 à 1999. Des variables de pseudo-interventions publiques au niveau des états sont générées et on s attend à ce que les tests arrivent à la conclusion qu il n y a pas d e¤et de ces politiques placebos sur le salaire des femmes. Bertrand, Du o et Mullainathan (2004) montre que la non-prise en compte de l hétérogénéité et de la dépendance temporelle entraîne d importantes distorsions de niveau de test lorsqu'on évalue l'impact de politiques publiques en utilisant des données de panel. Une des solutions préconisées est d utiliser la méthode de bootstrap. La méthode de double ré-échantillonnage développée dans cette thèse permet de corriger le problème de niveau de test et donc d'évaluer correctement l'impact des politiques publiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire est une partie d’un programme de recherche qui étudie la superintégrabilité des systèmes avec spin. Plus particulièrement, nous nous intéressons à un hamiltonien avec interaction spin-orbite en trois dimensions admettant une intégrale du mouvement qui est un polynôme matriciel d’ordre deux dans l’impulsion. Puisque nous considérons un hamiltonien invariant sous rotation et sous parité, nous classifions les intégrales du mouvement selon des multiplets irréductibles de O(3). Nous calculons le commutateur entre l’hamiltonien et un opérateur général d’ordre deux dans l’impulsion scalaire, pseudoscalaire, vecteur et pseudovecteur. Nous donnons la classification complète des systèmes admettant des intégrales du mouvement scalaire et vectorielle. Nous trouvons une condition nécessaire à remplir pour le potentiel sous forme d’une équation différentielle pour les cas pseudo-scalaire et pseudo-vectoriel. Nous utilisons la réduction par symétrie pour obtenir des solutions particulières de ces équations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le récepteur nucléaire Nr5a2, également connu sous le nom de liver receptor homolog-1 (Lrh-1), est exprimé au niveau de l’ovaire chez la souris, exclusivement dans les cellules lutéales et de la granulosa. La perturbation de Nr5a2, spécifique aux cellules de la granulosa chez la souris à partir des follicules primaires dans la trajectoire du développement folliculaire a démontré que Nr5a2 est un régulateur clé de l’ovulation et de la fertilité chez la femelle. Notre hypothèse veut que Nr5a2 régule les évènements péri- et post-ovulatoires dans une séquence temporelle lors de la folliculogénèse. Afin d'étudier l’implication de Nr5a2 lors de l’ovulation et de la lutéinisation à différents stades du développement folliculaire, nous avons généré deux modèles de souris knockout spécifiques aux cellules de la granulosa pour Nr5a2: 1) Nr5a2Amhr2-/-, avec une réduction de Nr5a2 à partir des follicules primaires et subséquents; 2) Nr5a2Cyp19-/-, avec une réduction de Nr5a2 débutant au stade antral de développement en progressant. L’absence de Nr5a2 à partir des follicules antraux a résulté en une infertilité chez les femelles Nr5a2Cyp19-/-, de même qu’en des structures non-fonctionnelles similaires aux structures lutéales au niveau des ovaires, en une réduction des niveaux de progestérone synthétisée ainsi qu’en un échec dans le support d’une pseudo-gestation. La synthèse de progestérone a été entravée suite à l’absence de Nr5a2 par l’entremise d’une régulation à la baisse des gènes reliés au transport du cholestérol, Scarb1, StAR et Ldlr, démontré par qPCR. Les complexes cumulus-oocytes des femelles Nr5a2Cyp19-/- immatures super-stimulées ont subi une expansion in vivo, mais l’ovulation a été perturbée, possiblement par une régulation à la baisse du gène du récepteur de la progestérone (Pgr). Un essai d’expansion du cumulus in vitro a démontré une expansion défectueuse du cumulus chez les Nr5a2Amhr2-/-, associée à un dérèglement de la protéine des jonctions communicantes (Gja1; Cx43). Cependant, l’expansion du cumulus chez les Nr5a2Cyp19-/- n’a pas été autant affectée. Des résultats obtenus par qPCR ont démontré une régulation à la baisse dans l’expression des gènes Areg, Ereg, Btc et Tnfaip6 chez les deux modèles de cellules ovariennes knockout à 2h et 4h post hCG. Nous avons observé que 85% des oocytes, chez les deux génotypes mutants, peuvent subir une rupture de la vésicule germinative, confirmant leur capacité de maturation in vivo. La technique d’injection intra-cytoplasmique de spermatozoïdes a prouvé que les oocytes des deux génotypes mutants sont fertilisables et que 70% des embryons résultants ont poursuivi leur développement vers le stade de blastocyste, et ce, indépendamment du génotype. En conclusion, Nr5a2 régule la fertilité chez les femelles tout au long du processus du développement folliculaire. Il a été démontré que Nr5a2 est essentiel à la lutéinisation et que sa perturbation dans les cellules somatiques ovariennes ne compromet pas la capacité des oocytes à être fertilisés. En vue d’ensemble, nous avons fourni une investigation inédite et complète, utilisant de multiples modèles et techniques afin de déterminer les mécanismes par lesquels Nr5a2 régule les importants processus que sont l’expansion du cumulus, l’ovulation ainsi que la formation du corps jaune.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’alchimie, science de la manipulation des influences spirituelles par une métallurgie sacrée, et la pataphysique, esthétique pseudo-scientifique associant l'ésotérisme à l'humour, sont les deux principaux fondements idéologiques qui unissent Marcel Duchamp et Roberto Matta. Tandis que Duchamp s'intéresse déjà à l'ésotérisme dès 1910, soit près d'une vingtaine d'années avant sa rencontre avec Matta. Ce dernier aborde, dans sa production, des thèmes propres à la littérature alchimique, soit les opérations occultes, les états merveilleux de la matière et les appareils de laboratoire. De plus, les écrivains symbolistes et pseudo-scientifiques, lus par Duchamp, puis par Matta, influencent l'humour pataphysique, teinté d'ésotérisme, qui s'exprime dans la production de ces deux artistes. Ainsi, Les Célibataires, vingt ans plus tard, est une huile sur toile, réalisée en 1943, par Roberto Matta, qui représente un paysage cosmique, composé d'astres et de trous noirs, de trois alambics et d'une grande machine noire. Dans cette œuvre, Matta réinterprète très librement certains éléments du Grand verre, une peinture sur verre de Marcel Duchamp, laissée inachevée en 1923. Le présent mémoire de maîtrise étudie l'influence de l'alchimie et de l'iconographie duchampienne sur Les Célibataires, vingt ans plus tard. Dans un premier temps, cette étude vise à mettre en exergue et à examiner les influences alchimiques et pataphysiques dans l'œuvre de Matta. Dans un deuxième temps, notre mémoire vise à démontrer comment l'œuvre de Matta s'intègre dans le projet surréaliste de création d'un mythe nouveau, dans la continuité du projet duchampien.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le manuscrit constituant l'annexe 1 a été publié en décembre 2013 sous la référence : Vaccine. 2013 Dec 9;31(51):6087-91.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le sujet principal de cette thèse porte sur l'étude de l'estimation de la variance d'une statistique basée sur des données d'enquête imputées via le bootstrap (ou la méthode de Cyrano). L'application d'une méthode bootstrap conçue pour des données d'enquête complètes (en absence de non-réponse) en présence de valeurs imputées et faire comme si celles-ci étaient de vraies observations peut conduire à une sous-estimation de la variance. Dans ce contexte, Shao et Sitter (1996) ont introduit une procédure bootstrap dans laquelle la variable étudiée et l'indicateur de réponse sont rééchantillonnés ensemble et les non-répondants bootstrap sont imputés de la même manière qu'est traité l'échantillon original. L'estimation bootstrap de la variance obtenue est valide lorsque la fraction de sondage est faible. Dans le chapitre 1, nous commençons par faire une revue des méthodes bootstrap existantes pour les données d'enquête (complètes et imputées) et les présentons dans un cadre unifié pour la première fois dans la littérature. Dans le chapitre 2, nous introduisons une nouvelle procédure bootstrap pour estimer la variance sous l'approche du modèle de non-réponse lorsque le mécanisme de non-réponse uniforme est présumé. En utilisant seulement les informations sur le taux de réponse, contrairement à Shao et Sitter (1996) qui nécessite l'indicateur de réponse individuelle, l'indicateur de réponse bootstrap est généré pour chaque échantillon bootstrap menant à un estimateur bootstrap de la variance valide même pour les fractions de sondage non-négligeables. Dans le chapitre 3, nous étudions les approches bootstrap par pseudo-population et nous considérons une classe plus générale de mécanismes de non-réponse. Nous développons deux procédures bootstrap par pseudo-population pour estimer la variance d'un estimateur imputé par rapport à l'approche du modèle de non-réponse et à celle du modèle d'imputation. Ces procédures sont également valides même pour des fractions de sondage non-négligeables.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un protocole inspiré du test de simulation 309 de l’Organisation de coopération et de développement économiques (OCDE) nous a permis de mesurer la dégradation chimique (excluant la photolyse) dans des eaux de surface de même que la dégradation chimique et biologique de neuf contaminants émergents dans l’effluent d’un décanteur primaire d’eau usée municipale. Les données étaient compatibles avec le modèle de cinétique de pseudo ordre un. Les résultats démontrant une persistance de plus d’un an dans les eaux de surface et de 71 jours dans l’effluent du décanteur primaire suggèrent que les dégradations chimique et biologique ne contribuent pas significativement à la diminution de: atrazine, déséthylatrazine, carbamazépine et diclofénac dans la phase aqueuse des systèmes testés. Les autres composés se sont dégradés à différents niveaux. Le 17ß-estradiol ainsi que l’éthinylestradiol, la noréthindrone, la caféine et le sulfaméthoxazole ont tous été sujet à la dégradation biologique dans les effluents du décanteur primaire d’eau usée avec des constantes de dégradation k et des demi-vies t1/2 mesurées allant respectivement de 0.0082 à 0.59 j-1 et de 1.2 à 85 jours. Les paramètres de cinétique mesurés peuvent être combinés aux concentrations typiques des composés à l’étude dans un décanteur primaire d’eau usée pour y calculer leur vitesse de dégradation. Cependant, puisque les décanteurs primaires dans les usines de traitement d’eaux usées ont généralement des temps de résidence de quelques heures seulement, il est improbable que les neufs contaminants émergents à l’étude diminuent significativement par ces processus durant leur passage dans le compartiment.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il existe plusieurs défis au développement d’une thérapie visant à stimuler l’immunité cellulaire. Dans la prévention contre certains virus et en immunothérapie du cancer, l’induction de lymphocytes T spécifiques est cependant primordiale. Dans la première partie de l’étude, nous avons porté notre attention sur la compréhension de la présentation croisée par le complexe majeur d’histocompatibilité de classe I (CMH I) médiée par des particules pseudo-virales (VLP) composées de la protéine de surface de potexvirus à laquelle nous avons ajouté un épitope de la protéine M1 du virus de l’influenza ou un épitope de la protéine gp100 du mélanome. Cette VLP se caractérise par sa capacité à stimuler, sans l’aide d’adjuvant, le système immunitaire et de présenter de façon croisée l’épitope inséré dans sa protéine de surface et ce, indépendamment de l’activité du protéasome. Nous avons, tout d’abord, comparé les propriétés de présentation antigénique croisée des VLP formées du virus de la mosaïque de la malva (MaMV) à celles des VLP du virus de la mosaïque de la papaye (PapMV). Les résultats confirment que ces propriétés sont partagées par plusieurs membres de la famille des potexvirus malgré des divergences de séquences (Hanafi et al. Vaccine 2010). De plus, nous avons procédé à des expériences pour préciser le mécanisme menant à la présentation de l’épitope inséré dans les VLP de PapMV. Les résultats nous confirment une voie vacuolaire dépendante de l’activité de la cathepsine S et de l’acidification des lysosomes pour l’apprêtement antigénique. L’induction de l’autophagie par les VLP semble également nécessaire à la présentation croisée par les VLP de PapMV. Nous avons donc établi un nouveau mécanisme de présentation croisée vacuolaire dépendant de l’autophagie (Hanafi et al. soumis Autophagy). En second lieu, en immunothérapie du cancer, il est aussi important de contrôler les mécanismes d’évasion immunitaire mis en branle par la tumeur. Nous avons spécifiquement étudié l’enzyme immunosuppressive indoleamine 2,3-dioxygénase (IDO) (revue de la littérature dans les tumeurs humaines; Hanafi et al. Clin. Can. Res 2011) et son inhibition dans les cellules tumorales. Pour ce faire, nous avons tenté d’inhiber son expression par la fludarabine, agent chimiothérapeutique précédemment étudié pour son activité inhibitrice de l’activation de STAT1 (signal transducers and activators of transcription 1). Étonnamment, nos résultats ont montré l’inhibition d’IDO dans les cellules tumorales par la fludarabine, indépendamment de l’inhibition de la phosphorylation de STAT1. Nous avons démontré que le mécanisme d’action dépendait plutôt de l’induction de la dégradation d’IDO par le protéasome (Hanafi et al. PlosOne 2014). Les travaux présentés dans cette thèse ont donc portés autant sur la compréhension d’une nouvelle plateforme de vaccination pouvant médier l’activation de lymphocytes T CD8+ cytotoxiques et sur le contrôle d’une immunosuppression établie par les cellules tumorales pour évader au système immunitaire. Ces deux grandes stratégies sont à considérer en immunothérapie du cancer et la combinaison avec d’autres thérapies déjà existantes pourra permettre une meilleure réponse clinique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire traite de la question suivante: est-ce que les cobordismes lagrangiens préservent l'uniréglage? Dans les deux premiers chapitres, on présente en survol la théorie des courbes pseudo-holomorphes nécessaire. On examine d'abord en détail la preuve que les espaces de courbes $ J $-holomorphes simples est une variété de dimension finie. On présente ensuite les résultats nécessaires à la compactification de ces espaces pour arriver à la définition des invariants de Gromov-Witten. Le troisième chapitre traite ensuite de quelques résultats sur la propriété d'uniréglage, ce qu'elle entraine et comment elle peut être démontrée. Le quatrième chapitre est consacré à la définition et la description de l'homologie quantique, en particulier celle des cobordismes lagrangiens, ainsi que sa structure d'anneau et de module qui sont finalement utilisées dans le dernier chapitre pour présenter quelques cas ou la conjecture tient.