985 resultados para Modèle de Fortuin-Kasteleyn


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Par la sécrétion d’adipokines, le tissu adipeux blanc viscéral présent chez des patients souffrant d’obésité promeut l’installation d’altérations métaboliques telles que l’intolérance au glucose, la résistance à l’insuline et le diabète de type 2. Les complications cardiovasculaires, en particulier l’athérosclérose, sont les principales causes de mortalité chez les patients atteints de diabète de type 2. Il a été démontré que la fraction vasculaire stromale du tissu adipeux est composée de cellules régénératives dérivées du tissu adipeux (CRTA) et que ces cellules possèdent des caractéristiques des cellules progénitrices stromales (CPS). L’impact de l’intolérance au glucose et du diabète de type 2 sur les adipocytes sont assez bien documentés. Par contre, les conséquences de ces pathologies sur le comportement des CRTA n’ont pas été mesurées d’une façon approfondie. Plus particulièrement, l’impact de ces altérations métaboliques sur le potentiel de différenciation des CRTA en adipocytes et en cellules endothéliales n’a pas été étudié. Ce projet a pour but d’évaluer, dans un modèle murin, l’effet de ces altérations métaboliques sur l’équilibre de la différenciation in vitro des CRTA en adipocytes ou en cellules endothéliales. L’intolérance au glucose et le diabète de type 2 ont été induit chez les souris par la prise de deux diètes riches en acides gras de provenance végétale (DV) ou animale (DA). L’impact de l’origine des acides gras sur la différenciation des CRTA a également été étudié. Pour ce faire, une mise au point de la culture cellulaire des CRTA s’est avérée nécessaire et compte pour une partie de ces travaux de maîtrise. Nos travaux ont démontré en premier lieu, que le DMSO est un agent qui conserve la viabilité et les propriétés progénitrices des CRTA suite à leur congélation. De plus, parmi les matrices testées, le collagène s’est avéré être celle qui conserve le mieux les caractéristiques des progéniteurs et même, qui enrichie la population cellulaire ensemencée en cellules progénitrices. La densité cellulaire des cellules non-adipeuses du tissu adipeux s’avère être significativement plus élevée chez les souris du groupe de la DV comparativement aux souris contrôles. De plus, l’évaluation in vitro de la différenciation adipogénique démontre un potentiel de différenciation plus important pour les CRTA provenant des souris de la DV par rapport au groupe contrôle et à la DA. Cependant, la différenciation en cellules endothéliales est inhibée chez les CRTA de la DV, comparativement à un retard de ce processus pour la DA. Nos travaux suggèrent que le potentiel de différenciation adipogénique et endothéliale des CRTA est affecté par le statut métabolique des souris ainsi que par la nature de la diète. Ces résultats mettent en lumière pour la première fois l’importance d’évaluer le comportement des CRTA en fonction du statut métabolique du donneur, un paramètre pouvant avoir un impact majeur dans l’utilisation des CRTA autologues en thérapie cellulaire pour la réparation de tissus vasculaires chez des patients diabétiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

On présente une nouvelle approche de simulation pour la fonction de densité conjointe du surplus avant la ruine et du déficit au moment de la ruine, pour des modèles de risque déterminés par des subordinateurs de Lévy. Cette approche s'inspire de la décomposition "Ladder height" pour la probabilité de ruine dans le Modèle Classique. Ce modèle, déterminé par un processus de Poisson composé, est un cas particulier du modèle plus général déterminé par un subordinateur, pour lequel la décomposition "Ladder height" de la probabilité de ruine s'applique aussi. La Fonction de Pénalité Escomptée, encore appelée Fonction Gerber-Shiu (Fonction GS), a apporté une approche unificatrice dans l'étude des quantités liées à l'événement de la ruine été introduite. La probabilité de ruine et la fonction de densité conjointe du surplus avant la ruine et du déficit au moment de la ruine sont des cas particuliers de la Fonction GS. On retrouve, dans la littérature, des expressions pour exprimer ces deux quantités, mais elles sont difficilement exploitables de par leurs formes de séries infinies de convolutions sans formes analytiques fermées. Cependant, puisqu'elles sont dérivées de la Fonction GS, les expressions pour les deux quantités partagent une certaine ressemblance qui nous permet de nous inspirer de la décomposition "Ladder height" de la probabilité de ruine pour dériver une approche de simulation pour cette fonction de densité conjointe. On présente une introduction détaillée des modèles de risque que nous étudions dans ce mémoire et pour lesquels il est possible de réaliser la simulation. Afin de motiver ce travail, on introduit brièvement le vaste domaine des mesures de risque, afin d'en calculer quelques unes pour ces modèles de risque. Ce travail contribue à une meilleure compréhension du comportement des modèles de risques déterminés par des subordinateurs face à l'éventualité de la ruine, puisqu'il apporte un point de vue numérique absent de la littérature.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de cette étude de cas multiples est d’identifier les facteurs associés à l’intégration de l’approche écologique dans la programmation de prévention-promotion (PP) offerte aux aînés par des organisations locales de santé du Québec. Le modèle de Scheirer a guidé l’étude réalisée dans cinq CSSS choisis en fonction de la dimension écologique de leur programmation PP. Une analyse documentaire et des entretiens semi-dirigés auprès de 38 professionnels et gestionnaires ont constitué la stratégie de collecte de données. Trois catégories de facteurs ont été examinées : les facteurs professionnels, organisationnels et environnementaux. Les résultats suggèrent que les normes organisationnelles, les priorités concurrentes, la structure des équipes, les partenariats avec l’environnement externe, les préjugés, de même que la formation et l’intérêt du personnel influencent le degré d’intégration de l’approche écologique au sein des programmations. Ces résultats permettront de dégager des leviers d'action en vue d’optimiser l’offre de services en prévention-promotion destinée aux aînés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le développement logiciel en industrie, les documents de spécification jouent un rôle important pour la communication entre les analystes et les développeurs. Cependant, avec le temps, les changements de personel et les échéances toujours plus courtes, ces documents sont souvent obsolètes ou incohérents avec l'état effectif du système, i.e., son code source. Pourtant, il est nécessaire que les composants du système logiciel soient conservés à jour et cohérents avec leurs documents de spécifications pour faciliter leur développement et maintenance et, ainsi, pour en réduire les coûts. Maintenir la cohérence entre spécification et code source nécessite de pouvoir représenter les changements sur les uns et les autres et de pouvoir appliquer ces changements de manière cohérente et automatique. Nous proposons une solution permettant de décrire une représentation d'un logiciel ainsi qu'un formalisme mathématique permettant de décrire et de manipuler l'évolution des composants de ces représentations. Le formalisme est basé sur les triplets de Hoare pour représenter les transformations et sur la théorie des groupes et des homomorphismes de groupes pour manipuler ces transformations et permettrent leur application sur les différentes représentations du système. Nous illustrons notre formalisme sur deux représentations d'un système logiciel : PADL, une représentation architecturale de haut niveau (semblable à UML), et JCT, un arbre de syntaxe abstrait basé sur Java. Nous définissons également des transformations représentant l'évolution de ces représentations et la transposition permettant de reporter les transformations d'une représentation sur l'autre. Enfin, nous avons développé et décrivons brièvement une implémentation de notre illustration, un plugiciel pour l'IDE Eclipse détectant les transformations effectuées sur le code par les développeurs et un générateur de code pour l'intégration de nouvelles représentations dans l'implémentation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une nouvelle notion d'enlacement pour les paires d'ensembles $A\subset B$, $P\subset Q$ dans un espace de Hilbert de type $X=Y\oplus Y^{\perp}$ avec $Y$ séparable, appellée $\tau$-enlacement, est définie. Le modèle pour cette définition est la généralisation de l'enlacement homotopique et de l'enlacement au sens de Benci-Rabinowitz faite par Frigon. En utilisant la théorie du degré développée dans un article de Kryszewski et Szulkin, plusieurs exemples de paires $\tau$-enlacées sont donnés. Un lemme de déformation est établi et utilisé conjointement à la notion de $\tau$-enlacement pour prouver un théorème d'existence de point critique pour une certaine classe de fonctionnelles sur $X$. De plus, une caractérisation de type minimax de la valeur critique correspondante est donnée. Comme corollaire de ce théorème, des conditions sont énoncées sous lesquelles l'existence de deux points critiques distincts est garantie. Deux autres théorèmes de point critiques sont démontrés dont l'un généralise le théorème principal de l'article de Kryszewski et Szulkin mentionné ci-haut.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avant-propos: La résolution de conflits s’est installée dans les cursus universitaires comme une discipline à part entière sinon comme une orientation au sein de plusieurs sciences sociales. En effet, ce champ d’étude fait de plus en plus l’objet de réflexions en sciences politiques, en sociologie, en anthropologie, etc, et ce, de par l’interdisciplinarité des questionnements qui en relèvent. Toutefois, la dimension religieuse, souvent considérée comme source de conflits, est quasi inexistante lorsqu’il est question d’approches de résolution. Nous nous proposons donc d’examiner la solha, une pratique proche orientale au sein de laquelle le fait religieux est une composante essentielle à la réconciliation escomptée. Note concernant la translittération: Les termes provenant de l’arabe feront l’objet d’une translittération phonétique basée sur le français. Notez que les translittérations en langue française sont différentes de celle en langue anglaise. Par exemple, le terme solha trouvera son équivalent anglais dans le terme sulha (d’où la différence d’orthographe entre le contenu de cette étude et les citations qui proviennent d’articles anglophones). De plus, notez que le genre (féminin, masculin) des termes translittérés reprendra celui de la langue d’origine, l’arabe. Ainsi, solha sera féminin, jaha aussi, etc… Finalement, pour des raisons de clarté, les termes translittérés seront tous en italique dans le texte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La réduction importante de l'aide internationale au développement et le processus de mondialisation ont fait en sorte que les investissements étrangers directs (IBD) sont considérés de nos jours comme une source importante de capital et de croissance économique dans un pays d'accueil comme la Serbie. Les IBD sont réputés stimuler la concurrence, l'innovation, l'épargne, la création d'emplois et le développement des ressources humaines dans les pays les plus pauvres et ceux en transition. Les institutions internationales encouragent la promotion des IBD dans tels pays et incitent leurs gouvernements à œuvrer à leur promotion active en tant que localité attrayante pour les obtenir. Il existe aussi un consensus selon lequel les investisseurs étrangers sont attirés par les pays dont le système juridique est stable et prévisible et qui réglemente l'économie selon le modèle d'une économie de marché. Si les réformes juridiques sont incontestablement importantes pour attirer les IBD, notre étude cherche à vérifier quel est le véritable impact du droit interne et des institutions étatiques du pays d'accueil sur l'établissement des entreprises étrangères et sur l'exercice de leur activité économique dans ce pays. Il s'agit de voir de quelle manière la présence des investisseurs étrangers contribue à la consolidation de l'État de droit dans le pays d'accueil. Pour analyser ces questions de plus près, nous avons choisi l'étude de cas de la Serbie, dont le système juridique est en chantier depuis le changement de régime en 2000. Notre hypothèse de travail a supposé que l'instauration de l'État de droit était importante pour l'implantation des investisseurs étrangers dans le pays, car les institutions étatiques et juridiques pourraient offrir des garanties pour le bon déroulement de l'activité économique étrangère. Après avoir étudié le cas de la Serbie, il y a lieu de conclure que la réforme du cadre juridique interne joue un rôle important, mais toutefois non déterminant dans le choix de la localisation d'un investissement étranger. Notre étude montre que la motivation en matière d'investissement ne tient généralement pas compte de la normativité juridique comme facteur à considérer, c'est-à-dire parmi les facteurs définis par la théorie du OLI Paradigm de John Dunning. Toutefois, ce facteur joue un rôle politique par le fait qu'il est véhiculé dans le droit international et dans le discours des organisations internationales. Les investisseurs demeurent également attentifs à la législation pouvant influencer leur propre activité économique. Nos entretiens ont révélé l'existence d'une véritable volonté de la part des investisseurs de favoriser les réformes juridiques du pays d'accueil. Leur perception du cadre juridique favorable au plan économique peut éventuellement jouer un certain rôle dans la transformation de l'État de droit et des institutions juridiques du pays d'accueil. Mais les entrepreneurs n'attendent pas un cadre juridique reformé dans le pays d'accueil pour décider d'y investir. En résumé, l'amélioration des institutions de l'État de droit concerne au premier chef des services sociaux de qualité et des meilleures conditions économiques pour ses citoyens. La promotion des IBD dans le pays ne constitue pas un objectif en soi mais s'inscrit dans la politique d'un État de droit en tant qu'outil indispensable de réformes et constitue un facteur favorable au développement économique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les avancés dans le domaine de l’intelligence artificielle, permettent à des systèmes informatiques de résoudre des tâches de plus en plus complexes liées par exemple à la vision, à la compréhension de signaux sonores ou au traitement de la langue. Parmi les modèles existants, on retrouve les Réseaux de Neurones Artificiels (RNA), dont la popularité a fait un grand bond en avant avec la découverte de Hinton et al. [22], soit l’utilisation de Machines de Boltzmann Restreintes (RBM) pour un pré-entraînement non-supervisé couche après couche, facilitant grandement l’entraînement supervisé du réseau à plusieurs couches cachées (DBN), entraînement qui s’avérait jusqu’alors très difficile à réussir. Depuis cette découverte, des chercheurs ont étudié l’efficacité de nouvelles stratégies de pré-entraînement, telles que l’empilement d’auto-encodeurs traditionnels(SAE) [5, 38], et l’empilement d’auto-encodeur débruiteur (SDAE) [44]. C’est dans ce contexte qu’a débuté la présente étude. Après un bref passage en revue des notions de base du domaine de l’apprentissage machine et des méthodes de pré-entraînement employées jusqu’à présent avec les modules RBM, AE et DAE, nous avons approfondi notre compréhension du pré-entraînement de type SDAE, exploré ses différentes propriétés et étudié des variantes de SDAE comme stratégie d’initialisation d’architecture profonde. Nous avons ainsi pu, entre autres choses, mettre en lumière l’influence du niveau de bruit, du nombre de couches et du nombre d’unités cachées sur l’erreur de généralisation du SDAE. Nous avons constaté une amélioration de la performance sur la tâche supervisée avec l’utilisation des bruits poivre et sel (PS) et gaussien (GS), bruits s’avérant mieux justifiés que celui utilisé jusqu’à présent, soit le masque à zéro (MN). De plus, nous avons démontré que la performance profitait d’une emphase imposée sur la reconstruction des données corrompues durant l’entraînement des différents DAE. Nos travaux ont aussi permis de révéler que le DAE était en mesure d’apprendre, sur des images naturelles, des filtres semblables à ceux retrouvés dans les cellules V1 du cortex visuel, soit des filtres détecteurs de bordures. Nous aurons par ailleurs pu montrer que les représentations apprises du SDAE, composées des caractéristiques ainsi extraites, s’avéraient fort utiles à l’apprentissage d’une machine à vecteurs de support (SVM) linéaire ou à noyau gaussien, améliorant grandement sa performance de généralisation. Aussi, nous aurons observé que similairement au DBN, et contrairement au SAE, le SDAE possédait une bonne capacité en tant que modèle générateur. Nous avons également ouvert la porte à de nouvelles stratégies de pré-entraînement et découvert le potentiel de l’une d’entre elles, soit l’empilement d’auto-encodeurs rebruiteurs (SRAE).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Alors que dans les sociétés de l’Afrique de l’Ouest, le mariage représente traditionnellement le point de départ de la séquence des événements démographiques associés à la formation de la famille, aujourd’hui cette séquence s’est complexifiée. Suite à l’effritement des modes traditionnels du passage à l’âge adulte, les jeunes citadins reportent leur mariage, le contexte de l’initiation sexuelle est plus fréquemment prénuptial et le nombre de naissances hors mariage semble augmenter. Peu d’études se sont penchées sur l’analyse de la séquence de ces événements sous l’angle du parcours individuel. L’objectif central de ce mémoire est d’explorer, de décrire et d’expliquer les changements survenus dans les parcours d’entrée en vie féconde des femmes durant leur jeunesse en utilisant comme unité d’analyse l’entièreté des parcours. Utilisant les données EDS du Burkina Faso, nous synthétisons en parcours, sous forme des séquences d’épisodes, les calendriers du premier rapport sexuel, de la première union et de la première naissance. Avec l’analyse séquentielle, nous identifions quatre catégories de parcours : nuptial, sexualité prénuptiale, maternité prénuptiale et célibataires. La méthode permet également une catégorisation plus fine des parcours et une visualisation de modèles de transitions. Nous analysons ensuite l’association entre les caractéristiques individuelles et les parcours suivis grâce à des modèles multinomiaux. Nos résultats confirment l’augmentation des parcours non nuptiaux auprès des jeunes. De plus, ils montrent qu’un niveau de scolarité plus élevé augmente la probabilité de suivre un parcours non-traditionnel, notamment chez les femmes urbaines, le milieu de socialisation à l’enfance ayant aussi un effet sur le choix du parcours.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ: Selon Kant, il faut rendre la Critique plus compréhensible. Cela revient à doter son exposition d’un plus haut degré de lucidité (Helligkeit), c’est-à-dire combiner la clarté discursive avec une clarté intuitive. Pour ce faire, nous représentons les grandes lignes de la structure discursive de la Critique sous la forme d’un modèle emprunté à la description de la formation du caractère moral esquissé dans l’Anthropologie. Ainsi, la raison est d’abord régie par son « instinct de connaissance » (Wißbegierde, Erkenntnistrieb), qui la plonge dans un état de vacillement (Schwankender Zustand). Ensuite, elle réagit par du dégoût (Überdruß), ce rejet ouvrant la voie à l’introspection (Selbsterkenntnis) proprement critique. La raison entreprend alors une révolution de son mode de pensée spéculatif (Revolution der Denkungsart) consistant à passer, sous l’égide du devoir moral (Pflicht), de la malhonnêteté à l’honnêteté, envers soi-même ainsi qu’envers autrui. Il s’agit, en un mot, d’une « renaissance » (Wiedergeburt) morale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les hydrogels de polysaccharide sont des biomatériaux utilisés comme matrices à libération contrôlée de médicaments et comme structures modèles pour l’étude de nombreux systèmes biologiques dont les biofilms bactériens et les mucus. Dans tous les cas, le transport de médicaments ou de nutriments à l’intérieur d’une matrice d’hydrogel joue un rôle de premier plan. Ainsi, l’étude des propriétés de transport dans les hydrogels s’avère un enjeu très important au niveau de plusieurs applications. Dans cet ouvrage, le curdlan, un polysaccharide neutre d’origine bactérienne et formé d’unités répétitives β-D-(1→3) glucose, est utilisé comme hydrogel modèle. Le curdlan a la propriété de former des thermogels de différentes conformations selon la température à laquelle une suspension aqueuse est incubée. La caractérisation in situ de la formation des hydrogels de curdlan thermoréversibles et thermo-irréversibles a tout d’abord été réalisée par spectroscopie infrarouge à transformée de Fourier (FT-IR) en mode réflexion totale atténuée à température variable. Les résultats ont permis d’optimiser les conditions de gélation, menant ainsi à la formation reproductible des hydrogels. Les caractérisations structurales des hydrogels hydratés, réalisées par imagerie FT-IR, par microscopie électronique à balayage en mode environnemental (eSEM) et par microscopie à force atomique (AFM), ont permis de visualiser les différentes morphologies susceptibles d’influencer la diffusion d’analytes dans les gels. Nos résultats montrent que les deux types d’hydrogels de curdlan ont des architectures distinctes à l’échelle microscopique. La combinaison de la spectroscopie de résonance magnétique nucléaire (RMN) à gradients pulsés et de l’imagerie RMN a permis d’étudier l’autodiffusion et la diffusion mutuelle sur un même système dans des conditions expérimentales similaires. Nous avons observé que la diffusion des molécules dans les gels est ralentie par rapport à celle mesurée en solution aqueuse. Les mesures d’autodiffusion, effectuées sur une série d’analytes de diverses tailles dans les deux types d’hydrogels de curdlan, montrent que le coefficient d’autodiffusion relatif décroit en fonction de la taille de l’analyte. De plus, nos résultats suggèrent que l’équivalence entre les coefficients d’autodiffusion et de diffusion mutuelle dans les hydrogels de curdlan thermo-irréversibles est principalement due au fait que l’environnement sondé par les analytes durant une expérience d’autodiffusion est représentatif de celui exploré durant une expérience de diffusion mutuelle. Dans de telles conditions, nos résultats montrent que la RMN à gradients pulsés peut s’avérer une approche très avantageuse afin de caractériser des systèmes à libération contrôlée de médicaments. D’autres expériences de diffusion mutuelle, menées sur une macromolécule de dextran, montrent un coefficient de diffusion mutuelle inférieur au coefficient d’autodiffusion sur un même gel de curdlan. L’écart mesuré entre les deux modes de transport est attribué au volume différent de l’environnement sondé durant les deux mesures. Les coefficients d’autodiffusion et de diffusion mutuelle similaires, mesurés dans les deux types de gels de curdlan pour les différents analytes étudiés, suggèrent une influence limitée de l’architecture microscopique de ces gels sur leurs propriétés de transport. Il est conclu que les interactions affectant la diffusion des analytes étudiés dans les hydrogels de curdlan se situent à l’échelle moléculaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La technique du laser femtoseconde (fs) a été précédemment utilisée pour la production de nanoparticules d'or dans un environnement aqueux biologiquement compatible. Au cours de ce travail de maîtrise, cette méthode a été investiguée en vue d'une application pour la fabrication de nanocristaux de médicament en utilisant le paclitaxel comme modèle. Deux procédés distincts de cette technologie à savoir l'ablation et la fragmentation ont été étudiés. L'influence de la puissance du laser, de point de focalisation, et de la durée du traitement sur la distribution de taille des particules obtenues ainsi que leur intégrité chimique a été évaluée. Les paramètres ont ainsi été optimisés pour la fabrication des nanoparticules. L’évaluation morphologique et chimique a été réalisée par microscopie électronique et spectroscopie infrarouge respectivement. L'état cristallin des nanoparticules de paclitaxel a été caractérisé par calorimétrie differentielle et diffraction des rayons X. L'optimisation du procédé de production de nanoparticules par laser fs a permis d'obtenir des nanocristaux de taille moyenne (400 nm, polydispersité ≤ 0,3). Cependant une dégradation non négligeable a été observée. La cristallinité du médicament a été maintenue durant la procédure de réduction de taille, mais le paclitaxel anhydre a été transformé en une forme hydratée. Les résultats de cette étude suggèrent que le laser fs peut générer des nanocristaux de principe actif. Cependant cette technique peut se révéler problématique pour des médicaments sensibles à la dégradation. Grâce à sa facilité d'utilisation et la possibilité de travailler avec des quantités restreintes de produit, le laser fs pourrait représenter une alternative valable pour la production de nanoparticules de médicaments peu solubles lors des phases initiales de développement préclinique. Mots-clés: paclitaxel, nanocristaux, laser femtoseconde, ablation, fragmentation

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La prise en charge efficace des maladies chroniques nécessite une implication accrue des patients dans la gestion de leurs soins et de leur état de santé. Le lien existant entre les caractéristiques organisationnelles de la 1ère ligne et la capacité des patients pour l’auto-soins étant peu documenté, l’objectif de ce mémoire est de mieux comprendre comment l’organisation de la 1ère ligne médicale peut influencer la capacité des personnes pour l’auto-soins d’une maladie chronique. Pour atteindre cet objectif, 776 patients atteints de maladie chronique ont été recrutés dans 33 cliniques ayant participé à une enquête organisationnelle. Ces patients ont répondu à un questionnaire sur l’auto-efficacité pour la gestion d’une maladie chronique à 0, 6 et 12 mois. Des analyses par régression hiérarchique à 3 niveaux ont permis de mesurer les liens entre les variables organisationnelles sélectionnées et la capacité perçue des patients pour l’auto-soins de leur maladie. Les résultats montrent que les caractéristiques organisationnelles ont peu d’effet sur l’auto-efficacité pour l’auto-soins en comparaison aux facteurs individuels, et que le soutien à l’auto-soins est peu présent dans les cliniques participantes sans égard à leurs attributs organisationnels. Bien qu’aucune des caractéristiques sélectionnées n’apparaisse significativement associée à l’auto-soins dans le modèle final, des associations significatives ont été observées en analyses bivariées. Ces résultats suggèrent que toutes les organisations de 1ère ligne doivent fournir un effort explicite pour mieux intégrer l’auto-soins dans les services de santé usuels et que la présence d’éléments organisationnels facilitateurs ne se traduit pas systématiquement par une provision accrue de soutien à l’auto-soins.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le récepteur A des peptides natriurétiques (NPRA) fait partie de la famille des guanylates cyclases membranaires. L’activation du NPRA par ses agonistes naturels, ANP et BNP, induit une production de GMPc qui est responsable de leur rôle dans l’homéostasie cardiovasculaire, l’inhibition de l’hypertrophie et de la fibrose cardiaques et la régulation de la lipolyse. Le NPRA est un homodimère non covalent composé d’un domaine extracellulaire de liaison du ligand (ECD), d’un unique domaine transmembranaire (TM), d’un domaine d’homologie aux kinases et d’un domaine guanylate cyclase. Bien que le NPRA ait un rôle physiologique important, les mécanismes moléculaires régissant son processus d’activation restent inconnus. Nous avons donc analysé les premières étapes du processus d’activation du NPRA. Nous avons d'abord étudié le rôle de la dimérisation des ECD dans l’activation du récepteur. Nous avons utilisé les techniques de liaison de radioligand, de FRET et de modélisation moléculaire, pour caractériser la liaison à l’ECD des agonistes naturels, d’un superagoniste et d’un antagoniste. L’ANP se lie à un dimère d’ECD préformé et la dimérisation spontanée est l’étape limitante du processus de liaison. De plus, comme le démontrent nos études de FRET, tous les peptides, incluant l’antagoniste, stabilisent le récepteur sous sa forme dimérique. Cependant, l’antagoniste A71915 stabilise le dimère d’ECD dans une conformation différente de celle induite par l’ANP. La dimérisation du NPRA semble donc nécessaire, mais non suffisante à l’activation du récepteur. L’état d’activation du NPRA dépend plutôt de l’orientation des sous unités dans le dimère. Nous avons ensuite étudié le mécanisme moléculaire de transduction du signal à travers la membrane. Plusieurs études ont suggéré que l’activation du NPRA implique un changement de conformation du domaine juxtamembranaire (JM). Cependant, les études de cristallographie de l’ECD soluble de NPRA n’ont pas permis de documenter la structure du JM et le changement de conformation impliqué dans la transduction du signal reste inconnu. Pour analyser ce changement de conformation, nous avons d’abord séquentiellement substitué les neuf acides aminés du JM par une cystéine. En étudiant la capacité des mutants à former des dimères covalents de façon constitutive ou induite par l’ANP, nous avons pu évaluer la proximité relative des résidus du JM, avant et après activation du NPRA. Ces résultats ont démontré la proximité élevée de certains résidus spécifiques et sont en contradiction avec les données cristallographiques. Nous avons également démontré que le domaine intracellulaire impose une contrainte conformationnelle au JM à l’état de base, qui est levée après liaison de l’ANP. En introduisant de 1 à 5 alanines dans l’hélice-α transmembranaire, nous avons montré qu’une rotation des TM de 40° induit une activation constitutive du NPRA. Le signal d’activation pourrait donc être transmis à travers la membrane par un mécanisme de rotation des TM. En utilisant nos données expérimentales, nous avons généré le premier modèle moléculaire illustrant la conformation active du NPRA, où les domaines JM et TM sont représentés. Dans son ensemble, cette étude apporte une meilleure compréhension des mécanismes moléculaires régissant les premières étapes du processus complexe d’activation du NPRA.