987 resultados para Approche deux phases


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans ce mémoire, nous étudions le problème de l'estimation de la variance pour les estimateurs par double dilatation et de calage pour l'échantillonnage à deux phases. Nous proposons d'utiliser une décomposition de la variance différente de celle habituellement utilisée dans l'échantillonnage à deux phases, ce qui mène à un estimateur de la variance simplifié. Nous étudions les conditions sous lesquelles les estimateurs simplifiés de la variance sont valides. Pour ce faire, nous considérons les cas particuliers suivants : (1) plan de Poisson à la deuxième phase, (2) plan à deux degrés, (3) plan aléatoire simple sans remise aux deux phases, (4) plan aléatoire simple sans remise à la deuxième phase. Nous montrons qu'une condition cruciale pour la validité des estimateurs simplifiés sous les plans (1) et (2) consiste à ce que la fraction de sondage utilisée pour la première phase soit négligeable (ou petite). Nous montrons sous les plans (3) et (4) que, pour certains estimateurs de calage, l'estimateur simplifié de la variance est valide lorsque la fraction de sondage à la première phase est petite en autant que la taille échantillonnale soit suffisamment grande. De plus, nous montrons que les estimateurs simplifiés de la variance peuvent être obtenus de manière alternative en utilisant l'approche renversée (Fay, 1991 et Shao et Steel, 1999). Finalement, nous effectuons des études par simulation dans le but d'appuyer les résultats théoriques.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'imputation est souvent utilisée dans les enquêtes pour traiter la non-réponse partielle. Il est bien connu que traiter les valeurs imputées comme des valeurs observées entraîne une sous-estimation importante de la variance des estimateurs ponctuels. Pour remédier à ce problème, plusieurs méthodes d'estimation de la variance ont été proposées dans la littérature, dont des méthodes adaptées de rééchantillonnage telles que le Bootstrap et le Jackknife. Nous définissons le concept de double-robustesse pour l'estimation ponctuelle et de variance sous l'approche par modèle de non-réponse et l'approche par modèle d'imputation. Nous mettons l'emphase sur l'estimation de la variance à l'aide du Jackknife qui est souvent utilisé dans la pratique. Nous étudions les propriétés de différents estimateurs de la variance à l'aide du Jackknife pour l'imputation par la régression déterministe ainsi qu'aléatoire. Nous nous penchons d'abord sur le cas de l'échantillon aléatoire simple. Les cas de l'échantillonnage stratifié et à probabilités inégales seront aussi étudiés. Une étude de simulation compare plusieurs méthodes d'estimation de variance à l'aide du Jackknife en terme de biais et de stabilité relative quand la fraction de sondage n'est pas négligeable. Finalement, nous établissons la normalité asymptotique des estimateurs imputés pour l'imputation par régression déterministe et aléatoire.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

The geodynamic forces acting in the Earth's interior manifest themselves in a variety of ways. Volcanoes are amongst the most impressive examples in this respect, but like with an iceberg, they only represent the tip of a more extensive system hidden underground. This system consists of a source region where melt forms and accumulates, feeder connections in which magma is transported towards the surface, and different reservoirs where it is stored before it eventually erupts to form a volcano. A magma represents a mixture of melt and crystals. The latter can be extracted from the source region, or form anywhere along the path towards their final crystallization place. They will retain information of the overall plumbing system. The host rocks of an intrusion, in contrast, provide information at the emplacement level. They record the effects of thermal and mechanical forces imposed by the magma. For a better understanding of the system, both parts - magmatic and metamorphic petrology - have to be integrated. I will demonstrate in my thesis that information from both is complementary. It is an iterative process, using constraints from one field to better constrain the other. Reading the history of the host rocks is not always straightforward. This is shown in chapter two, where a model for the formation of clustered garnets observed in the contact aureole is proposed. Fragments of garnets, older than the intrusive rocks are overgrown by garnet crystallizing due to the reheating during emplacement of the adjacent pluton. The formation of the clusters is therefore not a single event as generally assumed but the result of a two-stage process, namely the alteration of the old grains and the overgrowth and amalgamation of new garnet rims. This makes an important difference when applying petrological methods such as thermobarometry, geochronology or grain size distributions. The thermal conditions in the aureole are a strong function of the emplacement style of the pluton. therefore it is necessary to understand the pluton before drawing conclusions about its aureole. A study investigating the intrusive rocks by means of field, geochemical, geochronologi- cal and structural methods is presented in chapter three. This provided important information about the assembly of the intrusion, but also new insights on the nature of large, homogeneous plutons and the structure of the plumbing system in general. The incremental nature of the emplacement of the Western Adamello tonalité is documented, and the existence of an intermediate reservoir beneath homogeneous plutons is proposed. In chapter four it is demonstrated that information extracted from the host rock provides further constraints on the emplacement process of the intrusion. The temperatures obtain by combining field observations with phase petrology modeling are used together with thermal models to constrain the magmatic activity in the immediate intrusion. Instead of using the thermal models to control the petrology result, the inverse is done. The model parameters were changed until a match with the aureole temperatures was obtained. It is shown, that only a few combinations give a positive match and that temperature estimates from the aureole can constrain the frequency of ancient magmatic systems. In the fifth chapter, the Anisotropy of Magnetic Susceptibility of intrusive rocks is compared to 3D tomography. The obtained signal is a function of the shape and distribution of ferromagnetic grains, and is often used to infer flow directions of magma. It turns out that the signal is dominated by the shape of the magnetic crystals, and where they form tight clusters, also by their distribution. This is in good agreement with the predictions made in the theoretical and experimental literature. In the sixth chapter arguments for partial melting of host rock carbonates are presented. While at first very surprising, this is to be expected when considering the prior results from the intrusive study and experiments from the literature. Partial melting is documented by compelling microstructures, geochemical and structural data. The necessary conditions are far from extreme and this process might be more frequent than previously thought. The carbonate melt is highly mobile and can move along grain boundaries, infiltrating other rocks and ultimately alter the existing mineral assemblage. Finally, a mineralogical curiosity is presented in chapter seven. The mineral assemblage magne§site and calcite is in apparent equilibrium. It is well known that these two carbonates are not stable together in the system Ca0-Mg0-Fe0-C02. Indeed, magnesite and calcite should react to dolomite during metamorphism. The presented explanation for this '"forbidden" assemblage is, that a calcite melt infiltrated the magnesite bearing rock along grain boundaries and caused the peculiar microstructure. This is supported by isotopie disequilibrium between calcite and magnesite. A further implication of partially molten carbonates is, that the host rock drastically looses its strength so that its physical properties may be comparable to the ones of the intrusive rocks. This contrasting behavior of the host rock may ease the emplacement of the intrusion. We see that the circle closes and the iterative process of better constraining the emplacement could start again. - La Terre est en perpétuel mouvement et les forces tectoniques associées à ces mouvements se manifestent sous différentes formes. Les volcans en sont l'un des exemples les plus impressionnants, mais comme les icebergs, les laves émises en surfaces ne représentent que la pointe d'un vaste système caché dans les profondeurs. Ce système est constitué d'une région source, région où la roche source fond et produit le magma ; ce magma peut s'accumuler dans cette région source ou être transporté à travers différents conduits dans des réservoirs où le magma est stocké. Ce magma peut cristalliser in situ et produire des roches plutoniques ou alors être émis en surface. Un magma représente un mélange entre un liquide et des cristaux. Ces cristaux peuvent être extraits de la source ou se former tout au long du chemin jusqu'à l'endroit final de cristallisation. L'étude de ces cristaux peut ainsi donner des informations sur l'ensemble du système magmatique. Au contraire, les roches encaissantes fournissent des informations sur le niveau d'emplacement de l'intrusion. En effet ces roches enregistrent les effets thermiques et mécaniques imposés par le magma. Pour une meilleure compréhension du système, les deux parties, magmatique et métamorphique, doivent être intégrées. Cette thèse a pour but de montrer que les informations issues de l'étude des roches magmatiques et des roches encaissantes sont complémentaires. C'est un processus itératif qui utilise les contraintes d'un domaine pour améliorer la compréhension de l'autre. Comprendre l'histoire des roches encaissantes n'est pas toujours aisé. Ceci est démontré dans le chapitre deux, où un modèle de formation des grenats observés sous forme d'agrégats dans l'auréole de contact est proposé. Des fragments de grenats plus vieux que les roches intru- sives montrent une zone de surcroissance générée par l'apport thermique produit par la mise en place du pluton adjacent. La formation des agrégats de grenats n'est donc pas le résultat d'un seul événement, comme on le décrit habituellement, mais d'un processus en deux phases, soit l'altération de vieux grains engendrant une fracturation de ces grenats, puis la formation de zone de surcroissance autour de ces différents fragments expliquant la texture en agrégats observée. Cette interprétation en deux phases est importante, car elle engendre des différences notables lorsque l'on applique des méthodes pétrologiques comme la thermobarométrie, la géochronologie ou encore lorsque l'on étudie la distribution relative de la taille des grains. Les conditions thermales dans l'auréole de contact dépendent fortement du mode d'emplacement de l'intrusion et c'est pourquoi il est nécessaire de d'abord comprendre le pluton avant de faire des conclusions sur son auréole de contact. Une étude de terrain des roches intrusives ainsi qu'une étude géochimique, géochronologique et structurale est présente dans le troisième chapitre. Cette étude apporte des informations importantes sur la formation de l'intrusion mais également de nouvelles connaissances sur la nature de grands plutons homogènes et la structure de système magmatique en général. L'emplacement incrémental est mis en évidence et l'existence d'un réservoir intermédiaire en-dessous des plutons homogènes est proposé. Le quatrième chapitre de cette thèse illustre comment utiliser l'information extraite des roches encaissantes pour expliquer la mise en place de l'intrusion. Les températures obtenues par la combinaison des observations de terrain et l'assemblage métamorphique sont utilisées avec des modèles thermiques pour contraindre l'activité magmatique au contact directe de cette auréole. Au lieu d'utiliser le modèle thermique pour vérifier le résultat pétrologique, une approche inverse a été choisie. Les paramètres du modèle ont été changés jusqu'à ce qu'on obtienne une correspondance avec les températures observées dans l'auréole de contact. Ceci montre qu'il y a peu de combinaison qui peuvent expliquer les températures et qu'on peut contraindre la fréquence de l'activité magmatique d'un ancien système magmatique de cette manière. Dans le cinquième chapitre, les processus contrôlant l'anisotropie de la susceptibilité magnétique des roches intrusives sont expliqués à l'aide d'images de la distribution des minéraux dans les roches obtenues par tomographie 3D. Le signal associé à l'anisotropie de la susceptibilité magnétique est une fonction de la forme et de la distribution des grains ferromagnétiques. Ce signal est fréquemment utilisé pour déterminer la direction de mouvement d'un magma. En accord avec d'autres études de la littérature, les résultats montrent que le signal est dominé par la forme des cristaux magnétiques, ainsi que par la distribution des agglomérats de ces minéraux dans la roche. Dans le sixième chapitre, une étude associée à la fusion partielle de carbonates dans les roches encaissantes est présentée. Si la présence de liquides carbonatés dans les auréoles de contact a été proposée sur la base d'expériences de laboratoire, notre étude démontre clairement leur existence dans la nature. La fusion partielle est documentée par des microstructures caractéristiques pour la présence de liquides ainsi que par des données géochimiques et structurales. Les conditions nécessaires sont loin d'être extrêmes et ce processus pourrait être plus fréquent qu'attendu. Les liquides carbonatés sont très mobiles et peuvent circuler le long des limites de grain avant d'infiltrer d'autres roches en produisant une modification de leurs assemblages minéralogiques. Finalement, une curiosité minéralogique est présentée dans le chapitre sept. L'assemblage de minéraux de magnésite et de calcite en équilibre apparent est observé. Il est bien connu que ces deux carbonates ne sont pas stables ensemble dans le système CaO-MgO-FeO-CO.,. En effet, la magnésite et la calcite devraient réagir et produire de la dolomite pendant le métamorphisme. L'explication présentée pour cet assemblage à priori « interdit » est que un liquide carbonaté provenant des roches adjacentes infiltre cette roche et est responsable pour cette microstructure. Une autre implication associée à la présence de carbonates fondus est que la roche encaissante montre une diminution drastique de sa résistance et que les propriétés physiques de cette roche deviennent comparables à celles de la roche intrusive. Cette modification des propriétés rhéologiques des roches encaissantes peut faciliter la mise en place des roches intrusives. Ces différentes études démontrent bien le processus itératif utilisé et l'intérêt d'étudier aussi bien les roches intrusives que les roches encaissantes pour la compréhension des mécanismes de mise en place des magmas au sein de la croûte terrestre.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Nous avons investigué, via les simulations de Monte Carlo, les propriétés non-perturbatives du modèle de Higgs abélien en 2+1 dimensions sans et avec le terme de Chern-Simons dans la phase de symétrie brisée, en termes de ses excitations topologiques: vortex et anti-vortex. Le but du présent travail est de rechercher les phases possibles du système dans ce secteur et d'étudier l'effet du terme de Chern-Simons sur le potentiel de confinement induit par les charges externes trouvé par Samuel. Nous avons formulé une description sur réseau du modèle effectif en utilisant une tesselation tétraédrique de l'espace tridimensionnel Euclidien pour générer des boucles de vortex fermées. En présence du terme de Chern-Simons, dans une configuration donnée, nous avons formulé et calculé le nombre d'enlacement entre les différentes boucles de vortex fermées. Nous avons analysé les propriétés du vide et calculé les valeurs moyennes de la boucle de Wilson, de la boucle de Polyakov à différentes températures et de la boucle de 't Hooft en présence du terme de Chern-Simons. En absence du terme de Chern-Simons, en variant la masse des boucles de vortex, nous avons trouvé deux phases distinctes dans le secteur de la symétrie brisée, la phase de Higgs habituelle et une autre phase caractérisée par l'apparition de boucles infinies. D'autre part, nous avons trouvé que la force entre les charges externes est écrantée correpondant à la loi périmètre pour la boucle de Wilson impliquant qu'il n'y a pas de confinement. Cependant, après la transition, nous avons trouvé qu'il existe toujours une portion de charges externes écrantée, mais qu'après une charge critique, l'énergie libre diverge. En présence du terme de Chern-Simons, et dans la limite de constante de couplage faible de Chern-Simons nous avons trouvé que les comportements de la boucle de Wilson et de la boucle de 't Hooft ne changent pas correspondants à une loi périmètre, impliquant qu'il n'y a pas de confinement. De plus, le terme de Chern-Simons ne contribue pas à la boucle de Wilson.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La fumée du tabac est un aérosol extrêmement complexe constitué de milliers de composés répartis entre la phase particulaire et la phase vapeur. Il a été démontré que les effets toxicologiques de cette fumée sont associés aux composés appartenant aux deux phases. Plusieurs composés biologiquement actifs ont été identifiés dans la fumée du tabac; cependant, il n’y a pas d’études démontrant la relation entre les réponses biologiques obtenues via les tests in vitro ou in vivo et les composés présents dans la fumée entière du tabac. Le but de la présente recherche est de développer des méthodes fiables et robustes de fractionnement de la fumée à l’aide de techniques de séparation analytique et de techniques de détection combinés à des essais in vitro toxicologiques. Une étude antérieure réalisée par nos collaborateurs a démontré que, suite à l’étude des produits de combustion de douze principaux composés du tabac, l’acide chlorogénique s’est avéré être le composé le plus cytotoxique selon les test in vitro du micronoyau. Ainsi, dans cette étude, une méthode par chromatographie préparative en phase liquide a été développée dans le but de fractionner les produits de combustion de l’acide chlorogénique. Les fractions des produits de combustion de l’acide chlorogénique ont ensuite été testées et les composés responsables de la toxicité de l’acide chlorogénique ont été identifiés. Le composé de la sous-fraction responsable en majeure partie de la cytoxicité a été identifié comme étant le catéchol, lequel fut confirmé par chromatographie en phase liquide/ spectrométrie de masse à temps de vol. Des études récentes ont démontré les effets toxicologiques de la fumée entière du tabac et l’implication spécifique de la phase vapeur. C’est pourquoi notre travail a ensuite été focalisé principalement à l’analyse de la fumée entière. La machine à fumer Borgwaldt RM20S® utilisée avec les chambres d’exposition cellulaire de British American Tobacco permettent l’étude in vitro de l’exposition de cellules à différentes concentrations de fumée entière du tabac. Les essais biologiques in vitro ont un degré élevé de variabilité, ainsi, il faut prendre en compte toutes les autres sources de variabilité pour évaluer avec précision la finalité toxicologique de ces essais; toutefois, la fiabilité de la génération de la fumée de la machine n’a jamais été évaluée jusqu’à maintenant. Nous avons donc déterminé la fiabilité de la génération et de la dilution (RSD entre 0,7 et 12 %) de la fumée en quantifiant la présence de deux gaz de référence (le CH4 par détection à ionisation de flamme et le CO par absorption infrarouge) et d’un composé de la phase particulaire, le solanesol (par chromatographie en phase liquide à haute performance). Ensuite, la relation entre la dose et la dilution des composés de la phase vapeur retrouvée dans la chambre d’exposition cellulaire a été caractérisée en utilisant une nouvelle technique d’extraction dite par HSSE (Headspace Stir Bar Sorptive Extraction) couplée à la chromatographie en phase liquide/ spectrométrie de masse. La répétabilité de la méthode a donné une valeur de RSD se situant entre 10 et 13 % pour cinq des composés de référence identifiés dans la phase vapeur de la fumée de cigarette. La réponse offrant la surface maximale d’aire sous la courbe a été obtenue en utilisant les conditions expérimentales suivantes : intervalle de temps d’exposition/ désorption de 10 0.5 min, température de désorption de 200°C pour 2 min et température de concentration cryogénique (cryofocussing) de -75°C. La précision de la dilution de la fumée est linéaire et est fonction de l’abondance des analytes ainsi que de la concentration (RSD de 6,2 à 17,2 %) avec des quantités de 6 à 450 ng pour les composés de référence. Ces résultats démontrent que la machine à fumer Borgwaldt RM20S® est un outil fiable pour générer et acheminer de façon répétitive et linéaire la fumée de cigarette aux cultures cellulaires in vitro. Notre approche consiste en l’élaboration d’une méthodologie permettant de travailler avec un composé unique du tabac, pouvant être appliqué à des échantillons plus complexes par la suite ; ex : la phase vapeur de la fumée de cigarette. La méthodologie ainsi développée peut potentiellement servir de méthode de standardisation pour l’évaluation d’instruments ou de l’identification de produits dans l’industrie de tabac.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Nous avons développé un modèle qui cherche à identifier les déterminants des trajectoires scolaires des élèves universitaires en articulant deux perspectives théoriques et en utilisant une approche méthodologique mixte en deux phases : quantitative et qualitative. La première phase est basée sur le modèle de Tinto (1992) avec l'incorporation d'autres variables de Crespo et Houle (1995). Cette étape a atteint deux objectifs. Dans le premier, on a identifié les différences entre les variables exogènes (indice économique, l'éducation parentale, moyen au lycée et moyenne dans l’examen d'entrée) et trois types de trajectoires: la persévérante, de décalage et d’abandon. Cette phase était basée sur les données d'un sondage administré à 800 étudiants à l'Université de Sonora (Mexique). Les résultats montrent que ceux qui ont quitté l'institution ont obtenu des scores significativement plus bas sur les variables exogènes. Le deuxième objectif a été atteint pour les trajectoires persévérantes et de décalage, en établissant que les étudiants ont une plus grande chance d’être persévérants lorsqu’ils présentent de meilleurs scores dans deux variables exogènes (l'examen d'entrée et être de genre féminin) et quatre viable endogènes (haute intégration académique, de meilleures perspectives d'emploi, ont une bourse). Dans la deuxième phase nous avons approfondi la compréhension (Verstehen) des processus d'articulation entre l'intégration scolaire et sociale à travers de trois registres proposés par Dubet (2005): l'intégration, le projet et la vocation. Cette phase a consisté dans 30 interviews avec étudiantes appartenant aux trois types de trajectoire. À partir du travail de Bourdages (1994) et Guzman (2004), nous avons cherché le sens de l'expérience attribuée par les étudiants au processus éducatif. Les résultats révèlent cinq groupes d’étudiantes avec des expériences universitaires identifiables : ceux qui ont une intégration académique et sociale plus grande, les femmes travailleuses intégrées académiquement, ceux qui ont les plus grandes désavantages économiques et d’intégration scolaire, ceux qui ont cherché leur vocation dans un autre établissement et ceux qui n'ont pas poursuivi leurs études. L'utilisation de différents outils statistiques (analyse de corrélation, analyse de régression logistique et analyse des conglomérats) dans la première phase a permis d’identifier des variables clés dans chaque type de trajectoire, lesquelles ont été validées avec les résultats de la phase qualitative. Cette thèse, en plus de montrer l'utilité d'une approche méthodologique mixte, étend le modèle de Tinto (1987) et confirme l'importance de l'intégration scolaire pour la persévérance à l'université.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Ouvrage réalisé sous la supervision du comité de jury composé des membres suivants: Dre Leila Ben Amor, Dre Diane Sauriol, Daniel Fiset, PhD. & Éric Lacourse PhD.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Dans le sillage de la récession mondiale de 2008-09, plusieurs questions ont été soulevées dans la littérature économique sur les effets à court et à long terme de la politique budgétaire sur l’activité économique par rapport à son signe, sa taille et sa durée. Ceux-ci ont des implications importantes pour mieux comprendre les canaux de transmission et l’efficacité des politiques budgétaires, avec la politique monétaire étant poursuivi, ainsi que pour leurs retombées économiques. Cette thèse fait partie de ce regain d’intérêt de la littérature d’examiner comment les changements dans la politique budgétaire affectent l’activité économique. Elle repose alors sur trois essais: les effets macroéconomiques des chocs de dépenses publiques et des recettes fiscales, les résultats macroéconomiques de l’interaction entre les politiques budgétaire et monétaire et le lien entre la politique budgétaire et la répartition des revenus. Le premier chapitre examine les effets des chocs de politique budgétaire (chocs de dépenses publiques et chocs de recettes fiscales) sur l’économie canadienne au cours de la période 1970-2010, en s’appuyant sur la méthode d’identification des restrictions de signe développée par Mountford et Uhlig [2009]. En réponse à la récession mondiale, les autorités fiscales dans les économies avancées, dont le Canada ont généralement mis en oeuvre une approche en deux phases pour la politique budgétaire. Tout d’abord, ils ont introduit des plans de relance sans précédent pour relancer leurs économies. Par exemple, les mesures de relance au Canada, introduites à travers le Plan d’action économique du Canada, ont été projetées à 3.2 pour cent du PIB dans le budget fédéral de 2009 tandis que l’ "American Recovery and Reinvestment Act"(ARRA) a été estimé à 7 pour cent du PIB. Par la suite, ils ont mis en place des plans d’ajustement en vue de réduire la dette publique et en assurer la soutenabilité à long terme. Dans ce contexte, évaluer les effets multiplicateurs de la politique budgétaire est important en vue d’informer sur l'efficacité de telles mesures dans la relance ou non de l'activité économique. Les résultats montrent que les multiplicateurs d'impôt varient entre 0.2 et 0.5, tandis que les multiplicateurs de dépenses varient entre 0.2 et 1.1. Les multiplicateurs des dépenses ont tendance à être plus grand que les multiplicateurs des recettes fiscales au cours des deux dernières décennies. Comme implications de politique économique, ces résultats tendent à suggérer que les ajustements budgétaires par le biais de grandes réductions de dépenses publiques pourraient être plus dommageable pour l'économie que des ajustements budgétaires par la hausse des impôts. Le deuxième chapitre, co-écrit avec Constant Lonkeng Ngouana, estime les effets multiplicateurs des dépenses publiques aux Etats-Unis en fonction du cycle de la politique monétaire. Les chocs de dépenses publiques sont identifiés comme étant des erreurs de prévision du taux de croissance des dépenses publiques à partir des données d'Enquêtes des prévisionnistes professionnels et des informations contenues dans le "Greenbook". L'état de la politique monétaire est déduite à partir de la déviation du taux des fonds fédéraux du taux cible de la Réserve Fédérale, en faisant recours à une fonction lisse de transition. L'application de la méthode des «projections locales» aux données trimestrielles américaines au cours de la période 1965-2012 suggère que les effets multiplicateurs des dépenses fédérales sont sensiblement plus élevées quand la politique monétaire est accommodante que lorsqu'elle ne l'est pas. Les résultats suggèrent aussi que les dépenses fédérales peuvent stimuler ou non la consommation privée, dépendamment du degré d’accommodation de la politique monétaire. Ce dernier résultat réconcilie ainsi, sur la base d’un cadre unifié des résultats autrement contradictoires à première vue dans la littérature. Ces résultats ont d'importantes implications de politique économique. Ils suggèrent globalement que la politique budgétaire est plus efficace lorsqu'on en a le plus besoin (par exemple, lorsque le taux de chômage est élevé), si elle est soutenue par la politique monétaire. Ils ont également des implications pour la normalisation des conditions monétaires dans les pays avancés: la sortie des politiques monétaires non-conventionnelles conduirait à des multiplicateurs de dépenses fédérales beaucoup plus faibles qu'autrement, même si le niveau de chômage restait élevé. Ceci renforce la nécessité d'une calibration prudente du calendrier de sortie des politiques monétaires non-conventionnelles. Le troisième chapitre examine l'impact des mesures d'expansion et de contraction budgétaire sur la distribution des revenus dans un panel de 18 pays d'Amérique latine au cours de la période 1990-2010, avec un accent sur les deniers 40 pour cent. Il explore alors comment ces mesures fiscales ainsi que leur composition affectent la croissance des revenus des dernier 40 pour cent, la croissance de leur part de revenu ainsi que la croissance économique. Les mesures d'expansion et de contraction budgétaire sont identifiées par des périodes au cours desquels il existe une variation significative du déficit primaire corrigé des variations conjoncturelles en pourcentage du PIB. Les résultats montrent qu'en moyenne l'expansion budgétaire par la hausse des dépenses publiques est plus favorable à la croissance des revenus des moins bien-nantis que celle par la baisse des impôts. Ce résultat est principalement soutenu par la hausse des dépenses gouvernementales de consommation courante, les transferts et subventions. En outre ces mesures d’expansion budgétaire sont favorables à la réduction des inégalités car elles permettent d'améliorer la part des revenus des moins bien-nantis tout en réduisant la part des revenus des mieux-nantis de la distribution des revenus. En outre ces mesures d’expansion budgétaire sont favorables à la réduction des inégalités car elles permettent d'améliorer la part des revenus des moins bien-nantis tout en réduisant la part des revenus des mieux-nantis de la distribution des revenus. Cependant, l'expansion budgétaire pourrait soit n'avoir aucun effet sur la croissance économique ou entraver cette dernière à travers la hausse des dépenses en capital. Les résultats relatifs à la contraction budgétaire sont quelque peu mitigés. Parfois, les mesures de contraction budgétaire sont associées à une baisse de la croissance des revenus des moins bien nantis et à une hausse des inégalités, parfois l'impact de ces mesures est non significatif. Par ailleurs, aucune des mesures n’affecte de manière significative la croissance du PIB. Comme implications de politique économique, les pays avec une certaine marge de manœuvre budgétaire pourraient entamer ou continuer à mettre en œuvre des programmes de "filets de sauvetage"--par exemple les programmes de transfert monétaire conditionnel--permettant aux segments vulnérables de la population de faire face à des chocs négatifs et aussi d'améliorer leur conditions de vie. Avec un potentiel de stimuler l'emploi peu qualifié, une relance budgétaire sage par les dépenses publique courantes pourrait également jouer un rôle important pour la réduction des inégalités. Aussi, pour éviter que les dépenses en capital freinent la croissance économique, les projets d'investissements publics efficients devraient être prioritaires dans le processus d'élaboration des politiques. Ce qui passe par la mise en œuvre des projets d'investissement avec une productivité plus élevée capable de générer la croissance économique nécessaire pour réduire les inégalités.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La nanomédecine est porteuse de nombreuses promesses et bienfaits pour l’humanité. Or, l’opposition massive à l’introduction des organismes génétiquement modifiés (OGM) a montré que les promesses attendues des innovations technologiques ne sont pas garantes de leur acceptabilité. L’absence d’une démarche axée sur les impacts possibles, l’acceptation et l’acceptabilité de l’utilisation des nanotechnologies en médecine pourrait toutefois conduire à un manque d’adéquation entre les applications développées et les besoins et valeurs des acteurs sociaux. À partir d’un cadre conceptuel interdisciplinaire et du contexte clinique de la prévention et du traitement des plaies de pression chez les personnes diabétiques, les variables de perception d’impacts, d’acceptation et d’acceptabilité ont été opérationnalisées et étudiées afin d’explorer la relation entre ces variables, mais surtout de mieux comprendre l’influence des types de profil des répondants sur ces variables. L’exploration des impacts perçus, mobilisés et pondérés sur un ensemble d’enjeux a permis d’établir un premier portrait de l’acceptabilité de dispositifs à base de nanotubes de carbones utilisés dans le contexte clinique de soins des plaies de pression. Une approche descriptive-exploratoire fondée sur un devis mixte avec triangulation séquentielle des données a été employée. Un questionnaire a été développé et prétesté à l’aide d’entrevues cognitives (n = 35). Les données ont ensuite été recueillies en deux phases, d’abord par le biais d’un questionnaire en ligne (n = 270), puis par des entrevues individuelles semi-dirigées (n = 23). L’échantillon final se compose de trois types de profil, soit des professionnels de la santé, des personnes diabétiques et non-diabétiques. L’opérationnalisation du cadre de référence a permis de distinguer les dimensions individuelle/ sociale des concepts d’acceptation et d’acceptabilité. Plus encore, l’importance des types de profil dans l’étude de ces variables complémentaires à la perception des impacts a été démontrée, notamment par la mise en lumière du paradoxe des professionnels de la santé dans le jugement d’acceptabilité. Ces distinctions invitent à dépasser les approches traditionnelles d’acceptation technologique en axant davantage sur les impacts perçus et valorisés/priorisés dans la formation du jugement d’acceptabilité. Le développement d’applications en nanomédecine bénéficierait d’une meilleure compréhension de la formation du jugement d'acceptabilité et l'influence du type de profil sur celui-ci.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Acompanhando o crescente e recente interesse pela actividade do professor em sala de aula, esta investigação visa analisar, grosso modo, o papel assumido pelas ferramentas didácticas quer nas práticas docentes propriamente ditas quer no objecto efectivamente ensinado em sala de aula. Procuramos analisar, em síntese, de que forma a introdução de uma nova ferramenta de ensino – uma sequência didáctica – a mobilizar, in loco, pelo professor poderá gerar transformações não só nos próprios procedimentos de ensino do professor como também na própria forma como o objecto de ensino é (re)configurado no seio das interacções didácticas. Esta é, assim, a questãochave da nossa pesquisa, fundada em diferentes mas complementares correntes teóricas. De molde a procurar obter uma resposta a tal interrogação, desenhámos uma investigação em redor, concretamente, do ensino da escrita do texto de opinião, em turmas de sexto ano de escolaridade, que se desenrolou em duas grandes fases: i) numa primeira, cada professor ensina o objecto como lhe apraz; ii) numa segunda, cada professor procede, de novo, ao ensino desse objecto, mas, agora, com a nova ferramenta didáctica (a sequência didáctica) que a cada um é dada pela investigadora. A recolha dos dados efectuou-se mediante a gravação audiovisual das próprias aulas, realizando-se também entrevistas várias, com propósitos distintos, aos professores, antes e após cada uma das supracitadas fases. Os resultados demonstram a existência de uma série de transformações quer no plano das práticas dos professores quer no âmbito do objecto efectivamente ensinado. No entanto, foi também possível identificar aspectos vários em que a mudança não ocorreu ou, pelo menos, não foi significativa. Perante estes resultados, lançámo-nos ainda na formulação de determinadas perguntas, pistas para futuras investigações, cuja pertinência se nos afigura evidente, se se quiser reequacionar o papel das ferramentas didácticas no trabalho, em sala de aula, do professor.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O presente estudo inscreve-se na área científica da Formação de Professores, incidindo, particularmente, na compreensão do processo de desenvolvimento das competências reflexivas percebidas como factor de promoção do seu próprio desenvolvimento profissional e pessoal, do desenvolvimento da capacidade de pensar dos seus alunos, da revalorização dos processos curriculares de ensino-aprendizagem e de inovação dos contextos educacionais. Num contexto de complexidade, incerteza e mudança, importa repensar estratégias de formação de professores e de alunos para que possam constituir-se como fatores potenciadores do desenvolvimento da competência reflexiva. Estratégias que convocam, quer o professor, quer o aluno, para um tipo de questionamento de maior exigência reflexiva e consideradas potenciadoras do pensamento crítico, criativo e de cuidado com o outro, numa perspetiva educativa centrada no cuidar, que valoriza a dimensão humana, a atuação responsável, ética e solidária, em todos os planos da vida. Neste estudo propomo-nos retomar algumas das estratégias de formação já configuradas no movimento Filosofia para Crianças e que se constituíram como um programa de formação em contexto, no qual se procurou aprofundar e compreender as múltiplas dimensões e modos como interatuam os diferentes participantes da relação educativa em práticas curriculares reconfiguradas à luz dos pressupostos que sustentam este estudo. Do ponto de vista metodológico, a investigação inscreve-se num paradigma de natureza qualitativa e interpretativa, de matriz hermenêutica e ecológica, configurando uma abordagem de tipo complexo, e com características de estudo de caso, que considera indispensável a participação ativa do sujeito na construção do conhecimento próprio, bem como o carácter de imprevisibilidade e de recursividade das condições e subsistemas em que tal ocorre. No sentido de construir uma visão integrada do objeto em estudo, foram desenvolvidos procedimentos específicos (mixed-methods), nomeadamente análise documental, entrevista semiestruturada, observação participante e inquirição por questionário. O estudo, que decorreu na região centro do país, envolveu 5 professoras do 1.º Ciclo do Ensino Básico, 100 alunos do mesmo nível de ensino e os seus pais/encarregados de educação, inquiridos através de questionário e desenvolveu-se em duas fases. A primeira destinou-se à formação teórico-prática das professoras e, na segunda, foram desenvolvidas sessões práticas de Filosofia para Crianças com os alunos. Os portfolios reflexivos construídos pelos participantes e pela investigadora principal constituíram outra fonte da informação recolhida no estudo empírico. Os resultados do estudo situam-se a quatro níveis: no que respeita aos saberes básicos, ao perfil de competência dos professores, à sua formação e às estratégias e recursos considerados como potenciadores de um pensar de mais elevada qualidade. Quanto ao primeiro nível, o presente estudo releva o carácter estruturante e epistémico de aprender a pensar (bem), salientando que este se processa numa maior amplitude e profundidade dos conteúdos da própria reflexão, às quais subjaz uma visão ampla de cidadania planetária e socialmente comprometida, evidenciando uma ampliação do quadro referencial dos saberes básicos e considerados imprescindíveis para a educação dos cidadãos. A um segundo nível, salienta-se a exigência de um perfil de competência profissional que permita aos professores desenvolver nos seus alunos um pensar de qualidade e, simultaneamente, melhorar a sua própria competência reflexiva. Neste sentido, o estudo aponta para a continuidade das respostas que têm vindo a ser equacionadas por vários autores nacionais e internacionais que, ao abordarem a problemática da formação, do conhecimento profissional e do desenvolvimento identitário dos professores, têm acentuado a importância dos modelos crítico-reflexivos da formação e de uma supervisão ecológica, integradora, não standard e humanizada, no desenvolvimento das sociedades contemporâneas. Conforme os dados sugerem, admite-se que a formação integral dos cidadãos passa pela inclusão e interligação de diferentes áreas do conhecimento que, concertada e complementarmente, possam contribuir para o desenvolvimento da sensibilidade, do pensamento crítico e criativo, de uma cultura da responsabilidade e de uma atitude ética mais ativa e interventiva. Neste sentido, reafirma-se a importância de um trajeto formativo que promova a efetiva articulação entre teoria e a prática, o diálogo crítico-reflexivo entre saberes científicos e experiência, que focalize o profissional na sua praxis e saliente a sua conexão com o saber situado em contexto vivencial e didático- -pedagógico. Realça-se a pertinência de dinâmicas formativas que, a exemplo de “comunidades de investigação/aprendizagem”, na sua aceção de redes de formação que, na prossecução de projetos e propósitos comuns, incentivam a construção de itinerários próprios e de aprendizagens individuais, mobilizando processos investigativos pessoais e grupais. Evidencia-se a valorização de práticas promotoras da reflexão, do questionamento, da flexibilidade cognitiva como eixos estruturadores do pensamento e da ação profissional e como suporte do desenvolvimento profissional e pessoal, corroborando a importância dos processos transformadores decorrentes da experiência, da ação e da reflexão sobre ela. Finalmente, no que respeita às estratégias e recursos, os dados permitem corroborar a riqueza e o potencial do uso de portfolios reflexivos no desenvolvimento de competências linguísticas, comunicacionais, reflexivas e meta-reflexivas e o entendimento de que o processo de construção da identidade profissional ocorre e desenha-se numa dinâmica reflexiva- -prospetiva (re)confirmadora ou (re)configuradora de ideias, convicções, saberes e práticas, ou seja, identitária. De igual modo, a investigação releva a importância da construção de portfolios, por parte dos alunos, para o desenvolvimento da qualidade do seu pensamento, sublinhando-se o seu carácter inovador nesta área. Evidencia-se, ainda, a diversidade de estratégias que respeitem os interesses, necessidades e expectativas dos alunos e o seu contexto de vida, tal como o recurso a materiais diversificados que, atentos ao conteúdo da mensagem, possibilitem a autonomia do pensamento, o exercício efetivo da reflexão crítica e do questionamento, na sua articulação com as grandes questões que sempre despertaram a curiosidade humana e cuja atualidade permanece. Materiais e recursos que estabeleçam o diálogo entre razão e imaginação, entre saber e sensibilidade, que estimulem o envolvimento dos alunos na resolução de problemas e na procura conjunta de soluções e na construção de projetos individuais na malha dos projetos comuns. Reafirma-se, pois, a importância da humanização do saber, a educação pensada como vivência solidária de direitos e deveres. Uma perspetiva educacional humanista que assenta nas trajetórias de vida, na recuperação de experiências pessoais e singulares, que procura compreender a identidade como um processo em (re)elaboração permanente. O presente estudo integra-se na rede de cooperação científica Novos saberes básicos dos alunos no século XXI, novos desafios à formação de professores sendo que, e na linha das investigações produzidas neste âmbito, destaca que o alargamento das funções do professor do 1.º Ciclo do Ensino Básico, que colocando a tónica da ação pedagógica no como se aprende e para quê e na possibilidade de aprender e incorporar o imprevisível, incide no desenvolvimento de um conjunto de capacidades que vão para além das tradicionalmente associadas ao ensinar a ler, escrever e contar. Releva-se, pois, a pertinência da criação de ambientes educativos nos quais professores e alunos entreteçam, conjunta e coerentemente, conhecer, compreender, fazer, sentir, dizer, ver, ouvir e (con)viver em prol de uma reflexão que nos encaminhe no sentido de ser(mos) consciência.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les novices en enseignement, particulièrement celles et ceux qui oeuvrent en adaptation scolaire, doivent composer avec de nombreux rôles dès leur entrée en milieu professionnel. Cette réalité multiplie les occasions de rencontrer des problèmes d'ordre éthique à l'école, soit des problèmes pour lesquels il n'existe pas de réponses ou de balises claires, qui exigent une prise de décisions et un choix d'actions qui doivent tenir compte de plusieurs éléments dont il faudra déterminer l'importance et, par conséquent, qui génèrent des conflits de valeurs. Être capable de résoudre un problème éthique implique au départ de développer la capacité à reconnaître les dimensions présentes à l'intérieur du problème. Nous avons dégagé quatre dimensions généralement présentes dans l'analyse d'un problème éthique: les personnes impliquées, les valeurs en jeu, les principes de conduite professionnelle appropriée et le cadre professionnel.Les personnes impliquées, puisque les professionnelles et professionnels sont amenés à anticiper les conséquences de leurs actions sur le bien-être des personnes concernées.Les valeurs en jeu, soit les structures internes sur lesquelles chaque individu se réfère spontanément, que ce soit des valeurs acquises durant l'enfance, dans l'expérience personnelle ou dans l'expérience professionnelle.Les principes de conduite professionnelle appropriée qui sont adoptés à titre de références par les membres de la communauté enseignante. Finalement, le cadre professionnel, car l'enseignante et l'enseignant s'inscrivent dans un cadre qui repose sur des lois et des normes des milieux. L'objectif de cette recherche a été de mettre en évidence les dimensions examinées par des enseignantes et des enseignants en adaptation scolaire en insertion professionnelle lorsqu'ils sont devant un problème éthique à l'école. La méthodologie utilisée était de nature qualitative et la cueillette de données a été effectuée par le moyen d'entrevues individuelles semi-dirigées.Les résultats obtenus à la suite de deux phases de collecte nous ont permis de mettre en évidence, entre autres, que certaines dimensions étaient examinées par les participantes de manière plus approfondie que d'autres devant des problèmes éthiques et dégager le sens accordé à chacune des dimensions par les participantes. Nous avons aussi analysé certaines préoccupations relatives à l'insertion professionnelle ayant émergé durant les entrevues.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Ce ms. renferme la lettre de saint Jérôme au pape Damase, "Beato papae Damaso..." (1-3v), sa préface "Plures fuisse" (4-6r), les tables de concordances évangéliques (6v-14r), les textes des quatre Évangiles accompagnés des préfaces, prologues et sommaires (14v-213v), ainsi que le Capitulare evangeliorum ou liste des péricopes évangéliques (214-231v). En marge des Évangiles, numérotation des chapitres des sommaires à l'encre rouge et indication des concordances évangéliques à l'encre brune. Entre les ff. 61 et 66, 96- 101, 155-160v et 204v-208v (c'est-à-dire dans les passages correspondant à la Passion dans chacun des quatre Evangiles), de petites lettres à l'encre rouge orangé (a, c, m) introduisent les différents protagonistes du discours, le m désignant le Christ, le c Pilate et le a le narrateur. Au f. 155, le m est partiellement développé sous la forme "mans.". Ces indications nous renseignent sur les pratiques de la lecture liturgique, qui s'effectuait à plusieurs voix. Nombreuses corrections marginales ou interlinéaires à l'encre rouge ou noire, mots à corriger parfois surlignés en couleur (cf. "aliquid" f. 76v surligné en violet), mots réécrits par-dessus grattage aux ff. 115v-116 (par le copiste E).Dans le Capitulare evangeliorum, on remarquera, parmi un sanctoral à dominante romaine, la présence de deux saints mérovingiens du Hainaut, saint Ursmer, fêté le 18 avril (f. 226v), et sainte Amalberge, fêtée le 10 juillet (f. 228), ainsi que celle des saints Emerentienne et Macaire l'Egyptien, fêtés le 23 janvier (f. 225v), et des saints martyrs romains Pierre et Marcellin, fêtés le 2 juin (f. 227). Ursmer et Amalberge ont tous deux un lien avec l'abbaye bénédictine Saint-Pierre de Lobbes: le premier en est le véritable fondateur, la seconde y a été ensevelie, mais cela n'implique pas nécessairement que le ms. ait été exécuté à Lobbes, car le culte de ces deux saints jouissait d'une diffusion régionale. Quant aux autres saints, le culte de sainte Emerentienne et de saint Macaire était répandu en particulier dans les diocèses de Cambrai et Reims et celui des martyrs Pierre et Marcellin autour de Valenciennes, Gand et Soissons, où se trouvaient depuis le IXe siècles leurs reliques ; cf. sur le culte d'Amalberge, Pierre et Marcellin: F. Dolbeau, "La bibliothèque de l'abbaye d'Hasnon...", Revue des études augustiniennes 34 (1988), p. 237-246; sur celui d'Ursmer: F. Dolbeau, "La diffusion de la Vita S. Ursmari de Rathier de Vérone", Scribere sanctorum gesta. Recueil d'études d'hagiographie médiévale offert à Guy Philippart, Turnhout, 2005, p. 181-207.Au f. 231v ont été rajoutées diverses maximes et formules pieuses, par deux mains différentes, des XIIe-XIIIe siècles.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de LL.M. Droit Dans le cadre du programme de Maîtrise en droit(LL.M.) 2-325-1-0 en option recherche et droit des affaires"

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les urodèles amphibiens, dont fait partie l’axolotl (Ambystoma mexicanum), ont la capacité de régénérer leurs organes et membres suite à une amputation, tout au long de leur vie. La patte est l’organe dont le processus de régénération est le mieux caractérisé et ce dernier est divisé en deux phases principales. La première est la phase de préparation et commence immédiatement suite à l’amputation. Elle renferme des étapes essentielles au processus de régénération comme la guérison de la plaie et la formation d’une coiffe apicale ectodermique. Par la suite, les fibroblastes du derme et certaines cellules musculaires vont revenir à un état pluripotent via un processus appelé dédifférenciation cellulaire. Une fois dédifférenciées, ces cellules migrent et s’accumulent sous la coiffe apicale pour former le blastème. Lors de la phase de redéveloppement, les cellules du blastème se divisent puis se redifférencient pour régénérer la partie amputée. Fait intéressant, la régénération d’un membre ou la guérison d’une plaie chez l’axolotl ne mène jamais à la formation d’une cicatrice. Afin d’en apprendre plus sur le contrôle moléculaire de la régénération, les gènes Heat-shock protein-70 (Hsp-70) et Transforming growth factor-β1 (Tgf-β1) ont été sélectionnés. Ces gènes jouent un rôle important dans la réponse au stress et lors de la guérison des plaies chez les mammifères. HSP-70 est une chaperonne moléculaire qui est produite pour maintenir l’intégrité des protéines cellulaires lorsqu’un stress se présente. TGF-β1 est une cytokine produite suite à une blessure qui active la réponse inflammatoire et qui stimule la fermeture de la plaie chez les amniotes. Les résultats présentés dans cette thèse démontrent que Hsp-70 est exprimé et régulé lors du développement et de la régénération du membre chez l’axolotl. D’autre part, nos expériences ont mené à l’isolation de la séquence codante pour Tgf-β1 chez l’axolotl. Nos résultats montrent que Tgf-β1 est exprimé spécifiquement lors de la phase de préparation dans le membre en régénération. De plus, le blocage de la voie des Tgf-β avec l’inhibiteur pharmacologique SB-431542, lors de la régénération, mène à l’inhibition du processus. Ceci démontre que la signalisation via la voie des Tgf-β est essentielle à la régénération du membre chez l’axolotl.