999 resultados para les modèles génératifs


Relevância:

80.00% 80.00%

Publicador:

Resumo:

The first decades of the 19th century constituted a period of profound change for Chile, the principal results of which were to be seen in the consolidation of the process of independence from Spanish dominion in 1818. The consequences were not limited to a revolution of military and political nature; they also included a renovation of the cultural panorama -at least among the educated patriots who made an effort to distance themselves ideologically from the Monarchy-, with the implicit challenge of establishing a new order for Chile, based on legitimate and universally recognizable foundations. The inspirational framework for these efforts is usually associated with other revolutionary examples -France and the United States- that preceded the emancipation processes in Spanish America, as well as with the discourses of illustrated liberalism. As we will attempt to demonstrate in this study, a new reading of the texts written by the Creoles that lead the Chilean independence process may, nonetheless, also reveal the relevance of the classical tradition as a model for the configuration and legitimization of the first Republican projects that especially admired the ideals of Republicanism.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle avec la direction de Jean-Jacques Courtine à l'Université de Paris III Sorbonne Nouvelle sous la discipline anthropologie et avec la direction de Dominique Deslandres à l'Université de Montréal sous la discipline histoire

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les algèbres de Temperley-Lieb originales, aussi dites régulières, apparaissent dans de nombreux modèles statistiques sur réseau en deux dimensions: les modèles d'Ising, de Potts, des dimères, celui de Fortuin-Kasteleyn, etc. L'espace d'Hilbert de l'hamiltonien quantique correspondant à chacun de ces modèles est un module pour cette algèbre et la théorie de ses représentations peut être utilisée afin de faciliter la décomposition de l'espace en blocs; la diagonalisation de l'hamiltonien s'en trouve alors grandement simplifiée. L'algèbre de Temperley-Lieb diluée joue un rôle similaire pour des modèles statistiques dilués, par exemple un modèle sur réseau où certains sites peuvent être vides; ses représentations peuvent alors être utilisées pour simplifier l'analyse du modèle comme pour le cas original. Or ceci requiert une connaissance des modules de cette algèbre et de leur structure; un premier article donne une liste complète des modules projectifs indécomposables de l'algèbre diluée et un second les utilise afin de construire une liste complète de tous les modules indécomposables des algèbres originale et diluée. La structure des modules est décrite en termes de facteurs de composition et par leurs groupes d'homomorphismes. Le produit de fusion sur l'algèbre de Temperley-Lieb originale permet de «multiplier» ensemble deux modules sur cette algèbre pour en obtenir un autre. Il a été montré que ce produit pouvait servir dans la diagonalisation d'hamiltoniens et, selon certaines conjectures, il pourrait également être utilisé pour étudier le comportement de modèles sur réseaux dans la limite continue. Un troisième article construit une généralisation du produit de fusion pour les algèbres diluées, puis présente une méthode pour le calculer. Le produit de fusion est alors calculé pour les classes de modules indécomposables les plus communes pour les deux familles, originale et diluée, ce qui vient ajouter à la liste incomplète des produits de fusion déjà calculés par d'autres chercheurs pour la famille originale. Finalement, il s'avère que les algèbres de Temperley-Lieb peuvent être associées à une catégorie monoïdale tressée, dont la structure est compatible avec le produit de fusion décrit ci-dessus. Le quatrième article calcule explicitement ce tressage, d'abord sur la catégorie des algèbres, puis sur la catégorie des modules sur ces algèbres. Il montre également comment ce tressage permet d'obtenir des solutions aux équations de Yang-Baxter, qui peuvent alors être utilisées afin de construire des modèles intégrables sur réseaux.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cette thèse se compose de trois articles sur les politiques budgétaires et monétaires optimales. Dans le premier article, J'étudie la détermination conjointe de la politique budgétaire et monétaire optimale dans un cadre néo-keynésien avec les marchés du travail frictionnels, de la monnaie et avec distortion des taux d'imposition du revenu du travail. Dans le premier article, je trouve que lorsque le pouvoir de négociation des travailleurs est faible, la politique Ramsey-optimale appelle à un taux optimal d'inflation annuel significativement plus élevé, au-delà de 9.5%, qui est aussi très volatile, au-delà de 7.4%. Le gouvernement Ramsey utilise l'inflation pour induire des fluctuations efficaces dans les marchés du travail, malgré le fait que l'évolution des prix est coûteuse et malgré la présence de la fiscalité du travail variant dans le temps. Les résultats quantitatifs montrent clairement que le planificateur s'appuie plus fortement sur l'inflation, pas sur l'impôts, pour lisser les distorsions dans l'économie au cours du cycle économique. En effet, il ya un compromis tout à fait clair entre le taux optimal de l'inflation et sa volatilité et le taux d'impôt sur le revenu optimal et sa variabilité. Le plus faible est le degré de rigidité des prix, le plus élevé sont le taux d'inflation optimal et la volatilité de l'inflation et le plus faible sont le taux d'impôt optimal sur le revenu et la volatilité de l'impôt sur le revenu. Pour dix fois plus petit degré de rigidité des prix, le taux d'inflation optimal et sa volatilité augmentent remarquablement, plus de 58% et 10%, respectivement, et le taux d'impôt optimal sur le revenu et sa volatilité déclinent de façon spectaculaire. Ces résultats sont d'une grande importance étant donné que dans les modèles frictionnels du marché du travail sans politique budgétaire et monnaie, ou dans les Nouveaux cadres keynésien même avec un riche éventail de rigidités réelles et nominales et un minuscule degré de rigidité des prix, la stabilité des prix semble être l'objectif central de la politique monétaire optimale. En l'absence de politique budgétaire et la demande de monnaie, le taux d'inflation optimal tombe très proche de zéro, avec une volatilité environ 97 pour cent moins, compatible avec la littérature. Dans le deuxième article, je montre comment les résultats quantitatifs impliquent que le pouvoir de négociation des travailleurs et les coûts de l'aide sociale de règles monétaires sont liées négativement. Autrement dit, le plus faible est le pouvoir de négociation des travailleurs, le plus grand sont les coûts sociaux des règles de politique monétaire. Toutefois, dans un contraste saisissant par rapport à la littérature, les règles qui régissent à la production et à l'étroitesse du marché du travail entraînent des coûts de bien-être considérablement plus faible que la règle de ciblage de l'inflation. C'est en particulier le cas pour la règle qui répond à l'étroitesse du marché du travail. Les coûts de l'aide sociale aussi baisse remarquablement en augmentant la taille du coefficient de production dans les règles monétaires. Mes résultats indiquent qu'en augmentant le pouvoir de négociation du travailleur au niveau Hosios ou plus, les coûts de l'aide sociale des trois règles monétaires diminuent significativement et la réponse à la production ou à la étroitesse du marché du travail n'entraîne plus une baisse des coûts de bien-être moindre que la règle de ciblage de l'inflation, qui est en ligne avec la littérature existante. Dans le troisième article, je montre d'abord que la règle Friedman dans un modèle monétaire avec une contrainte de type cash-in-advance pour les entreprises n’est pas optimale lorsque le gouvernement pour financer ses dépenses a accès à des taxes à distorsion sur la consommation. Je soutiens donc que, la règle Friedman en présence de ces taxes à distorsion est optimale si nous supposons un modèle avec travaie raw-efficace où seule le travaie raw est soumis à la contrainte de type cash-in-advance et la fonction d'utilité est homothétique dans deux types de main-d'oeuvre et séparable dans la consommation. Lorsque la fonction de production présente des rendements constants à l'échelle, contrairement au modèle des produits de trésorerie de crédit que les prix de ces deux produits sont les mêmes, la règle Friedman est optimal même lorsque les taux de salaire sont différents. Si la fonction de production des rendements d'échelle croissant ou decroissant, pour avoir l'optimalité de la règle Friedman, les taux de salaire doivent être égales.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Notre thèse réalise un tour d’horizon des activités matérielles et communautaires qui se déroulèrent dans la municipalité de Sillery au XIXe siècle. Intégrée au contexte mercantile de cette époque de l’histoire du Québec en tant que colonie britannique, Sillery connut, surtout entre 1810 et 1880, une prospérité et un accroissement de population dûs aux activités reliées à l’industrie du bois. L’implantation de cette structure industrielle y créa un milieu ouvrier et un milieu patronal distincts, qui nous semblèrent intéressants à étudier. Nous attachant d’abord à situer géographiquement la municipalité et la paroisse, nous mimes l’accent sur la relation entre la topographie et les différences de niveau social. Un aperçu de la situation historique nous permit ensuite de décrire l’évolution de cette municipalité au cours du XIXe ciècle. Enfin, nous fîmes un examen des langues parlées et des religions pratiquées. Nous connaissions alors mieux les lieux et les hommes. La première partie du corps du travail, les activités matérielles, étudie ensuite les deux industries majeures de l’époque: le flottage du bois dans les anses jusqu’à son expédition et la construction de navires. En premier chapitre, le flottage du bois se divise en une description du chantier, suivie d’un compte-rendu des étapes du flottage, des métiers, des rivalités au travail et finalement, des profils de quelques grands marchands de bois. Le second chapitre, intitulé la construction des navires, décrit les étapes de leur construction, les matériaux et les modèles fabriqués, les métiers. Puis il esquisse le portrait de quelques grands constructeurs. Le deuxième partie concerne les activités communautaires. Nous observons d’abord la vie domestique à travers l’habitation et les biens de consommation, tels que la nourriture, les transports, les vêtements les services. Le second chapitre propose un examen de la vie scolaire et municipale. Puis, troisièmement, les activités religieuses et de loisir (fêtes, cérémonies, jeux, sports...) viennent compléter cette étude de la vie collective. L’examen des activités communautaires démontre l’existence de deux groupes sociaux formés par l’industrialisation: les marchands-bourgeois et les ouvriers-prolétaires. En conclusion, les résultats de notre recherche révèlent le vrai visage de la société de Sillery au XIXe siècle: celui de deux communautés séparées, non pas par la nationalité ou la langue parlée, mais par un fossé économique infranchissable.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La vallée du fleuve Saint-Laurent, dans l’est du Canada, est l’une des régions sismiques les plus actives dans l’est de l’Amérique du Nord et est caractérisée par de nombreux tremblements de terre intraplaques. Après la rotation rigide de la plaque tectonique, l’ajustement isostatique glaciaire est de loin la plus grande source de signal géophysique dans l’est du Canada. Les déformations et les vitesses de déformation de la croûte terrestre de cette région ont été étudiées en utilisant plus de 14 ans d’observations (9 ans en moyenne) de 112 stations GPS fonctionnant en continu. Le champ de vitesse a été obtenu à partir de séries temporelles de coordonnées GPS quotidiennes nettoyées en appliquant un modèle combiné utilisant une pondération par moindres carrés. Les vitesses ont été estimées avec des modèles de bruit qui incluent les corrélations temporelles des séries temporelles des coordonnées tridimensionnelles. Le champ de vitesse horizontale montre la rotation antihoraire de la plaque nord-américaine avec une vitesse moyenne de 16,8±0,7 mm/an dans un modèle sans rotation nette (no-net-rotation) par rapport à l’ITRF2008. Le champ de vitesse verticale confirme un soulèvement dû à l’ajustement isostatique glaciaire partout dans l’est du Canada avec un taux maximal de 13,7±1,2 mm/an et un affaissement vers le sud, principalement au nord des États-Unis, avec un taux typique de −1 à −2 mm/an et un taux minimum de −2,7±1,4 mm/an. Le comportement du bruit des séries temporelles des coordonnées GPS tridimensionnelles a été analysé en utilisant une analyse spectrale et la méthode du maximum de vraisemblance pour tester cinq modèles de bruit: loi de puissance; bruit blanc; bruit blanc et bruit de scintillation; bruit blanc et marche aléatoire; bruit blanc, bruit de scintillation et marche aléatoire. Les résultats montrent que la combinaison bruit blanc et bruit de scintillation est le meilleur modèle pour décrire la partie stochastique des séries temporelles. Les amplitudes de tous les modèles de bruit sont plus faibles dans la direction nord et plus grandes dans la direction verticale. Les amplitudes du bruit blanc sont à peu près égales à travers la zone d’étude et sont donc surpassées, dans toutes les directions, par le bruit de scintillation et de marche aléatoire. Le modèle de bruit de scintillation augmente l’incertitude des vitesses estimées par un facteur de 5 à 38 par rapport au modèle de bruit blanc. Les vitesses estimées de tous les modèles de bruit sont statistiquement cohérentes. Les paramètres estimés du pôle eulérien de rotation pour cette région sont légèrement, mais significativement, différents de la rotation globale de la plaque nord-américaine. Cette différence reflète potentiellement les contraintes locales dans cette région sismique et les contraintes causées par la différence des vitesses intraplaques entre les deux rives du fleuve Saint-Laurent. La déformation de la croûte terrestre de la région a été étudiée en utilisant la méthode de collocation par moindres carrés. Les vitesses horizontales interpolées montrent un mouvement cohérent spatialement: soit un mouvement radial vers l’extérieur pour les centres de soulèvement maximal au nord et un mouvement radial vers l’intérieur pour les centres d’affaissement maximal au sud, avec une vitesse typique de 1 à 1,6±0,4 mm/an. Cependant, ce modèle devient plus complexe près des marges des anciennes zones glaciaires. Basées selon leurs directions, les vitesses horizontales intraplaques peuvent être divisées en trois zones distinctes. Cela confirme les conclusions d’autres chercheurs sur l’existence de trois dômes de glace dans la région d’étude avant le dernier maximum glaciaire. Une corrélation spatiale est observée entre les zones de vitesses horizontales intraplaques de magnitude plus élevée et les zones sismiques le long du fleuve Saint-Laurent. Les vitesses verticales ont ensuite été interpolées pour modéliser la déformation verticale. Le modèle montre un taux de soulèvement maximal de 15,6 mm/an au sud-est de la baie d’Hudson et un taux d’affaissement typique de 1 à 2 mm/an au sud, principalement dans le nord des États-Unis. Le long du fleuve Saint-Laurent, les mouvements horizontaux et verticaux sont cohérents spatialement. Il y a un déplacement vers le sud-est d’une magnitude d’environ 1,3 mm/an et un soulèvement moyen de 3,1 mm/an par rapport à la plaque l’Amérique du Nord. Le taux de déformation verticale est d’environ 2,4 fois plus grand que le taux de déformation horizontale intraplaque. Les résultats de l’analyse de déformation montrent l’état actuel de déformation dans l’est du Canada sous la forme d’une expansion dans la partie nord (la zone se soulève) et d’une compression dans la partie sud (la zone s’affaisse). Les taux de rotation sont en moyenne de 0,011°/Ma. Nous avons observé une compression NNO-SSE avec un taux de 3.6 à 8.1 nstrain/an dans la zone sismique du Bas-Saint-Laurent. Dans la zone sismique de Charlevoix, une expansion avec un taux de 3,0 à 7,1 nstrain/an est orientée ENE-OSO. Dans la zone sismique de l’Ouest du Québec, la déformation a un mécanisme de cisaillement avec un taux de compression de 1,0 à 5,1 nstrain/an et un taux d’expansion de 1.6 à 4.1 nstrain/an. Ces mesures sont conformes, au premier ordre, avec les modèles d’ajustement isostatique glaciaire et avec la contrainte de compression horizontale maximale du projet World Stress Map, obtenue à partir de la théorie des mécanismes focaux (focal mechanism method).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’Internet Physique (IP) est une initiative qui identifie plusieurs symptômes d’inefficacité et non-durabilité des systèmes logistiques et les traite en proposant un nouveau paradigme appelé logistique hyperconnectée. Semblable à l’Internet Digital, qui relie des milliers de réseaux d’ordinateurs personnels et locaux, IP permettra de relier les systèmes logistiques fragmentés actuels. Le but principal étant d’améliorer la performance des systèmes logistiques des points de vue économique, environnemental et social. Se concentrant spécifiquement sur les systèmes de distribution, cette thèse remet en question l’ordre de magnitude du gain de performances en exploitant la distribution hyperconnectée habilitée par IP. Elle concerne également la caractérisation de la planification de la distribution hyperconnectée. Pour répondre à la première question, une approche de la recherche exploratoire basée sur la modélisation de l’optimisation est appliquée, où les systèmes de distribution actuels et potentiels sont modélisés. Ensuite, un ensemble d’échantillons d’affaires réalistes sont créé, et leurs performances économique et environnementale sont évaluées en ciblant de multiples performances sociales. Un cadre conceptuel de planification, incluant la modélisation mathématique est proposé pour l’aide à la prise de décision dans des systèmes de distribution hyperconnectée. Partant des résultats obtenus par notre étude, nous avons démontré qu’un gain substantiel peut être obtenu en migrant vers la distribution hyperconnectée. Nous avons également démontré que l’ampleur du gain varie en fonction des caractéristiques des activités et des performances sociales ciblées. Puisque l’Internet physique est un sujet nouveau, le Chapitre 1 présente brièvement l’IP et hyper connectivité. Le Chapitre 2 discute les fondements, l’objectif et la méthodologie de la recherche. Les défis relevés au cours de cette recherche sont décrits et le type de contributions visés est mis en évidence. Le Chapitre 3 présente les modèles d’optimisation. Influencés par les caractéristiques des systèmes de distribution actuels et potentiels, trois modèles fondés sur le système de distribution sont développés. Chapitre 4 traite la caractérisation des échantillons d’affaires ainsi que la modélisation et le calibrage des paramètres employés dans les modèles. Les résultats de la recherche exploratoire sont présentés au Chapitre 5. Le Chapitre 6 décrit le cadre conceptuel de planification de la distribution hyperconnectée. Le chapitre 7 résume le contenu de la thèse et met en évidence les contributions principales. En outre, il identifie les limites de la recherche et les avenues potentielles de recherches futures.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’abandon des études universitaires a attiré l’attention de plusieurs chercheurs. Toutefois, il est difficile de saisir la persévérance dans sa globalité à cause de sa complexité et le nombre important des facteurs associés. La persévérance aux études est liée aux facteurs individuels, aux facteurs contextuels et à la situation financière au cours des études. Ces facteurs ont été étudiés séparément et d’une manière isolée, et aucune étude n’a, à notre connaissance, tenté de mettre ces facteurs simultanément dans un même modèle. Dans cette thèse, nous identifions les principaux déterminants de la persévérance, tout en nous appuyant sur le modèle des attentes et des valeurs (Eccles et al., 1983), le modèle interactionnel de Tinto (1975) et les modèles d’impact financier (Paulsen & St. John, 1997; St. John, 1990; St. John et al., 1994). Cette thèse a pour objectif de valider un modèle de persévérance aux études universitaires de premier cycle. Celle-ci comporte deux études. Une étude rétrospective qui permet d’évaluer, à partir de l’expérience antérieure des étudiants (n = 731), les principaux facteurs qui ont joué un rôle sur le plan de la persévérance ou de l’abandon des études. Une étude prospective suivant sur une période de six mois (deux temps de mesure) des étudiants inscrits dans un programme de baccalauréat à l’Université Laval (n = 3 084). Pour les résultats de l’étude rétrospective, la situation financière, les performances scolaires antérieures et le fait d’avoir effectué des études préuniversitaires au Cégep prédisent la persévérance. Pour le premier temps de mesure de l’étude prospective, la perception de compétence, les attentes de succès et l’intérêt prédisent l’intention de persévérer. Deux facteurs interactionnels prédisent l’intention de persévérer à savoir : les interactions avec les pairs et l’engagement institutionnel et universitaire. En ce qui concerne le deuxième temps de mesure de l’étude prospective, l’intention de persévérer, la préoccupation de la Faculté par rapport à l’enseignement et au développement des étudiants, le développement intellectuel et académique ainsi que le fait d’avoir fait des études préuniversitaires au Cégep prédisent la persévérance. Les implications théoriques, méthodologiques et pratiques sont abordées et des pistes de recherches futures sont proposées.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les technologies numériques changent-elles vraiment la littérature? Peut-on parler d'une littérature numérique? Y a-t-il opposition entre la littérature papier et la littérature numérique? D'une part, on pourrait dire qu'il n'existe aucune opposition entre ces deux formes de littérature car, dans les faits, il n'y a que des pratiques qui s'inscrivent toujours dans une continuité. D'autre part, on pourrait affirmer qu'au contraire il y a des différences fondamentales dans les pratiques d'écritures, dans les modèles de diffusion et de réception, dans les formats, dans les supports, etc. Cet article explore ces deux perspectives.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La planification de l’approvisionnement forestier est une tâche complexe nécessitant la prise en compte de plusieurs facteurs qui opèrent dans un contexte instable. Au cours des dernières années, des modèles mathématiques ont été développés pour supporter les entreprises forestières dans leur processus de planification de l’approvisionnement. Néanmoins, le nouveau régime de gestion de la ressource établi par le gouvernement implique maintenant un marché libre de bois, ce qui engendre une nouvelle source d’incertitude. Les modèles d’approvisionnement forestier développés deviennent ainsi incomplets. L’objectif de cette recherche est donc de guider les industriels forestiers dans la planification de leur approvisionnement tout en leur offrant une approche de mise optimale dans le cadre d’enchères scellées au premier prix. Pour ce faire, nous avons exploré différentes stratégies d’approvisionnement regroupant un modèle de base avec approvisionnement via le bois garanti et les enchères, un autre incluant l’achat sur terres privées et un dernier prenant en considération la collaboration entre des partenaires industriels pour la mise aux enchères. Les modèles de planification des opérations forestières élaborés cherchent à maximiser le profit d’une compagnie forestière, tout en sélectionnant la combinaison optimale de secteurs forestiers sur lesquels miser dans les ventes aux enchères. Les résultats pour le cas étudié montrent qu’une compagnie qui applique l’approche de mise optimale proposée obtient une moyenne de gain plus élevée que les autres soumissionnaires qui n’appliquent pas une telle approche. De plus, lorsque la compagnie forestière intègre dans sa planification l’approvisionnement via des forêts privées, elle peut obtenir un profit plus élevé (augmentation de 5% par rapport au modèle de base). La collaboration s’avère la stratégie d’approvisionnement qui offre le profit le plus élevé pour la compagnie tout en permettant une utilisation plus efficace de la ressource forestière.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’augmentation de la croissance des réseaux, des blogs et des utilisateurs des sites d’examen sociaux font d’Internet une énorme source de données, en particulier sur la façon dont les gens pensent, sentent et agissent envers différentes questions. Ces jours-ci, les opinions des gens jouent un rôle important dans la politique, l’industrie, l’éducation, etc. Alors, les gouvernements, les grandes et petites industries, les instituts universitaires, les entreprises et les individus cherchent à étudier des techniques automatiques fin d’extraire les informations dont ils ont besoin dans les larges volumes de données. L’analyse des sentiments est une véritable réponse à ce besoin. Elle est une application de traitement du langage naturel et linguistique informatique qui se compose de techniques de pointe telles que l’apprentissage machine et les modèles de langue pour capturer les évaluations positives, négatives ou neutre, avec ou sans leur force, dans des texte brut. Dans ce mémoire, nous étudions une approche basée sur les cas pour l’analyse des sentiments au niveau des documents. Notre approche basée sur les cas génère un classificateur binaire qui utilise un ensemble de documents classifies, et cinq lexiques de sentiments différents pour extraire la polarité sur les scores correspondants aux commentaires. Puisque l’analyse des sentiments est en soi une tâche dépendante du domaine qui rend le travail difficile et coûteux, nous appliquons une approche «cross domain» en basant notre classificateur sur les six différents domaines au lieu de le limiter à un seul domaine. Pour améliorer la précision de la classification, nous ajoutons la détection de la négation comme une partie de notre algorithme. En outre, pour améliorer la performance de notre approche, quelques modifications innovantes sont appliquées. Il est intéressant de mentionner que notre approche ouvre la voie à nouveaux développements en ajoutant plus de lexiques de sentiment et ensembles de données à l’avenir.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cette thèse porte sur les pratiques culturelles des Québécois et des Québécoises et, plus spécifiquement dans un premier temps, sur les facteurs qui les influencent. Elle traite ensuite des comparaisons entre les individus selon les générations et les cycles de vie. Finalement, elle porte sur les découpages territoriaux régionaux sur le plan des pratiques culturelles et sur les questions liées au territoire. Tous les résultats sont tirés des enquêtes sur les pratiques culturelles au Québec menées à tous les cinq ans depuis 1979 par les ministères en charge de la culture. Les deux principaux référents théoriques sont la théorie de la légitimité de Bourdieu et la figure de l’omnivore de Peterson. Dans la première partie, cette thèse a cherché à savoir si les usages d’Internet sont associés à une ouverture culturelle ou à un confinement. Les résultats montrent que l’âge, la scolarité et les usages culturels que l’on fait d’Internet sont des prédicteurs importants des visites des lieux culturels et des sorties au spectacle. Les modèles qui incluent les usages d’Internet et des variables sociodémographiques sont plus performants que ceux ne considérant que ces dernières. Dans la deuxième partie, les quasi-cohortes à l’étude ont été comparées afin de voir si leurs comportements culturels diffèrent selon les cycles de vie et si leur parcours culturel a varié dans le temps. Finalement, la diversification des pratiques des quasi-cohortes a été étudiée afin d’estimer si elles deviennent plus omnivores avec le temps et d’une quasi-cohorte à l’autre. Le modèle explicatif créé affiche des différences dans le parcours culturel selon les cycles de vie, de même qu’au fil du temps. Il met également en lumière des différences d’une génération à l’autre, de même que des différences entre les générations lorsqu’elles traversent un même cycle de vie. À la différence de ceux de Peterson (2004), les résultats ne permettent pas de conclure que les quasi-cohortes plus âgées sont plus omnivores qu’avant ni que les jeunes sont plus omnivores que leurs aînés. La troisième partie de ce travail avait un objectif comparatif : il s’agissait de voir si les régions administratives du Québec, lorsqu’elles sont étudiées sous l’angle des pratiques culturelles, se regroupent conformément à la typologie des espaces culturels régionaux développée par Harvey et Fortin (1995) sur la base de l’offre culturelle. Les résultats montrent que les regroupements ne sont pas toujours conformes à la typologie et que les pratiques sont très hétérogènes, ce qui permet difficilement d’établir une constance dans les regroupements. Aussi semble-t-il indiqué de fonder la comparaison des territoires sur la prise en compte de l’objet (p. ex. offre ou pratique culturelle), de l’échelle territoriale (p. ex. bibliothèque municipale ou musée national) et de la nature du produit ou de la pratique (p. ex. mobile ou immobile). En conclusion, la pertinence d’élargir l’horizon des pratiques culturelles mesurées dans les enquêtes et d’y inclure des phénomènes transcendants, comme les valeurs, les contraintes et la motivation a été remise en question. À titre d’exemple, l’étude de la motivation pourrait permettre de préciser la figure de l’omnivore au Québec. Il est également apparu pertinent de poursuivre la réflexion en étudiant la manière dont les pratiques culturelles sont consommées afin de voir si, et comment, le cas échéant, s’opère la distinction.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’effet du climat sur la croissance de la végétation est depuis longtemps un fait acquis. Les changements climatiques globaux ont entrainé une augmentation des efforts de recherche sur l’impact de ces changements en milieux naturels, à la fois en termes de distribution et d’abondance des espèces, mais également à travers l’étude des rendements des espèces commerciales. La présente étude vise à déterminer, à travers l’utilisation de relevés dendrochronologiques, les effets de variables climatiques sur la croissance de l’épinette noire et du sapin baumier à l’échelle de la forêt boréale du Québec. Le but est d’identifier les principaux modificateurs climatiques responsables de la croissance des peuplements boréaux en fonction de leur âge et de leur localisation. Se focalisant sur un modèle non-linéaire des moindres carrés incorporant les modificateurs climatiques et un modificateur d’âge, la modélisation de la croissance en surface terrière en fonction de ces critères a permis de détecter des différences entre le sapin baumier et l’épinette noire. Les résultats montrent que les deux espèces réagissent surtout à la longueur de la saison de croissance et aux températures estivales maximales. L’épinette noire semble également plus sensible aux conditions de sécheresse. Les modèles basés sur l’âge ainsi que sur la localisation le long d’un gradient nord-sud révèlent quelques différences, notamment concernant la réaction plus prononcée des jeunes peuplements au climat, en particulier aux températures, tandis que les vieux peuplements sont sensibles au rayonnement solaire. L’étude démontre tout de même une relative indépendance de l’épinette vis-à-vis du gradient latitudinal, à l’inverse du sapin. Les résultats permettent de discuter des modifications de productivité de ces espèces liées à l’allongement de la saison de croissance (gain pour les deux essences) et aux températures croissantes en conjonction avec les précipitations (perte due à la sécheresse pour l’épinette), dans un contexte de changements climatiques.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Résumé : La capacité de décider parmi plusieurs possibilités d'actions, grâce à l'information sensorielle disponible, est essentielle à un organisme interagissant avec un environnement complexe. Les modèles actuels de sélection d'une action soutiennent que le cerveau traite continuellement l'information sensorielle afin de planifier plusieurs possibilités d'action en parallèle. Dans cette perspective, ces représentations motrices, associées à chaque possibilité d'action, sont en constante compétition entre elles. Afin qu'une alternative puisse être sélectionnée pour le mouvement, une valeur de pondération, intégrant une multitude de facteurs, doit être associée à chacun des plans moteurs afin de venir moduler la compétition. Plusieurs études se sont intéressées aux différents facteurs modulant la sélection de l'action, tels que la disposition de l'environnement, le coût des actions, le niveau de récompense, etc. Par contre, il semble qu'aucune étude n'ait rapporté ce qu'il advient lorsque la valeur de pondération de chacune des actions possibles est identique. Dans ce contexte, quel est l'élément permettant de venir moduler la sélection de l'action? De ce fait, l'objectif principal de mon projet de maitrise est d'investiguer le facteur permettant au cerveau de sélectionner une action lorsque tous les facteurs rapportés dans la littérature sont contrôlés. De récentes données ont montré que les oscillations corticales lentes dans la bande delta peuvent servir d'instrument de sélection attentionnelle en modulant l'amplitude de la réponse neuronale. Ainsi, les stimuli arrivant dans le cortex pendant une phase en delta de forte excitabilité sont amplifiés, tandis que ceux arrivant lors d'une phase en delta de faible excitabilité sont atténués. Ceci dit, il est possible que la phase en delta dans laquelle se trouve le cerveau au moment d'effectuer la sélection d'une action puisse influencer la décision. Utilisant une tâche de sélection de main, cette étude teste l'hypothèse que la sélection de la main est associée à la phase en delta des ensembles neuronaux codant le mouvement de chacune des mains, lorsque tous les facteurs connus influençant la décision sont contrôlés. L'électroencéphalographie (EEG) fut utilisée afin d'enregistrer les signaux corticaux pendant que les participants effectuaient une tâche de sélection de main dans laquelle ils devaient, à chaque essai, atteindre une cible visuelle aussi rapidement que possible en utilisant la main de leur choix. La tâche fut conçue de façon à ce que les facteurs spatiaux et biomécaniques soient contrôlés. Ceci fut réalisé enidentifiant premièrement, sur une base individuelle, l'emplacement de la cible pour laquelle les mains droite et gauche avaient une probabilité équivalente d'être choisies (point d'égalité subjective, PSE). Ensuite, dans l'expérience principale, les participants effectuaient plusieurs mouvements d'atteinte vers des cibles positionnées près et loin du PSE, toujours avec la main de leur choix. L'utilisation de cinq cibles très près du PSE a permis de collecter de nombreux essais dans lesquels la main droite et la main gauche furent sélectionnées en réponse à un même stimulus visuel. Ceci a ainsi permis d'analyser les signaux des deux cortex dans des conditions d'utilisation de la main droite et gauche, tout en contrôlant pour les autres facteurs pouvant moduler la sélection de la main. Les résultats de cette recherche révèlent que l'hémisphère cortical se trouvant dans la phase la plus excitable en delta (près du pic négatif), lors de l'apparition du stimulus, est associé à la fois à la main qui sera sélectionnée ainsi qu'au temps de réaction. Ces résultats montrent que l'excitabilité corticale momentanée (phase du signal) pourrait agir comme un facteur modulant la sélection d'une action. Dans cette optique, ces données élargissent considérablement les modèles actuels en montrant que la sélection d'une action est en partie déterminée par l'état du cerveau au moment d'effectuer un choix, d'une manière qui est indépendante de toutes les variables de décision connues.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’anorexie mentale et l’anorexie mentale atypique sont des problématiques de santé mentale qui affectent une portion non négligeable de la population. Toutefois, encore très peu d’études ont permis de démontrer l’efficacité des traitements pour ces troubles. L’évolution des connaissances dans les modèles explicatifs de l’anorexie oriente vers des processus psychologiques à cibler dans le traitement différents de ceux des thérapies conventionnelles. La présente étude vise à évaluer l’efficacité de la thérapie d’acceptation et d’engagement (ACT) sous forme d’un manuel d’auto-traitement appliqué à une population souffrant d’anorexie mentale ou d’anorexie mentale atypique. Un protocole expérimental à cas unique à niveaux de base multiples a été utilisé. Quatre femmes francophones présentant un de ces deux diagnostics ont reçu le traitement sur une durée de 13 semaines. Les résultats démontrent que les niveaux quotidiens d’actions pour maîtriser le poids et de préoccupations par rapport au poids et à la nourriture ont diminué suite au traitement. Le traitement a aussi permis aux participantes de passer d’un diagnostic de sévérité clinique à un en rémission partielle. La sévérité des symptômes de trouble alimentaire a aussi diminué suite au traitement et la flexibilité de l’image corporelle des participantes a augmenté, et ce de manières cliniquement significatives. Des processus propres à l’intervention ACT sont avancés pour rendre compte des effets observés.