27 resultados para Roux-en-Y gastric bypass


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Un papier bioactif est obtenu par la modification d’un papier en y immobilisant une ou plusieurs biomolécules. La recherche et le développement de papiers bioactifs est en plein essor car le papier est un substrat peu dispendieux qui est déjà d’usage très répandu à travers le monde. Bien que les papiers bioactifs n’aient pas connus de succès commercial depuis la mise en marche de bandelettes mesurant le taux de glucose dans les années cinquante, de nombreux groupes de recherche travaillent à immobiliser des biomolécules sur le papier pour obtenir un papier bioactif qui est abordable et possède une bonne durée de vie. Contrairement à la glucose oxidase, l’enzyme utilisée sur ces bandelettes, la majorité des biomolécules sont très fragiles et perdent leur activité très rapidement lorsqu’immobilisées sur des papiers. Le développement de nouveaux papiers bioactifs pouvant détecter des substances d’intérêt ou même désactiver des pathogènes dépend donc de découverte de nouvelles techniques d’immobilisation des biomolécules permettant de maintenir leur activité tout en étant applicable dans la chaîne de production actuelle des papiers fins. Le but de cette thèse est de développer une technique d’immobilisation efficace et versatile, permettant de protéger l’activité de biomolécules incorporées sur des papiers. La microencapsulation a été choisie comme technique d’immobilisation car elle permet d’enfermer de grandes quantités de biomolécules à l’intérieur d’une sphère poreuse permettant leur protection. Pour cette étude, le polymère poly(éthylènediimine) a été choisi afin de générer la paroi des microcapsules. Les enzymes laccase et glucose oxidase, dont les propriétés sont bien établies, seront utilisées comme biomolécules test. Dans un premier temps, deux procédures d’encapsulation ont été développées puis étudiées. La méthode par émulsion produit des microcapsules de plus petits diamètres que la méthode par encapsulation utilisant un encapsulateur, bien que cette dernière offre une meilleure efficacité d’encapsulation. Par la suite, l’effet de la procédure d’encapsulation sur l’activité enzymatique et la stabilité thermique des enzymes a été étudié à cause de l’importance du maintien de l’activité sur le développement d’une plateforme d’immobilisation. L’effet de la nature du polymère utilisé pour la fabrication des capsules sur la conformation de l’enzyme a été étudié pour la première fois. Finalement, l’applicabilité des microcapsules de poly(éthylèneimine) dans la confection de papiers bioactifs a été démontré par le biais de trois prototypes. Un papier réagissant au glucose a été obtenu en immobilisant des microcapsules contenant l’enzyme glucose oxidase. Un papier sensible à l’enzyme neuraminidase pour la détection de la vaginose bactérienne avec une plus grande stabilité durant l’entreposage a été fait en encapsulant les réactifs colorimétriques dans des capsules de poly(éthylèneimine). L’utilisation de microcapsules pour l’immobilisation d’anticorps a également été étudiée. Les avancées au niveau de la plateforme d’immobilisation de biomolécules par microencapsulation qui ont été réalisées lors de cette thèse permettront de mieux comprendre l’effet des réactifs impliqués dans la procédure de microencapsulation sur la stabilité, l’activité et la conformation des biomolécules. Les résultats obtenus démontrent que la plateforme d’immobilisation développée peut être appliquée pour la confection de nouveaux papiers bioactifs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les transfusions de globules rouges (GR) sont fréquentes aux soins intensifs pédiatriques (SIP). Cependant, il n’y a pas de donnée récente sur les pratiques transfusionnelles aux SIP. Les objectifs de notre étude étaient 1) de décrire les pratiques transfusionnelles aux SIP du CHU Sainte-Justine en y déterminant la fréquence des transfusions de GR et en caractérisant les déterminants de ces transfusions, 2) de comparer ces pratiques avec celles observées il y a dix ans, et 3) d’évaluer le degré d’adhérence à la recommandation principale d’une large étude randomisée contrôlée, l’étude TRIPICU, laquelle proposait une pratique précise chez les patients stabilisés. Nous avons réalisé une étude monocentrique prospective observationnelle d’une durée d’un an. L’information requise a été extraite des dossiers médicaux. Les déterminants des transfusions ont été recherchés quotidiennement jusqu’à la première transfusion pour les cas transfusés, ou jusqu’à la sortie des SIP pour les cas non transfusés. Les justifications des transfusions déclarées par les médecins traitants ont été compilées à l’aide d’un questionnaire. Il y a eu 913 admissions consécutives durant la période d’étude, dont 842 ont été retenues. Au moins une transfusion a été donnée à 144 patients (17.1%). Le taux moyen d’hémoglobine avant la première transfusion était de 77.3±27.2 g/L. Les déterminants d’un premier événement transfusionnel à l’analyse multivariée étaient le jeune âge (< 12 mois), la présence d’une cardiopathie congénitale, un nadir d’hémoglobine ≤ 70 g/L, la gravité de la maladie, et certaines dysfonctions d’organe. Les trois justifications de transfusions les plus fréquemment évoquées par les médecins étaient une hémoglobine basse, un transport en oxygène insuffisant et une instabilité hémodynamique. La recommandation principale de l’étude TRIPICU a été appliquée dans 96.4% des premiers événements transfusionnels. En conclusion, les transfusions de GR sont fréquentes aux SIP. Jeune âge, cardiopathie congénitale, hémoglobine basse, gravité de la maladie et certaines dysfonctions d’organes sont des déterminants significatifs de transfusions de GR aux SIP. La plupart des premiers événements transfusionnels furent prescrits en accord avec les récentes recommandations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’essai Au théâtre on meurt pour rien. Raconter la mort sans coupable, entre Maeterlinck et Chaurette, compare divers usages dramatiques du récit de mort sous l’éclairage de la généalogie nietzschéenne de l’inscription mémorielle. Pour illustrer l’hypothèse d’une fonction classique du témoin de la mort − donner sens au trépas en le situant dans une quête scénique de justice −, l’essai fait appel à des personnages-types chez Eschyle, Shakespeare et Racine. En contraste, des œuvres du dramaturge moderne Maeterlinck (Intérieur) et du dramaturge contemporain Normand Chaurette (Fragments d’une lettre d’adieu lus par des géologues, Stabat Mater II) sont interprétées comme logeant toute leur durée scénique dans un temps de la mort qui dépasserait la recherche d’un coupable absolu ; une étude approfondie les distingue toutefois par la valeur accordée à l’insolite et à la banalité, ainsi qu’à la singularité des personnages. Le plancher sous la moquette est une pièce de théâtre en trois scènes et trois registres de langue, pour deux comédiennes. Trois couples de sœurs se succèdent dans le salon d’un appartement, jadis une agence de détective qui a marqué leur imaginaire d’enfant. Thématiquement, la pièce déplace le lien propre aux films noirs entre l’enquête et la ville, en y juxtaposant le brouillage temporel qu’implique l’apparition de fantômes. Chacune des trois scènes déréalise les deux autres en redistribuant les mêmes données selon une tonalité autre, mais étrangement similaire, afin d’amener le spectateur à douter du hors-scène : le passé, l’appartement, Montréal. Son réflexe cartésien de traquer la vérité doit le mener à découvrir que les scènes ne vont pas de l’ombre à la lumière, mais qu’elles montrent plutôt que dans l’une et l’autre, la mort n’échappe pas aux trivialités de la mémoire.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Avec la mise en place dans les dernières années d'une grappe d'ordinateurs (CALYS) dédiés aux calculs de modèles stellaires pour notre groupe de recherche, il nous est désormais possible d'exploiter à leur plein potentiel les modèles d'atmosphères hors équilibre thermodynamique local (HETL) en y incluant des éléments métalliques. Ce type de modèles, plutôt exigeant en temps de calcul, est toutefois essentiel pour analyser correctement les spectres d'étoiles chaudes comme les sous-naines de type O (sdO). Les travaux effectués dans le cadre de cette thèse ont comme point commun l'utilisation de tels modèles d'atmosphères pour faire l'analyse spectroscopique d'étoiles sous-naines chaudes dans des contextes variés. Le coeur de cette thèse porte sur Bd+28 4211, une étoile standard de type sdO très chaude, dans laquelle le problème des raies de Balmer, qui empêche de reproduire ces dernières avec une unique, et réaliste, combinaison de paramètres atmosphériques, est bien présent. Dans un premier temps nous présentons une analyse approfondie de son spectre ultraviolet (UV). Cela nous permet de déterminer les abondances de métaux dans l'atmosphère de l'étoile et de contraindre sa température effective et sa gravité de surface. Par la suite, ces résultats servent de point de départ à l'analyse du spectre optique de l'étoile, dans lequel le problème des raies de Balmer se fait sentir. Cette analyse nous permet de conclure que l'inclusion des abondances métalliques propres à l'étoile dans les modèles d'atmosphères HETL n'est pas suffisant pour surmonter le problème des raies de Balmer. Toutefois, en y incluant des abondances dix fois solaires, nous arrivons à reproduire correctement les raies de Balmer et d'hélium présentes dans les spectres visibles lors d'un ajustement de paramètres. De plus, les paramètres résultants concordent avec ceux indiqués par le spectre UV. Nous concluons que des sources d'opacité encore inconnues ou mal modélisées sont à la source de ce problème endémique aux étoiles chaudes. Par la suite nous faisons une étude spectroscopique de Feige 48, une étoile de type sdB pulsante particulièrement importante. Nous arrivons à reproduire très bien le spectre visible de cette étoile, incluant les nombreuses raies métalliques qui s'y trouvent. Les paramètres fondamentaux obtenus pour Feige 48 corroborent ceux déjà présents dans la littérature, qui ont été obtenus avec des types de modèles d'atmosphères moins sophistiqués, ce qui implique que les effets HETL couplés à la présence de métaux ne sont pas importants dans l'atmosphère de cette étoile particulière. Nous pouvons donc affirmer que les paramètres de cette étoile sont fiables et peuvent servir de base à une future étude astérosismologique quantitative. Finalement, 38 étoiles sous-naines chaudes appartenant à l'amas globulaire omega Centauri ont été analysées afin de déterminer, outre leur température et gravité de surface, leurs abondances d'hélium et de carbone. Nous montrons qu'il existe une corrélation entre les abondances photosphériques de ces deux éléments. Nous trouvons aussi des différences entre les étoiles riches en hélium de l'amas du celles du champ. Dans leur ensemble, nos résultats remettent en question notre compréhension du mécanisme de formation des sous-naines riches en hélium.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire propose une étude du dernier recueil du poète québécois Paul-Marie Lapointe, intitulé Espèces fragiles, en y détaillant la présence d’un intertexte scientifique et en dégageant les effets de sens liés à la juxtaposition de postures intertextuelles variées. Nous suggérons que l’idée d’une intertextualité dite « externe » jumelée à la notion de la « référencialité » peut aider à comprendre les enjeux d’une intertextualité scientifique en poésie. En regard de la place du sujet et de l’objet dans la poésie de Lapointe, nous montrons que la présence d’un intertexte littéraire est directement liée à l’élaboration de l’intertexte archéologique dans Espèces fragiles. Finalement, nous proposons que les effets de lecture issus des tonalités plurielles du recueil accentuent la critique des logiques économiques contemporaines présentée par Lapointe. Le détournement de l’intertexte scientifique fait ainsi valoir la nécessité d’une mémoire culturelle forte, marquée par la résurgence constante du passé dans un présent en devenir.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les archives sont aujourd’hui utilisées et envisagées hors de leur lieu traditionnel qu’est le service d’archives et souvent même hors de l’action des archivistes. Cette thèse de doctorat propose un renversement dialectique benjaminien dans la conception de l’archivistique dont le point central devient l’utilisation des archives définitives plutôt que la production des documents. Les premiers chapitres retracent les différentes compréhensions des archives depuis la création des institutions nationales au 19e siècle jusqu’au renouvellement opéré par certains archivistes se réclamant de la postmodernité à la fin du 20e siècle. Cette histoire des archives et de l’archivistique montre que les archives définitives sont caractérisées au regard du rapport au passé qu’elles permettent et que les archivistes pensent leur objet depuis la question historiographique de l’écriture de l’histoire. Ainsi, deux conceptions générales des archives coexistent aujourd’hui et apparaissent comme essentiellement contradictoires en ce que l’une (traditionnelle) est centrée sur le créateur des documents et le passé compris comme l’ensemble des actes posés par le créateur, tandis que l’autre (postmoderne) se fonde sur les fonctions sociales des archives et sur le rôle de l’archiviste. L’élément commun à ces deux visions est l’absence de prise en charge théorique des utilisateurs et de l’exploitation des documents. Or, en suivant les traces et la pensée de Walter Benjamin, nous proposons de penser la double nature des archives comme documents et comme témoignage tout en articulant cette pensée à l’archive comme modalité d’inscription de soi dans le temps. Il en ressort que les archives peuvent être considérées comme une objectivation du passé relevant d’une temporalité chronologique au cœur de laquelle réside, à l’état latent, l’archive potentiellement libératrice. L’exploitation artistique des archives, telle qu’elle est présentée dans le cinquième chapitre, montre comment la notion d’archives explose. En outre, l’observation de ce type particulier d’exploitation permet de mettre au jour le fait que les archives sont toujours inscrites dans des conditions d’utilisation (contexte, matérialité, dispositif, rapport au public) qui sont autant de conditions d’existence de l’archive. Parmi les questions abordées par les artistes celles de la mémoire, de l’authenticité, des archives comme moyen d’appropriation du monde et comme objet poétique sont alors autant de points d’entrée possibles pour revisiter l’archivistique. Le dernier chapitre synthétise l’ensemble des renouvellements proposés au fil de la thèse de manière implicite ou explicite. Nous y envisageons une temporalité non chronologique où les archives sont un objet du passé qui, saisi par un présent dialectique singulier, sont tournées à la fois vers le passé et vers l’avenir. De nouvelles perspectives sont ouvertes pour l’archivistique à partir des caractéristiques assignées aux archives par les artistes. Finalement, c’est le cycle de vie des archives qui peut être revu en y incluant l’exploitation comme dimension essentielle.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les questions abordées dans les deux premiers articles de ma thèse cherchent à comprendre les facteurs économiques qui affectent la structure à terme des taux d'intérêt et la prime de risque. Je construis des modèles non linéaires d'équilibre général en y intégrant des obligations de différentes échéances. Spécifiquement, le premier article a pour objectif de comprendre la relation entre les facteurs macroéconomiques et le niveau de prime de risque dans un cadre Néo-keynésien d'équilibre général avec incertitude. L'incertitude dans le modèle provient de trois sources : les chocs de productivité, les chocs monétaires et les chocs de préférences. Le modèle comporte deux types de rigidités réelles à savoir la formation des habitudes dans les préférences et les coûts d'ajustement du stock de capital. Le modèle est résolu par la méthode des perturbations à l'ordre deux et calibré à l'économie américaine. Puisque la prime de risque est par nature une compensation pour le risque, l'approximation d'ordre deux implique que la prime de risque est une combinaison linéaire des volatilités des trois chocs. Les résultats montrent qu'avec les paramètres calibrés, les chocs réels (productivité et préférences) jouent un rôle plus important dans la détermination du niveau de la prime de risque relativement aux chocs monétaires. Je montre que contrairement aux travaux précédents (dans lesquels le capital de production est fixe), l'effet du paramètre de la formation des habitudes sur la prime de risque dépend du degré des coûts d'ajustement du capital. Lorsque les coûts d'ajustement du capital sont élevés au point que le stock de capital est fixe à l'équilibre, une augmentation du paramètre de formation des habitudes entraine une augmentation de la prime de risque. Par contre, lorsque les agents peuvent librement ajuster le stock de capital sans coûts, l'effet du paramètre de la formation des habitudes sur la prime de risque est négligeable. Ce résultat s'explique par le fait que lorsque le stock de capital peut être ajusté sans coûts, cela ouvre un canal additionnel de lissage de consommation pour les agents. Par conséquent, l'effet de la formation des habitudes sur la prime de risque est amoindri. En outre, les résultats montrent que la façon dont la banque centrale conduit sa politique monétaire a un effet sur la prime de risque. Plus la banque centrale est agressive vis-à-vis de l'inflation, plus la prime de risque diminue et vice versa. Cela est due au fait que lorsque la banque centrale combat l'inflation cela entraine une baisse de la variance de l'inflation. Par suite, la prime de risque due au risque d'inflation diminue. Dans le deuxième article, je fais une extension du premier article en utilisant des préférences récursives de type Epstein -- Zin et en permettant aux volatilités conditionnelles des chocs de varier avec le temps. L'emploi de ce cadre est motivé par deux raisons. D'abord des études récentes (Doh, 2010, Rudebusch and Swanson, 2012) ont montré que ces préférences sont appropriées pour l'analyse du prix des actifs dans les modèles d'équilibre général. Ensuite, l'hétéroscedasticité est une caractéristique courante des données économiques et financières. Cela implique que contrairement au premier article, l'incertitude varie dans le temps. Le cadre dans cet article est donc plus général et plus réaliste que celui du premier article. L'objectif principal de cet article est d'examiner l'impact des chocs de volatilités conditionnelles sur le niveau et la dynamique des taux d'intérêt et de la prime de risque. Puisque la prime de risque est constante a l'approximation d'ordre deux, le modèle est résolu par la méthode des perturbations avec une approximation d'ordre trois. Ainsi on obtient une prime de risque qui varie dans le temps. L'avantage d'introduire des chocs de volatilités conditionnelles est que cela induit des variables d'état supplémentaires qui apportent une contribution additionnelle à la dynamique de la prime de risque. Je montre que l'approximation d'ordre trois implique que les primes de risque ont une représentation de type ARCH-M (Autoregressive Conditional Heteroscedasticty in Mean) comme celui introduit par Engle, Lilien et Robins (1987). La différence est que dans ce modèle les paramètres sont structurels et les volatilités sont des volatilités conditionnelles de chocs économiques et non celles des variables elles-mêmes. J'estime les paramètres du modèle par la méthode des moments simulés (SMM) en utilisant des données de l'économie américaine. Les résultats de l'estimation montrent qu'il y a une évidence de volatilité stochastique dans les trois chocs. De plus, la contribution des volatilités conditionnelles des chocs au niveau et à la dynamique de la prime de risque est significative. En particulier, les effets des volatilités conditionnelles des chocs de productivité et de préférences sont significatifs. La volatilité conditionnelle du choc de productivité contribue positivement aux moyennes et aux écart-types des primes de risque. Ces contributions varient avec la maturité des bonds. La volatilité conditionnelle du choc de préférences quant à elle contribue négativement aux moyennes et positivement aux variances des primes de risque. Quant au choc de volatilité de la politique monétaire, son impact sur les primes de risque est négligeable. Le troisième article (coécrit avec Eric Schaling, Alain Kabundi, révisé et resoumis au journal of Economic Modelling) traite de l'hétérogénéité dans la formation des attentes d'inflation de divers groupes économiques et de leur impact sur la politique monétaire en Afrique du sud. La question principale est d'examiner si différents groupes d'agents économiques forment leurs attentes d'inflation de la même façon et s'ils perçoivent de la même façon la politique monétaire de la banque centrale (South African Reserve Bank). Ainsi on spécifie un modèle de prédiction d'inflation qui nous permet de tester l'arrimage des attentes d'inflation à la bande d'inflation cible (3% - 6%) de la banque centrale. Les données utilisées sont des données d'enquête réalisée par la banque centrale auprès de trois groupes d'agents : les analystes financiers, les firmes et les syndicats. On exploite donc la structure de panel des données pour tester l'hétérogénéité dans les attentes d'inflation et déduire leur perception de la politique monétaire. Les résultats montrent qu'il y a évidence d'hétérogénéité dans la manière dont les différents groupes forment leurs attentes. Les attentes des analystes financiers sont arrimées à la bande d'inflation cible alors que celles des firmes et des syndicats ne sont pas arrimées. En effet, les firmes et les syndicats accordent un poids significatif à l'inflation retardée d'une période et leurs prédictions varient avec l'inflation réalisée (retardée). Ce qui dénote un manque de crédibilité parfaite de la banque centrale au vu de ces agents.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Si la santé psychologique au travail retient de plus en plus l’attention de la communauté scientifique et des milieux de pratique, certains aspects du phénomène restent néanmoins à explorer. Notamment, les études se sont peu attardées au fonctionnement de l’individu dans l’organisation, focalisant plutôt sur les expériences subjectives associées au bien-être et à la détresse psychologiques. En outre, l’état des connaissances sur les mécanismes sous-jacents à la santé psychologique au travail demeure embryonnaire. Faute d’écrits sur la question, la compréhension du construit s’avère partielle. Devant ce constat, la présente thèse vise à modéliser la santé psychologique au travail en y intégrant des indicateurs du fonctionnement de l’employé. Dans cette optique, cinq études, regroupées en deux articles, ont été menées auprès de quatre échantillons indépendants (Article 1 : NA = 296, NB = 350, NC = 139; Article 2 : NB = 330, NC = 128; ND = 389). Le premier article a pour objet de développer une conceptualisation et une mesure du fonctionnement de l’individu dans l’organisation. Prenant appui sur les travaux en socialisation organisationnelle et sur la théorie de la conservation des ressources (Hobfoll, 1989, 2001), l’ajustement cognitif au travail est proposé à titre d’indicateur additionnel de la santé psychologique au travail. Des analyses factorielles exploratoires et confirmatoires, de même que des analyses de cohérence interne, d’invariance temporelle et de régression, confirment les qualités psychométriques de l’instrumentation et étayent la validité de l’ajustement cognitif au travail comme indicateur de la santé psychologique au travail. Le second article s’appuie sur la conceptualisation du fonctionnement de l’employé présentée dans le premier article pour tester une modélisation de la santé psychologique au travail. Se fondant sur la théorie de la conservation des ressources (Hobfoll, 1989, 2001), la santé psychologique au travail est modélisée comme un processus incluant quatre indicateurs, soit le bien-être psychologique, la détresse psychologique, l’ajustement cognitif et les réponses comportementales de stress au travail. Deux mécanismes distincts sont mis de l’avant pour expliquer les relations unissant les indicateurs positifs de santé psychologique au travail (c.-à-d., le bien-être psychologique et l’ajustement cognitif) et celles caractérisant les indicateurs négatifs (c.-à-d., la détresse psychologique et les réponses comportementales de stress). Des analyses acheminatoires et d’invariance transculturelle révèlent la présence des deux mécanismes et montrent que, au-delà de l’influence des demandes en emploi, le bien-être psychologique exerce un effet médiateur sur la relation positive entre des ressources personnelles (c.-à-d., optimisme et résilience) et organisationnelle (c.-à-d., climat de travail) et l’ajustement cognitif au travail. Les résultats mettent également en exergue le rôle médiateur de la détresse psychologique sur la relation négative entre les mêmes ressources et les réponses comportementales de stress au travail. Une discussion générale précise la portée des résultats présentés dans le cadre des deux articles.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La visée de ce texte est d’introduire le lecteur francophone à l’interprétation pragmatique de Hegel essentiellement présente dans le monde anglo-saxon. L’intérêt grandissant au sein de la francophonie pour ce genre de lecture nous porte à questionner le sens même du qualificatif « pragmatique » qui la caractérise. Cette précision faite, nous nous attarderons à la figure de la certitude sensible dans la Phénoménologie de l’esprit en y soulignant les thèmes pragmatiques, notamment dans le cas de ce que Wilfrid Sellars aurait appelé une critique du mythe du donné.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’objectif de ce travail était d’apporter une réflexion sur les influences du colonialisme européen aux XVII-XVIIIe siècles. Ayant déjà rédigé mon mémoire de fin de maîtrise sur la Corinthe archaïque et ses colonies, j’ai souhaité approfondir la question, en choisissant de situer la problématique dans un contexte historiographique plus large, dans le temps comme dans l’espace. Plusieurs auteurs se sont intéressés aux réceptions de l’Antiquité à des périodes spécifiques (Grell et Alexandre le Grand en France, Richard et les influences antiques de la Révolution américaine,…). Cependant, aucune analyse sur le long terme n’avait encore été fournie, pas davantage qu’une réflexion de fonds sur la place de l’Antiquité dans la manière de penser les colonies en Europe moderne. Cet état de fait, de même que la relative rareté des sources modernes traitant des colonies grecques, m’ont obligé à élargir au maximum le champ de recherche, en y incluant des auteurs qui, s’ils ne se préoccupèrent pas de colonisation, recoururent néanmoins au précédent grec pour illustrer des problématiques de leur temps. Toutefois, il est possible de constater à quel point les répertoires historiographiques concernant la Grèce antique et ses colonisations se sont développés dans le courant de ces deux siècles qui virent l’apogée et la chute des premiers empires coloniaux européens en Amérique du nord. Si la comparaison à l’Histoire grecque ne relevait souvent que du Topos et de la propagande (comme dans le cas de la comparaison du Grand Condé ou de Louis XIV à Alexandre le Grand), son utilisation dans le cadre de controverses à plus large échelle outrepassait aussi le seul lieu commun pour s’inscrire dans un discours rhétorique plus approfondi. Le choix de la colonisation grecque comme modèle de comparaison s’imposait d’autant plus logiquement que les divers auteurs, depuis les premiers colons jusqu’aux pères fondateurs américains, insistaient sur les mérites économiques des colonies européennes. D’autres régimes, comme l’empire espagnol au XVIe siècle ou l’empire britannique au XIXe siècle, ont davantage recouru à une terminologie d’inspiration romaine. En effet, leur politique se fondait plus sur l’idée d’une extension impérialiste de l’État que sur une vision commerciale du colonialisme. L’article de Krishan Kumar demeure l’un des plus importants sur la question. La réception de l’Histoire des colonies grecques aux Temps modernes fut avant tout le fruit d’une tentative de définition du colonialisme comme phénomène global, et d’une volonté de situer les nations européennes dans un contexte remontant aux origines de l’Occident. À l’heure où l’Europe amorçait sa domination sur la totalité de la planète, et où la course à la colonisation s’accélérait, la majorité des auteurs s’abritaient derrière l’image de thalassocraties antiques qui, si elles ne dénotaient pas un pouvoir politique centralisé, n’en contribuèrent pas moins à imposer la culture fondatrice de la pensée occidentale à tout le bassin méditerranéen. Quant aux guerres qui poussèrent les puissances antiques les unes contre les autres, elles ne faisaient qu’augurer des conflits à large échelle que furent les guerres franco-britanniques du XVIIIe siècle.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire explore les productions et les articulations des appartenances au mouvement Slow Fashion sur Twitter. En réaction au modèle actuel prédominant du Fast Fashion, basé sur une surproduction et une surconsommation des vêtements, le Slow Fashion sensibilise les différents acteurs du secteur de la mode à avoir une vision plus consciente des impacts de leurs pratiques sur les travailleurs, les communautés et les écosystèmes (Fletcher, 2007) et propose une décélération des cycles de production et de consommation des vêtements. L’enjeu de cette recherche est de montrer que le Slow Fashion se dessine notamment à travers les relations entres les différents acteurs sur Twitter et que l'ensemble de ces interactions prend la forme d'un rhizome, c’est-à-dire d’un système dans lequel les éléments qui le composent ne suivent aucune arborescence, aucune hiérarchie et n’émanent pas d’un seul point d’origine. (Deleuze & Guattari, 1976) Sur Twitter, les appartenances au Slow Fashion font surface, se connectent les unes aux autres par des liens de nature différente. Consommateurs, designers, entreprises, journalistes, etc., ces parties prenantes construisent collectivement le Slow Fashion comme mouvement alternatif à la mode mainstream actuelle. Mon cadre théorique s’est construit grâce à une analyse de la littérature des concepts de mode, d’identité et d’appartenance afin de mieux appréhender le contexte dans lequel le mouvement a émergé. Puis, j’ai également réalisé une étude exploratoire netnographique sur Twitter au cours de laquelle j’ai observé, tout en y participant, les interactions sur la plateforme abordant le Slow Fashion et/ou la mode éthique. Publiée sur ce blogue (http://belongingtoslowfashion.blogspot.ca), cette « creative presentation of research » (Chapman & Sawchuk, 2012) ne constitue pas une histoire présentant les prétendues origines de ce mouvement mais plutôt une photographie partielle à un certain moment du Slow Fashion. Construite tel un rhizome, elle n’a ni début, ni fin, ni hiérarchie. J’invite alors les lectrices/lecteurs à choisir n’importe quelle entrée et à délaisser toute logique linéaire et déductive. Cette exploration sera guidée par des liens hypertextes ou des annotations qui tisseront des connexions avec d’autres parties ou feront émerger d’autres questionnements. Il s’agit d’offrir une introduction aux enjeux que pose le Slow Fashion, d’ouvrir la voie à d’autres recherches et d’autres réflexions, ou encore de sensibiliser sur ce sujet.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le financement des municipalités québécoises repose en majeure partie sur des revenus autonomes, dont la principale source découle de leur pouvoir de taxer la richesse foncière. Par conséquent, le législateur, voulant assurer la stabilité financière des municipalités, a strictement encadré le processus de confection et de révision des évaluations foncières par plusieurs lois et règlements. Ceci n’a tout de même pas empêché l’augmentation des demandes de contestations à chaque nouveau rôle. Débutant par une demande de révision administrative, à l’aide d’un simple formulaire, le litige entre la municipalité et le contribuable peut se poursuivre devant le Tribunal administratif du Québec et même la Cour du Québec, la Cour supérieure et la Cour d’appel, où la procédure devient de plus en plus exigeante. La transition du processus administratif à judiciaire crée parfois une certaine friction au sein de la jurisprudence, notamment au niveau de la déférence à accorder à l’instance spécialisée, ou encore à l’égard de la souplesse des règles de preuve applicables devant cette dernière. Par une étude positiviste du droit, nous analysons tout d’abord la procédure de confection du rôle foncier, en exposant les acteurs et leurs responsabilités, ainsi que les concepts fondamentaux dans l’établissement de la valeur réelle des immeubles. Ensuite, nous retraçons chacune des étapes de la contestation d’une inscription au rôle, en y recensant les diverses règles de compétence, de preuve et de procédure applicables à chaque instance. À l’aide de nombreux exemples jurisprudentiels, nous tentons de mettre en lumière les différentes interprétations que font les tribunaux de la Loi sur la fiscalité municipale et autres législations connexes.