167 resultados para Méso-amérique
Resumo:
Au début des années 1920, la ville de Montréal se retrouve dans une situation assez unique. À l’époque, les États-Unis et toutes les provinces canadiennes à l’exception du Québec ont adopté la prohibition de la vente d’alcool. Mais même au Québec, environ la moitié de la population de la province est alors touchée par des prohibitions locales (votées au niveau municipal), des prohibitions qui ont largement perduré tout au long de la période à l’étude. Durant cette ère de prohibition de l’alcool nord-américaine, Montréal est la plus grande ville, et une des seules sur le continent non régie par une loi sur la prohibition. C’est aussi celle qui dispose des lois les plus libérales envers l’alcool des deux côtés du 49ème parallèle grâce à la création de la Commission des Liqueurs de Québec (CLQ), le premier système de contrôle gouvernemental de l’alcool en Amérique du Nord. C’est dans ce contexte que Montréal devient une rare oasis dans un continent assoiffé et le plus grand cobaye du modèle de contrôle gouvernemental de l’alcool. Ce mémoire examine les impacts de cette conjoncture sur le développement de cette ville, de son industrie touristique, de sa vie nocturne et de sa réputation. En premier lieu, le mémoire présente une mise en contexte de la situation aux États-Unis, au Canada et au Québec afin de faire ressortir le caractère unique de Montréal pendant cette période. En deuxième lieu, l’essor du tourisme dit « de liqueur » et de la vie nocturne montréalaise, à la fois légale et illicite, est exploré. En dernier lieu, le mémoire met au jour l’impact que cette conjoncture a eu sur la construction de la réputation de la ville à travers l’examen des écrits des anti- et pro-prohibitionnistes qui ont chacun propagé des visions idéalisées et démonisées de cette ville « bien arrosée », ainsi que des documents associés à l’essor du tourisme, tels que les chansons, les guides touristiques et les récits de voyage, qui, pour leur part, ont présenté un image plus romancée de la métropole et associée à un refuge festif de la prohibition. Malgré leurs différences, ces trois visions de Montréal l’ont néanmoins associée à la liberté, que ce soit une liberté ordonnée, dangereuse ou bien émancipatrice. Ainsi, à partir de l’expérience de la prohibition et du tourisme de liqueur, Montréal devient connue comme une ville « ouverte », dans ses acceptions à la fois positives et négatives.
Resumo:
Les textes des jeunes intellectuels de Parti pris, élaborés autour de l'agonistique et du polémique, théâtre de violence et de luttes entre classes et entre valeurs à l'intérieur du champ social, représentent un cas singulier de la parole pamphlétaire québécoise circonscrite au contexte des années 1960. La présente étude veut questionner la fortune critique des textes pamphlétaires de Parti pris au Québec en mettant au jour les stratégies d'ordre rhétorique et discursif qu'ils recèlent. La visée politique révolutionnaire mise de l'avant par la revue est certainement celle qui a réussi le mieux à regrouper ses membres autour de l'identité québécoise (politique, économique, littéraire, artistique et culturelle). Parmi eux, Paul Chamberland, dont les textes varient de l'éditorial à la poésie, et Pierre Vallières avec son essai autobiographique Nègres blancs d'Amérique, sont peut-être les plus représentatifs de leur époque et des enjeux autour desquels gravitait la génération Parti pris. En faisant appel aux théories sur la parole polémique, à la rhétorique et à la pragmatique, notre recherche vise à éclairer l'articulation de la pensée de Chamberland et de Vallières, de même que la valeur littéraire de leurs oeuvres, voire leurs particularités stylistiques. En plus de dégager un aperçu des principales problématiques abordées par les animateurs de Parti pris, ce mémoire interroge l'intentionnalité qui se profile derrière le discours qui circulait dans la revue et au sein de la génération qui s'en réclamait.
Resumo:
Dans ma thèse doctorale, j'étudie trois facteurs importants qui caractérisent le commerce international : les différences technologiques entre les pays, les barrières à l'entrée sous la forme de coûts fixes et la migration internationale. Le premier chapitre analyse si les différences technologiques entre les pays peuvent expliquer la spécialisation dans le commerce international entre les pays. Pour mesurer le niveau de la spécialisation, je calcule les index de concentration pour la valeur des importations et des exportations et décompose la concentration totale dans la marge de produits extensive (nombre de produits commercialisés) et la marge de produits intensive (volume de produits commercialisés). En utilisant des données commerciales détaillées au niveau du produit dans 160 pays, mes résultats montrent que les exportations sont plus concentrées que les importations, que la spécialisation se produit principalement au niveau de la marge intensive du produit, et que les économies plus grandes disposent d'importations et d'exportations plus diversifiées, car elles commercialisent plus de produits. Compte tenu de ces faits, j'évalue la capacité du modèle Eaton-Kortum, le principal modèle de la théorie ricardienne du commerce, pour représenter les preuves empiriques. Les résultats montrent que la spécialisation à travers l'avantage comparatif induit par les différences de technologie peut expliquer les faits qualitatifs et quantitatifs. De plus, j'évalue le rôle des déterminants clés de la spécialisation : le degré de l'avantage comparatif, l'élasticité de la substitution et la géographie. Une implication de ces résultats est qu'il est important d’évaluer jusqu'à quel point la volatilité de production mesurée par la volatilité du PIB est motivée par la spécialisation des exportations et des importations. Étant donné le compromis entre l'ouverture du commerce et la volatilité de production, les bénéfices tirés du commerce peuvent s'avérer plus faibles que ceux estimés précédemment. Par conséquent, les politiques commerciales alternatives telles que l'ouverture graduelle au commerce combinée à la diversification de la production pour réduire la concentration de l'exportation peuvent se révéler être une meilleure stratégie que l'approche du laissez-faire. En utilisant la relation entre la taille du marché et l’entrée de firmes et produits, le deuxième chapitre évalue si les barrières à l'entrée sous la forme de coûts fixes à exporter sont au niveau de la firme ou au niveau du produit. Si les coûts fixes se trouvent au niveau de la firme, la firme multiproduits a un avantage de coût de production par rapport aux autres firmes parce qu’elles peuvent diviser les coûts fixes sur plusieurs produits. Dans ce cas, le commerce international sera caractérisé par peu de firmes qui exportent beaucoup des produits. Si les coûts fixes sont au niveau du produit, l’entrée d’un produit est associée avec l’entrée de plusieurs firmes. La raison est qu’une fois que la première firme entre et paye les coûts fixes du produit, elle crée un effet d’entrainement qui réduit les coûts fixes pour des firmes rivales. Dans ce cas, le commerce international sera caractérisé par plusieurs firmes qui vendent des variétés différentes du même produit. En utilisant des données détaillées provenant de 40 pays exportateurs à travers 180 marchés de destination, mes résultats montrent que les barrières à l'entrée se trouvent principalement au niveau du produit. Un marché plus large favorise l'expansion d'un plus grand nombre d’entreprises au sein d'une catégorie de produit plutôt que de permettre aux entreprises produisant plusieurs produits de croître dans une gamme de produits. En regardant la différence entre le nombre d'exportateurs au sein d'une catégorie de produit dans des destinations données, je trouve que le taux d'entrée de firmes augmente significativement après qu'un produit entre la première fois dans le marché. J'en déduis donc que le premier entrant réduit les coûts fixes pour les firmes suivantes. Mes recherches démontrent également que malgré une plus grande compétition sur le marché du produit, les entreprises disposent de revenus d'exportation supérieurs et sont plus susceptibles de rester sur les marchés internationaux. Ces résultats sont cohérents avec l’hypothèse que l’effet d’entrainement incite l'entrée de firmes rivales et permettent aux entreprises de produire à plus grande échelle. Cette recherche dévoile un nombre de conclusions importantes. D'abord, les politiques commerciales encouragent l'entrée de nouveaux produits, par exemple, en promouvant des produits dans les marchés de destination entraînant ainsi des retombées qui se traduiront par un taux de participation plus élevé de l'entreprise et une croissance de l'exportation. Deuxièmement, les consommateurs du pays importateur peuvent bénéficier de prix plus bas pour le produit en réduisant les barrières techniques du commerce. Troisièmement, lorsque l'on effectue des expérimentations politiques sous la forme de réduction des coûts commerciaux, il est de coutume de considérer uniquement une baisse des coûts marginaux et d'évaluer les répercussions sur le bien-être du consommateur. Cependant, un élément important des accords commerciaux est la réduction des barrières techniques au commerce grâce à la négociation de normes communes pour un produit. Négliger l'existence des barrières à l'entrée et les conséquences des réaffectations de l'industrie affaiblit l'impact des réformes commerciales. Le troisième chapitre prend en compte le rôle de l'information dans la facilitation du commerce international. Les immigrants réduisent les coûts de transaction dans le commerce international en fournissant des informations sur les possibilités d'échange avec leur pays d'origine. En utilisant des données géographiques détaillées sur l'immigration et les importations aux États-Unis entre 1970 et 2005, je quantifie l'incidence qu'ont les nouveaux immigrants sur la demande pour les importations de biens intermédiaires aux États-Unis. Pour établir le lien cause à effet entre le commerce et la migration, j’exploite l'important afflux d'immigrants d'Amérique centrale après l'ouragan Mitch. Les résultats montrent que l'augmentation de dix pour cent d'immigrants a fait croître la demande pour les importations de biens intermédiaires de 1,5 pour cent. Mes résultats sont robustes aux problèmes de la causalité inverse ou la décision d’émigrer est causée par des opportunités de faire du commerce.
Resumo:
Ce mémoire s’intéresse aux transformations littéraires et poétiques mises en œuvre par le mouvement de la Beat Generation au milieu du vingtième siècle en Amérique du Nord. En me penchant sur le recueil de poésie « Howl and Other Poems » du poète Allen Ginsberg, le texte emblématique de cette révolution littéraire, je montre comment le mouvement des Beats représente une transformation dans la tradition littéraire et poétique américaine, occidentale, en ce qui concerne à la fois la forme, les sujets abordés et la pratique d’écriture. Dans un premier temps, j’étudie l’histoire de ces changements en examinant la réception de « Howl », qui a bouleversé les attentes du milieu littéraire de l’époque à cause de son approche inclusive qui accueille tout dans la représentation. Mon deuxième chapitre se penche sur la vision du poète, la vision poétique. Je montre comment la perspective du poète face au monde change chez Ginsberg et les Beats. Au lieu de concevoir la transcendance, l’universel, comme quelque chose d’éloigné du particulier, comme le véhicule la tradition poétique occidentale, les Beats voient l’universel partout, dans tout. Enfin, je m’intéresse à la place du langage dans l’expression de cette nouvelle vision. J’observe comment Ginsberg et les Beats, en s’inspirant de la poésie de Walt Whitman, développent un langage spontané ne relevant plus de la maîtrise de soi.
Resumo:
Dans cette thèse, nous étudions la period room présentée dans le musée d’art. À travers un examen de sa spécificité matérielle, spatiale et temporelle, nous analysons les mécanismes propres à cette stratégie de mise en exposition et nous identifions ses principales conditions de possibilité. Ce faisant, nous étudions les différents savoirs qui sont sollicités par la period room, leurs interactions ainsi que l’apport réciproque de cette stratégie de mise en exposition à la construction de ces savoirs et ce, de manière à établir les fondements d’une épistémologie de la period room. Nous montrons ainsi quelle est sa contribution particulière à l’élaboration et à la médiation de l’histoire dans l’espace muséal. Grâce à cette étude, nous posons des assises conceptuelles qui permettent de repenser le rôle de la period room pour la discipline de l’histoire de l’art, déjouant par le fait même les apories de l’historicisme et de l’authenticité en vertu desquelles la period room est le plus souvent discréditée. Nous procédons par études de cas à partir d’un corpus principalement composé de period rooms ayant pour référents des intérieurs français de la seconde moitié du 18ième siècle et qui sont présentées dans des musées d’art américains (Frick Collection, Metropolitan Museum of Art, Philadelphia Museum of Art) et dans un musée canadien d’histoire naturelle et culturelle (Royal Ontario Museum). Dans la première partie de la thèse, nous établissons la typologie muséographique de la period room et nous envisageons les enjeux, notamment idéologiques, associés à la question de son « authenticité » à travers une analyse de son double statut de pastiche et de simulacre. Nous posons en outre l’un des fondements théoriques de notre étude en montrant que, parce qu’elle est formée de l’articulation entre pouvoirs et savoirs, la period room est un dispositif au sens où l’entendent Michel Foucault (1977) et Giorgio Agamben (2007). Dans la seconde partie, nous examinons la spécificité matérielle de la period room en démontrant comment elle est simultanément une réunion d’objets et un « tout », c’est-à-dire un objet muséographique en elle-même. Nous étudions les implications épistémologiques de cette idée pour la représentation de l’histoire proposée au moyen de la period room, tout en portant une attention particulière aux enjeux politiques qui informent cette représentation dans l’espace muséal. Dans la troisième partie, nous nous concentrons sur les particularités spatiales et temporelles de cette stratégie de mise en exposition et nous démontrons que, en dépit de son apparente unité de lieu et de temps, la period room est composée de plusieurs espaces et concentre plusieurs temps. En puisant dans la spécificité même de ce dispositif, nous élaborons des outils théoriques et méthodologiques inédits qui contribuent à repenser la fonction de la period room pour la mise en forme et la transmission de l’histoire. En conclusion, nous présentons une dernière étude de cas qui, examinant l’intervention de Valerie Hegarty dans trois period rooms du Brooklyn Museum (2013), synthétise les principaux enjeux traités dans la thèse et défend la valeur d’actualité de la period room.
Resumo:
Suite à un stage avec la compagnie Hatch, nous possédons des jeux de données composés de séries chronologiques de vitesses de vent mesurées à divers sites dans le monde, sur plusieurs années. Les ingénieurs éoliens de la compagnie Hatch utilisent ces jeux de données conjointement aux banques de données d’Environnement Canada pour évaluer le potentiel éolien afin de savoir s’il vaut la peine d’installer des éoliennes à ces endroits. Depuis quelques années, des compagnies offrent des simulations méso-échelle de vitesses de vent, basées sur divers indices environnementaux de l’endroit à évaluer. Les ingénieurs éoliens veulent savoir s’il vaut la peine de payer pour ces données simulées, donc si celles-ci peuvent être utiles lors de l’estimation de la production d’énergie éolienne et si elles pourraient être utilisées lors de la prévision de la vitesse du vent long terme. De plus, comme l’on possède des données mesurées de vitesses de vent, l’on en profitera pour tester à partir de diverses méthodes statistiques différentes étapes de l’estimation de la production d’énergie. L’on verra les méthodes d’extrapolation de la vitesse du vent à la hauteur d’une turbine éolienne et l’on évaluera ces méthodes à l’aide de l’erreur quadratique moyenne. Aussi, on étudiera la modélisation de la vitesse du vent par la distributionWeibull et la variation de la distribution de la vitesse dans le temps. Finalement, l’on verra à partir de la validation croisée et du bootstrap si l’utilisation de données méso-échelle est préférable à celle de données des stations de référence, en plus de tester un modèle où les deux types de données sont utilisées pour prédire la vitesse du vent. Nous testerons la méthodologie globale présentement utilisée par les ingénieurs éoliens pour l’estimation de la production d’énergie d’un point de vue statistique, puis tenterons de proposer des changements à cette méthodologie, qui pourraient améliorer l’estimation de la production d’énergie annuelle.
Resumo:
Les proliférations nuisibles de la cyanobactérie filamenteuse benthique Lyngbya wollei qui forme des tapis déposés sur les sédiments ont augmenté en fréquence au cours des 30 dernières années dans les rivières, lacs et sources de l'Amérique du Nord. Lyngbya wollei produit des neurotoxines et des composés organiques volatils (géosmin, 2-méthylisobornéol) qui ont des répercussions sur la santé publique de même que des impacts d'ordre socioéconomiques. Cette cyanobactérie est considérée comme un habitat et une source de nourriture de piètre qualité pour les invertébrés en raison de sa gaine robuste et de sa production de toxines. Les proliférations de L. wollei ont été observées pour la première fois en 2005 dans le fleuve Saint-Laurent (SLR; Québec, Canada). Nous avons jugé important de déterminer sa distribution sur un tronçon de 250 km afin d'élaborer des modèles prédictifs de sa présence et biomasse en se basant sur les caractéristiques chimiques et physiques de l'eau. Lyngbya wollei était généralement observé en aval de la confluence de petits tributaires qui irriguent des terres agricoles. L’écoulement d’eaux enrichies à travers la végétation submergée se traduisait par une diminution de la concentration d’azote inorganique dissous (DIN), alors que les concentrations de carbone organique dissous (DOC) et de phosphore total dissous (TDP) demeuraient élevées, produisant un faible rapport DIN :TDP. Selon nos modèles, DOC (effet positif), TP (effet négatif) et DIN :TDP (effet négatif) sont les variables les plus importantes pour expliquer la répartition de cette cyanobactérie. La probabilité que L. wollei soit présent dans le SLR a été prédite avec exactitude dans 72 % à 92 % des cas pour un ensemble de données indépendantes. Nous avons ensuite examiné si les conditions hydrodynamiques, c'est-à-dire le courant généré par les vagues et l'écoulement du fleuve, contrôlent les variations spatiales et temporelles de biomasse de L. wollei dans un grand système fluvial. Nous avons mesuré la biomasse de L. wollei ainsi que les variables chimiques, physiques et météorologiques durant trois ans à 10 sites le long d'un gradient d'exposition au courant et au vent dans un grand (148 km2) lac fluvial du SLR. L'exposition aux vagues et la vitesse du courant contrôlaient les variations de biomasses spatiales et temporelles. La biomasse augmentait de mai à novembre et persistait durant l'hiver. Les variations interannuelles étaient contrôlées par l'écoulement de la rivière (niveau d'eau) avec la crue printanière qui délogeait les tapis de l'année précédente. Les baisses du niveau d'eau et l'augmentation de l'intensité des tempêtes anticipées par les scénarios de changements climatiques pourraient accroître la superficie colonisée par L. wollei de même que son accumulation sur les berges. Par la suite, nous avons évalué l'importance relative de L. wollei par rapport aux macrophytes et aux épiphytes. Nous avons examiné l'influence structurante de l'échelle spatiale sur les variables environnementales et la biomasse de ces producteurs primaires (PP) benthiques. Nous avons testé si leur biomasse reflétait la nature des agrégats d'habitat basées sur l'écogéomorphologie ou plutôt le continuum fluvial. Pour répondre à ces deux questions, nous avons utilisé un design à 3 échelles spatiales dans le SLR: 1) le long d'un tronçon de 250 km, 2) entre les lacs fluviaux localisés dans ce tronçon, 3) à l'intérieur de chaque lac fluvial. Les facteurs environnementaux (conductivité et TP) et la structure spatiale expliquent 59% de la variation de biomasse des trois PP benthiques. Spécifiquement, les variations de biomasses étaient le mieux expliquées par la conductivité (+) pour les macrophytes, par le ratio DIN:TDP (+) et le coefficient d'extinction lumineuse (+) pour les épiphytes et par le DOC (+) et le NH4+ (-) pour L. wollei. La structure spatiale à l'intérieur des lacs fluviaux était la plus importante composante spatiale pour tous les PP benthiques, suggérant que les effets locaux tels que l'enrichissement par les tributaire plutôt que les gradients amont-aval déterminent la biomasse de PP benthiques. Donc, la dynamique des agrégats d'habitat représente un cadre général adéquat pour expliquer les variations spatiales et la grande variété de conditions environnementales supportant des organismes aquatiques dans les grands fleuves. Enfin, nous avons étudié le rôle écologique des tapis de L. wollei dans les écosystèmes aquatiques, en particulier comme source de nourriture et refuge pour l'amphipode Gammarus fasciatus. Nous avons offert aux amphipodes un choix entre des tapis de L. wollei et soit des chlorophytes filamenteuses ou un tapis artificiel de laine acrylique lors d'expériences en laboratoire. Nous avons aussi reconstitué la diète in situ des amphipodes à l'aide du mixing model (d13C et δ15N). Gammarus fasciatus choisissait le substrat offrant le meilleur refuge face à la lumière (Acrylique>Lyngbya=Rhizoclonium>Spirogyra). La présence de saxitoxines, la composition élémentaire des tissus et l'abondance des épiphytes n'ont eu aucun effet sur le choix de substrat. Lyngbya wollei et ses épiphytes constituaient 36 et 24 % de l'alimentation in situ de G. fasciatus alors que les chlorophytes, les macrophytes et les épiphytes associées représentaient une fraction moins importante de son alimentation. Les tapis de cyanobactéries benthiques devraient être considérés comme un bon refuge et une source de nourriture pour les petits invertébrés omnivores tels que les amphipodes.
Resumo:
Cette étude aborde la problématique de la participation des personnes morales de droit public à l’arbitrage à l’occasion des litiges relatifs aux relations qu’elles entretiennent avec les personnes privées étrangères. Par opportunisme économique, un certain nombre de pays développés et en développement se montrent tout à fait favorables à ce que l’État se soumette au contentieux arbitral. Dans d’autres pays, tels qu’en Amérique latine et dans le monde arabe, il se manifeste des tendances nettement hostiles gravitant entre l’interdiction totale et une adhésion conditionnelle de l’État à l’arbitrage. Deux écoles s’affrontent, celle des privatistes qui considèrent l’arbitre international comme le juge naturel du milieu des affaires, face à celle des étatistes qui postulent que les juridictions étatiques demeurent les seules habiles à connaitre souverainement des litiges opposants les personnes publiques à leur interlocuteur privé. Les raisons qui sous-tendent l’assouplissement de certains gouvernements vers un élan libéral de l’arbitrage en droit public, résultent du phénomène globalisant de l’économie qui tend à réduire à néant les règles internes des États dans le cadre du nouvel ordre économique mondial. Par contre, les conséquences sociales, financières et juridiques des sentences arbitrales portent certains gouvernements à adopter une position réfractaire à l’arbitrage mettant en cause les entités publiques. Ils brandissent le droit à l’autodétermination des peuples pour éviter le bradage de leurs ressources au détriment des droits économiques, sociaux et culturels de leurs populations, et ce, en dépit du fait que l’investissement direct étranger joue un rôle considérable dans le développement des pays en émergence. Notre défi ultime dans ce travail est d’explorer les diverses avenues permettant d’atteindre un juste équilibre entre les intérêts publics et la protection des investissements privés. Ceci exige un changement de paradigme qui prendra en compte les dimensions plurielles que constitue le contentieux investisseurs-États.
Resumo:
Les maladies cardiovasculaires représentent la deuxième cause de mortalité en Amérique du Nord. Ceci peut s'expliquer par la consommation riche en gras des Nord-Américains et par un apport élevé en oméga-6. Inversement, des populations qui ont un apport moindre en oméga-6 et plus riche en oméga-3, telles que les Japonais et les Inuits, ont une incidence peu élevée de maladies cardiovasculaires. Les oméga-3 s'avèrent effectivement bénéfiques pour prévenir l'apparition de maladies cardiovasculaires. Dans le cadre d'un infarctus du myocarde, les oméga-3 sont bénéfiques en prévention secondaire et s'avèrent cardioprotecteurs lorsque consommés avant l'épisode d'infarctus. De manière à utiliser les oméga-3 de façon plus clinique, le but de la première étude était de vérifier si un métabolite des oméga-3 impliqué dans la résolution de l'inflammation, la résolvine D1, pouvait s'avérer cardioprotecteur lorsque donné au moment de l'infarctus. Effectivement, la résolvine D1, donnée juste avant l'ischémie, s'avère cardioprotectrice en entraînant une diminution de l'inflammation, soit en favorisant la résolution de l'inflammation, et en activant une voie de cardioprotection qui entraîne la survie cellulaire. Par ailleurs, étant donné que la diète de la population canadienne est riche en oméga-6, l’objectif de la deuxième étude était de vérifier si l'effet de la résolvine D1 est conservé en présence d'un oméga-6, l'acide linoléique. Nos résultats nous indiquent que la résolvine D1 perd son effet cardioprotecteur en présence de l'acide linoléique. Celle-ci semble aggraver les lésions ischémiques, possiblement, par, la génération de métabolites pro-inflammatoires et vasoconstricteurs qui accroît les effets de l'ischémie. Ainsi, il est essentiel de tenir compte de l'apport en oméga-6 pour envisager un traitement à la résolvine D1 et d'encourager une diminution des oméga-6 dans l'alimentation au profit des oméga-3. Enfin, la troisième étude de cette thèse visait à vérifier le mécanisme de cardioprotection des oméga-3 afin de savoir si ce sont les métabolites issus des oméga-3 qui génèrent la cardioprotection. L'utilisation des inhibiteurs du métabolisme des oméga-3, soit la 15-lipoxygénase et la cyclo-oxygénase 2, inhibe la cardioprotection conférée par une diète riche en oméga-3. De plus, les inhibiteurs diminuent les concentrations de résolvine D1 plasmatique. Puis, la résolvine D1, donnée en présence des inhibiteurs, restaure la cardioprotection. De ce fait, les métabolites générés par les oméga-3, dont la résolvine D1, sont importants dans l’effet cardioprotecteur des acides gras oméga-3. En conclusion, la résolvine D1 peut s'avérer une option intéressante pour bénéficier des effets des oméga-3 lorsque celle-ci est donnée au moment de l'infarctus. D'ailleurs, les métabolites, tels que la résolvine D1, sont essentiels pour obtenir la cardioprotection avec les oméga-3. Toutefois, l'alimentation des patients doit contenir moins d’oméga-6 afin de bénéficier des aspects cardioprotecteurs des oméga-3. Les oméga-6 sont trop proéminents dans l'alimentation nord-américaine, ce qui est néfaste pour le système cardiovasculaire.
Resumo:
Ce mémoire propose que l’origine d’un cyberdélinquant soit un facteur explicatif du phénomène de la cybercriminalité. Il comporte deux objectifs : premièrement, décrire les profils des cybercriminels recensés dans les médias internationaux; deuxièmement, vérifier si ces profils varient selon le lieu d’origine du cyberdélinquant. Une base de données, comportant 90 cas de cybercriminels répertoriés à travers le monde, fut créée. Quinze (15) cybercriminels par territoire ont été sélectionnés, les régions ciblées allant comme suit : Amérique du Nord, Amérique latine, Australasie, Europe de l’Ouest, Eurasie et Afrique/péninsule Arabique. En premier lieu, des analyses descriptives ont été exécutées afin de dresser un portrait de ce phénomène. En second lieu, des analyses de tableaux de contingence ont été effectuées entre les variables à l’étude afin de voir si des relations existaient. Enfin, d’autres analyses de tableaux de contingence ont été réalisées afin d’établir les différences des paramètres en fonction de l’origine. Les résultats de ces divers tests démontrent que ce sont généralement de jeunes hommes âgés en moyenne de 25 ans qui seront susceptibles de commettre des délits informatiques. Quelques profils types se sont dégagés des analyses et peuvent s’expliquer par l’accès au matériel informatique, les inégalités économiques entre classes sociales, tout comme la vitesse d’Internet, et ce, en fonction de l’origine du cyberdélinquant.
Resumo:
Les plantes envahissantes menacent la biodiversité ainsi que les activités humaines. Afin de les maîtriser, la pulvérisation d'herbicides est une méthode fréquemment employée en Amérique du Nord. Cette approche ne fait pas toujours consensus et est même parfois interdite ou restreinte, ce qui justifie le recours à d'autres options. Les alternatives peuvent toutefois s'avérer rares, comporter d'importantes limitations ou sont peu documentées. Cette étude vise à tester l’efficacité de méthodes permettant de maîtriser et de prévenir les invasions de roseau commun (Phragmites australis), l'une des plantes envahissantes les plus problématiques sur le continent nord-américain, tout en limitant au minimum l'utilisation d'herbicides. Le potentiel de quatre méthodes de lutte aux petites populations de roseau bien établies a d'abord été évalué : l’excavation avec enfouissement sur place, le bâchage, l’excavation avec enfouissement sur place combinée au bâchage, et la fauche répétée. Les résultats ont montré que l'excavation avec enfouissement sur place, avec ou sans bâchage, a entraîné une élimination presque totale des populations visées, ce qui est comparable ou supérieur à l'effet généralement obtenu avec la pulvérisation d'herbicide. Le bâchage avec des toiles opaques, maintenues pendant un an, a pour sa part entraîné une maîtrise partielle du roseau, suggérant qu'une application prolongée serait nécessaire pour l'éradication de la plante. La fauche répétée, exécutée à raison de cinq fauches par été pendant deux ans, a fourni une efficacité mitigée. Les résultats suggèrent néanmoins que la fauche pendant plusieurs années contribue à affaiblir la plante, ce qui pourrait aider à son confinement. Une méthode additionnelle a été expérimentée afin de traiter les tiges éparses de roseau tout en limitant les risques d'effets hors cibles, soit le badigeonnage manuel d’herbicide. Suite à ces tests, les résultats ont montré une diminution importante de la densité des tiges, ce qui suggère que la méthode est efficace afin d'éliminer les repousses après un traitement initial, et pourrait également être employée sur de jeunes populations clairsemées. L'effet d'un ensemencement préventif de plantes herbacées sur l'établissement de semis de roseau a également été étudié, suite à des traitements sur de vastes parcelles de sol nu. Les résultats suggèrent que la méthode est efficace afin de limiter la propagation du roseau par semences et qu'un suivi périodique suite à l'intervention serait suffisant afin de maintenir l'effet préventif.
Resumo:
Dans le sillage de la récession mondiale de 2008-09, plusieurs questions ont été soulevées dans la littérature économique sur les effets à court et à long terme de la politique budgétaire sur l’activité économique par rapport à son signe, sa taille et sa durée. Ceux-ci ont des implications importantes pour mieux comprendre les canaux de transmission et l’efficacité des politiques budgétaires, avec la politique monétaire étant poursuivi, ainsi que pour leurs retombées économiques. Cette thèse fait partie de ce regain d’intérêt de la littérature d’examiner comment les changements dans la politique budgétaire affectent l’activité économique. Elle repose alors sur trois essais: les effets macroéconomiques des chocs de dépenses publiques et des recettes fiscales, les résultats macroéconomiques de l’interaction entre les politiques budgétaire et monétaire et le lien entre la politique budgétaire et la répartition des revenus. Le premier chapitre examine les effets des chocs de politique budgétaire (chocs de dépenses publiques et chocs de recettes fiscales) sur l’économie canadienne au cours de la période 1970-2010, en s’appuyant sur la méthode d’identification des restrictions de signe développée par Mountford et Uhlig [2009]. En réponse à la récession mondiale, les autorités fiscales dans les économies avancées, dont le Canada ont généralement mis en oeuvre une approche en deux phases pour la politique budgétaire. Tout d’abord, ils ont introduit des plans de relance sans précédent pour relancer leurs économies. Par exemple, les mesures de relance au Canada, introduites à travers le Plan d’action économique du Canada, ont été projetées à 3.2 pour cent du PIB dans le budget fédéral de 2009 tandis que l’ "American Recovery and Reinvestment Act"(ARRA) a été estimé à 7 pour cent du PIB. Par la suite, ils ont mis en place des plans d’ajustement en vue de réduire la dette publique et en assurer la soutenabilité à long terme. Dans ce contexte, évaluer les effets multiplicateurs de la politique budgétaire est important en vue d’informer sur l'efficacité de telles mesures dans la relance ou non de l'activité économique. Les résultats montrent que les multiplicateurs d'impôt varient entre 0.2 et 0.5, tandis que les multiplicateurs de dépenses varient entre 0.2 et 1.1. Les multiplicateurs des dépenses ont tendance à être plus grand que les multiplicateurs des recettes fiscales au cours des deux dernières décennies. Comme implications de politique économique, ces résultats tendent à suggérer que les ajustements budgétaires par le biais de grandes réductions de dépenses publiques pourraient être plus dommageable pour l'économie que des ajustements budgétaires par la hausse des impôts. Le deuxième chapitre, co-écrit avec Constant Lonkeng Ngouana, estime les effets multiplicateurs des dépenses publiques aux Etats-Unis en fonction du cycle de la politique monétaire. Les chocs de dépenses publiques sont identifiés comme étant des erreurs de prévision du taux de croissance des dépenses publiques à partir des données d'Enquêtes des prévisionnistes professionnels et des informations contenues dans le "Greenbook". L'état de la politique monétaire est déduite à partir de la déviation du taux des fonds fédéraux du taux cible de la Réserve Fédérale, en faisant recours à une fonction lisse de transition. L'application de la méthode des «projections locales» aux données trimestrielles américaines au cours de la période 1965-2012 suggère que les effets multiplicateurs des dépenses fédérales sont sensiblement plus élevées quand la politique monétaire est accommodante que lorsqu'elle ne l'est pas. Les résultats suggèrent aussi que les dépenses fédérales peuvent stimuler ou non la consommation privée, dépendamment du degré d’accommodation de la politique monétaire. Ce dernier résultat réconcilie ainsi, sur la base d’un cadre unifié des résultats autrement contradictoires à première vue dans la littérature. Ces résultats ont d'importantes implications de politique économique. Ils suggèrent globalement que la politique budgétaire est plus efficace lorsqu'on en a le plus besoin (par exemple, lorsque le taux de chômage est élevé), si elle est soutenue par la politique monétaire. Ils ont également des implications pour la normalisation des conditions monétaires dans les pays avancés: la sortie des politiques monétaires non-conventionnelles conduirait à des multiplicateurs de dépenses fédérales beaucoup plus faibles qu'autrement, même si le niveau de chômage restait élevé. Ceci renforce la nécessité d'une calibration prudente du calendrier de sortie des politiques monétaires non-conventionnelles. Le troisième chapitre examine l'impact des mesures d'expansion et de contraction budgétaire sur la distribution des revenus dans un panel de 18 pays d'Amérique latine au cours de la période 1990-2010, avec un accent sur les deniers 40 pour cent. Il explore alors comment ces mesures fiscales ainsi que leur composition affectent la croissance des revenus des dernier 40 pour cent, la croissance de leur part de revenu ainsi que la croissance économique. Les mesures d'expansion et de contraction budgétaire sont identifiées par des périodes au cours desquels il existe une variation significative du déficit primaire corrigé des variations conjoncturelles en pourcentage du PIB. Les résultats montrent qu'en moyenne l'expansion budgétaire par la hausse des dépenses publiques est plus favorable à la croissance des revenus des moins bien-nantis que celle par la baisse des impôts. Ce résultat est principalement soutenu par la hausse des dépenses gouvernementales de consommation courante, les transferts et subventions. En outre ces mesures d’expansion budgétaire sont favorables à la réduction des inégalités car elles permettent d'améliorer la part des revenus des moins bien-nantis tout en réduisant la part des revenus des mieux-nantis de la distribution des revenus. En outre ces mesures d’expansion budgétaire sont favorables à la réduction des inégalités car elles permettent d'améliorer la part des revenus des moins bien-nantis tout en réduisant la part des revenus des mieux-nantis de la distribution des revenus. Cependant, l'expansion budgétaire pourrait soit n'avoir aucun effet sur la croissance économique ou entraver cette dernière à travers la hausse des dépenses en capital. Les résultats relatifs à la contraction budgétaire sont quelque peu mitigés. Parfois, les mesures de contraction budgétaire sont associées à une baisse de la croissance des revenus des moins bien nantis et à une hausse des inégalités, parfois l'impact de ces mesures est non significatif. Par ailleurs, aucune des mesures n’affecte de manière significative la croissance du PIB. Comme implications de politique économique, les pays avec une certaine marge de manœuvre budgétaire pourraient entamer ou continuer à mettre en œuvre des programmes de "filets de sauvetage"--par exemple les programmes de transfert monétaire conditionnel--permettant aux segments vulnérables de la population de faire face à des chocs négatifs et aussi d'améliorer leur conditions de vie. Avec un potentiel de stimuler l'emploi peu qualifié, une relance budgétaire sage par les dépenses publique courantes pourrait également jouer un rôle important pour la réduction des inégalités. Aussi, pour éviter que les dépenses en capital freinent la croissance économique, les projets d'investissements publics efficients devraient être prioritaires dans le processus d'élaboration des politiques. Ce qui passe par la mise en œuvre des projets d'investissement avec une productivité plus élevée capable de générer la croissance économique nécessaire pour réduire les inégalités.
Resumo:
Le mouvement migratoire espagnol en Amérique à l'époque moderne peut être partagé en deux phases distinctes : La première est essentiellement masculine alors que la seconde intègre un nombre considérable de femmes et d'enfants. En analysant la correspondance privée provenant des Indes espagnoles entre 1540 et 1616, avec une attention particulière aux missives échangées entre les membres d'une même famille, l’objectif de ce mémoire est d’accéder au quotidien et à l'intimité des migrants et des migrantes et d’expliquer les origines et les modalités de la migration familiale dont l'apogée se situe entre 1560 et 1620. L'analyse dans la perspective du genre des « Cartas privadas de emigrantes a Indias » jette ainsi une lumière nouvelle sur les pratiques épistolaires familiales, les motifs des réunions des familles et sur l’agentivité des Espagnoles dans la construction de la société coloniale.
Resumo:
Éditorial du 21 avril 2015
Resumo:
En Amérique du Nord, les pratiques actuelles de conception de l’industrie de la construction suscitent de nombreux et importants problèmes, tant au niveau environnemental, que social et économique. Certaines tendances conceptuelles, telles que l’industrialisation de la construction, le bâtiment vert, l’approche diachronique et la rationalisation spatiale proposent des moyens afin de répondre à cette problématique. La conception synchronique, qui ne se base encore que sur des besoins immédiats, produit des bâtiments statiques qui ne peuvent accommoder l’évolution des besoins. En plus de la phase d’usage qui se révèle la plus coûteuse en termes de consommation d’énergie, d’eau, de matériaux et de génération de déchets, le bâtiment statique est amené à subir de nombreuses rénovations, profondément délétères pour l’environnement et la situation économique des ménages. Dans une perspective d’opérationnalisation du développement durable, la problématique de recherche concerne la considération de la phase d’usage dans le processus conceptuel de l’habitation. Dans l’optique de favoriser une conception plutôt diachronique, 55 projets de rénovation résidentiels ont été analysés et comparés afin de décrire la nature et l’intensité des interventions effectuées. L’examen des plans avant/après rénovation a permis de quantifier le niveau d’intensité des interventions et ainsi, mettre en relief certaines tendances et récurrences des pratiques actuelles. Dans le but de valider si le bâtiment vert est en mesure de répondre aux enjeux environnementaux contemporains de l’habitation, les contenus de trois programmes de certification utilisés en Amérique du Nord, à savoir BOMA-BESt®, LEED®, et Living Building ChallengeTM, sont analysés. Une classification des stratégies proposées montre la répartition des préoccupations envers le bâtiment, les systèmes et l’usager. Une analyse permet de mettre en relief que les considérations semblent, de façon générale, cohérentes avec les impacts associés à l’habitation. Un examen plus ciblé sur la teneur et les objectifs des stratégies considérant l’usager permet l’émergence de deux ensembles thématiques : les cinq sources potentielles d’impacts (énergie, eau, matériaux, déchets et environnement intérieur), ainsi que les quatre thèmes reliés aux objectifs et aux finalités des stratégies (entretien et surveillance; sensibilisation et formation; modélisation et mesurage; comportement et habitude). La discussion a permis d’émettre des pistes d’écoconception pour permettre à l’habitation d’accommoder l’évolution des besoins des occupants, à savoir la « démontabilité », l’aptitude à l’évolution et l’accessibilité. Des recommandations, telles que la nécessité de mieux prendre en compte l’usager comme facteur d’influence des impacts occasionnés par la phase d’usage, sont ensuite proposées. D’autres suggestions appellent à une concrétisation de la performance en suscitant l’implication, l’engagement, la responsabilisation et l’autonomisation des occupants. Enfin, il semble que certaines modifications des programmes de certification et de la législation en vigueur pourraient favoriser l’émergence d’une vision nouvelle concernant la nécessaire réduction de la superficie habitable. Toutes ces opportunités d’amélioration ont le potentiel de mener ce secteur vers une démarche plus globale et systémique, tout en bonifiant de façon majeure les implications environnementales, économiques et sociales de l’habitation.