140 resultados para industrie lithique préhistorique.
Resumo:
La demande croissante en carburants, ainsi que les changements climatiques dus au réchauffement planétaire poussent le monde entier à chercher des sources d’énergie capables de produire des combustibles alternatifs aux combustibles fossiles. Durant les dernières années, plusieurs sources potentielles ont été identifiées, les premières à être considérées sont les plantes oléagineuses comme source de biocarburant, cependant l’utilisation de végétaux ou d’huiles végétales ayant un lien avec l’alimentation humaine peut engendrer une hausse des prix des denrées alimentaires, sans oublier les questions éthiques qui s’imposent. De plus, l'usage des huiles non comestibles comme sources de biocarburants, comme l’huile de jatropha, de graines de tabac ou de jojoba, révèle un problème de manque de terre arable ce qui oblige à réduire les terres cultivables de l'industrie agricole et alimentaire au profit des cultures non comestibles. Dans ce contexte, l'utilisation de microorganismes aquatiques, tels que les microalgues comme substrats pour la production de biocarburant semble être une meilleure solution. Les microalgues sont faciles à cultiver et peuvent croitre avec peu ou pas d'entretien. Elles peuvent ainsi se développer dans des eaux douces, saumâtres ou salées de même que dans les terres non cultivables. Le rendement en lipide peut être largement supérieur aux autres sources de biocarburant potentiel, sans oublier qu’elles ne sont pas comestibles et sans aucun impact sur l'industrie alimentaire. De plus, la culture intensive de microalgues pour la production de biodiesel pourrait également jouer un rôle important dans l'atténuation des émissions de CO2. Dans le cache de ce travail, nous avons isolé et identifié morphologiquement des espèces de microalgues natives du Québec, pour ensuite examiner et mesurer leur potentiel de production de lipides (biodiesel). L’échantillonnage fut réalisé dans trois régions différentes du Québec: la région de Montréal, la gaspésie et le nord du Québec, et dans des eaux douces, saumâtres ou salées. Cent souches ont été isolées à partir de la région de Montréal, caractérisées et sélectionnées selon la teneur en lipides et leur élimination des nutriments dans les eaux usées à des températures différentes (10 ± 2°C et 22 ± 2°C). Les espèces ayant une production potentiellement élevée en lipides ont été sélectionnées. L’utilisation des eaux usées, comme milieu de culture, diminue le coût de production du biocarburant et sert en même temps d'outil pour le traitement des eaux usées. Nous avons comparé la biomasse et le rendement en lipides des souches cultivées dans une eau usée par apport à ceux dans un milieu synthétique, pour finalement identifié un certain nombre d'isolats ayant montré une bonne croissance à 10°C, voir une teneur élevée en lipides (allant de 20% à 45% du poids sec) ou une grande capacité d'élimination de nutriment (>97% d'élimination). De plus, nous avons caractérisé l'une des souches intéressantes ayant montré une production en lipides et une biomasse élevée, soit la microalgue Chlorella sp. PCH90. Isolée au Québec, sa phylogénie moléculaire a été établie et les études sur la production de lipides en fonction de la concentration initiale de nitrate, phosphate et chlorure de sodium ont été réalisées en utilisant de la méthodologie des surfaces de réponse. Dans les conditions appropriées, cette microalgue pourrait produire jusqu'à 36% de lipides et croitre à la fois dans un milieu synthétique et un milieu issu d'un flux secondaire de traitement des eaux usées, et cela à 22°C ou 10°C. Ainsi, on peut conclure que cette souche est prometteuse pour poursuivre le développement en tant que productrice potentielle de biocarburants dans des conditions climatiques locales.
Resumo:
L’oestradiol joue un rôle important dans la reproduction en général, particulièrement dans la croissance folliculaire chez la vache. La production de l’œstradiol nécessite l’expression du gène CYP19A1 suite à la stimulation des cellules de granulosa par l’hormone folliculostimulante (FSH) ou le facteur de croissance insulinique de type 1 (IGF-1). Chez la vache, il existe six promoteurs (1.1 ; 1.2 ; 1.3 ; 1.4 ; 1.5 et 2) qui dirigent la transcription du gène CYP19A1 dans les cellules de la granulosa. Le principal promoteur qui dirige la transcription au niveau de l’ovaire (cellules de granulosa) est le promoteur 2 (P2). Cependant, l’effet de la FSH et de l’IGF-1 sur l’activation de ces promoteurs d’aromatase demeure mal connu. De plus, la demi-vie du transcrit CYP19A1 est très courte avec une région 3’UTR relativement longue. L’analyse de la séquence 3’UTR montre la présence des motifs ARE (séquence riche en AU), des études antérieur montrent que ces séquences impliquent dans la régulation de la stabilité ou la dégradation de l’ARNm, ce qui est fort probable que la courte demi-vie de l’ARNm CYP19A1 est sous le contrôle post-transcriptionel. L’objectif de la thèse visait à étudier la régulation de l’expression du gène CYP19A1 chez la vache. Il y a deux thèmes soit étude de la régulation transcriptionnelle ciblant le promoteur et soit étude de la régulation post-transcriptionnelle impliquant la région 3’non traduite (3’UTR). Le premier objectif vise à étudier la régulation transcriptionnelle du gène CYP19A1. Nous avons étudié l'activité du promoteur ovarien bovin dans deux modèles de cellules de la granulosa, les cellules lutéinisées et nonlutéinisées in vitro, suite à une stimulation des cellules par la FSH ou IGF-1. Nous avons également évalué la voie de signalisation impliquée dans la régulation des différents promoteurs en utilisant un RT-PCR et un gène rapporteur (les différents promoteurs d’aromatase ont été insérés dans le vecteur pGL3promoter en amont du gène exprimant la luciférase). Les résultats de RT-PCR démontrent que la FSH et l’IGF-1 augmentent les concentrations d’ARNm provenant des deux promoteurs 2 et 1.1 dans les cellules de la granulosa non lutéinisées. Des expériences subséquentes ont montré que la FSH stimule le promoteur 2 via la voie PKA tandis que l'IGF-1 stimule le promoteur 2 via la voie PKC. La FSH et l’IGF-1 stimulent l’expression du promoteur 1.1 via la voie PI3K. L’analyse de l’activité luciférase démontre que dans les cellules de granulosa lutéinisées, la FSH stimule le promoteur 1.1 de façon dose dépendante et ne semble y avoir aucun effet significatif sur le promoteur 2. Nous avons donc comparé l’activité du promoteur PII/P2 humain, du rat, de la chèvre et de la vache dans les cellules de granulosa bovine lutéinisées. Le résultat le plus significatif est que le promoteur 2 bovine (et caprine) dépend de plusieurs facteurs de transcription (NR5A2, FOXL2) comparé au promoteur PII humain et celui du promoteur proximal du rat qui dépendent principalement de l'AMPc. En effet, nos résultats ont démontré une expression raisonnablement robuste du P2 bovine lorsque les cellules sont traitées à la forskoline, NR5A2 et FOXL2. Le facteur FOXL2 semble déterminer l'activité du promoteur 2 chez le ruminant. Le deuxième objectif vise à étudier la régulation post-transcriptionnelle du gène CYP19A1. Pour ce faire, nous avons déterminé la séquence minimale de l'ARNm CYP19A1 requise pour la régulation de sa demi-vie. Différents séquences de la région 3’UTR ont été insérés dans le vecteur pGL3promoter en aval du gène exprimant la luciférase ou soit dans le vecteur pGEMTeasy. Le vecteur pGL3promoter a été transfecté dans les cellules de granulosa lutéinisées pour évaluer l'impact de la séquence 3'UTR sur l'expression du gène rapporteur de la luciférase, alors que le vecteur pGEMTeasy a été utilisé pour la transcription in vitro afin de générer de l’ARNm. Ce dernier sera utilisé en réaction croisée au UV avec des extraits protéiques pour démontrer l’association du complexe ARNm/protéine. L’analyse de l’activité luciférase a permis d’identifier une séquence de 200 pb située entre 926 et 1134 pb de la région 3'UTR de l’ARNm CYP19A1 qui a réduit significativement l’activité de la luciférase. Selon les analyses de la réaction croisée au UV, une ou plusieurs protéines de 66 et 80 kDA se lient spécifiquement à la séquence de 200 pb qui réduit l’activité de luciférase. Cette protéine s'exprime dans les cellules de granulosa, mais n’a pas été détectée dans d'autres tissus comme le foie et le cœur. Par ailleurs, l’utilisation du gène rapporteur sensible à la FSH a suscité l’intérêt d'une compagnie pharmaceutique qui vend de l’equine chorionic gonadotropin (eCG) pour lui permettre de distinguer facilement l’eCG ayant une forte activité FSH et donc, avoir un produit commercial plus efficace et de meilleure qualité. Dans cette étude, nous avons développé un système de bioessai à la FSH basé sur la transfection des cellules avec un récepteur à la FSH et un gène rapporteur colorimètrique qui permet d’estimer l’activité de la FSH dans le sérum de la jument et qui pourrait être applicable au niveau de la ferme/industrie.
Resumo:
Cette oeuvre est mise à disposition selon les termes de la licence Creative Commons Attribution - Pas d'utilisation commerciale - Pas de modification 2.5 Canada Vous avez donc le droit de : Partager - copier, distribuer et communiquer le matériel par tous les moyens et sous tous formats; Selon les conditions suivantes : Attribution — Vous devez créditer l'Oeuvre, intégrer un lien vers la licence et indiquer si des modifications ont été effectuées à l'Oeuvre. Vous devez indiquer ces informations par tous les moyens possibles mais vous ne pouvez pas suggérer que l'Offrant vous soutient ou soutient la façon dont vous avez utilisé son Oeuvre. Pas d’Utilisation Commerciale — Vous n'êtes pas autoriser à faire un usage commercial de cette Oeuvre, tout ou partie du matériel la composant. Pas de modifications — Dans le cas où vous effectuez un remix, que vous transformez, ou créez à partir du matériel composant l'Oeuvre originale, vous n'êtes pas autorisé à distribuer ou mettre à disposition l'Oeuvre modifiée. Pour voir une copie de cette licence, visitez http://creativecommons.org/licenses/by-nc-nd/2.5/ca/ ou écrivez à Creative Commons, 444 Castro Street, Suite 900, Mountain View, California, 94041, USA.
Resumo:
La maintenance du logiciel est une phase très importante du cycle de vie de celui-ci. Après les phases de développement et de déploiement, c’est celle qui dure le plus longtemps et qui accapare la majorité des coûts de l'industrie. Ces coûts sont dus en grande partie à la difficulté d’effectuer des changements dans le logiciel ainsi que de contenir les effets de ces changements. Dans cette perspective, de nombreux travaux ont ciblé l’analyse/prédiction de l’impact des changements sur les logiciels. Les approches existantes nécessitent de nombreuses informations en entrée qui sont difficiles à obtenir. Dans ce mémoire, nous utilisons une approche probabiliste. Des classificateurs bayésiens sont entraînés avec des données historiques sur les changements. Ils considèrent les relations entre les éléments (entrées) et les dépendances entre changements historiques (sorties). Plus spécifiquement, un changement complexe est divisé en des changements élémentaires. Pour chaque type de changement élémentaire, nous créons un classificateur bayésien. Pour prédire l’impact d’un changement complexe décomposé en changements élémentaires, les décisions individuelles des classificateurs sont combinées selon diverses stratégies. Notre hypothèse de travail est que notre approche peut être utilisée selon deux scénarios. Dans le premier scénario, les données d’apprentissage sont extraites des anciennes versions du logiciel sur lequel nous voulons analyser l’impact de changements. Dans le second scénario, les données d’apprentissage proviennent d’autres logiciels. Ce second scénario est intéressant, car il permet d’appliquer notre approche à des logiciels qui ne disposent pas d’historiques de changements. Nous avons réussi à prédire correctement les impacts des changements élémentaires. Les résultats ont montré que l’utilisation des classificateurs conceptuels donne les meilleurs résultats. Pour ce qui est de la prédiction des changements complexes, les méthodes de combinaison "Voting" et OR sont préférables pour prédire l’impact quand le nombre de changements à analyser est grand. En revanche, quand ce nombre est limité, l’utilisation de la méthode Noisy-Or ou de sa version modifiée est recommandée.
Resumo:
Introduction : Cette thèse est constituée de trois articles liés les uns aux autres. Le premier s’attache à clarifier les perspectives théoriques et problèmes conceptuels entourant la notion de capacité/incapacité au travail, sa définition et son évolution au fil du temps. Les deuxième et troisième articles visent à évaluer les effets différentiels selon le genre de déterminants du retour au travail (RAT) et de la durée d’indemnisation ainsi que les coûts associés, dans une population de travailleurs indemnisés à long terme pour troubles musculosquelettiques (TMS). Méthodes : Dans le premier article, une revue systématique des définitions de l’(in)capacité au travail et une analyse comparative basée sur la théorisation ancrée débouchent sur une carte conceptuelle intégrative. Dans le second article, une cohorte de 455 adultes en incapacité à long terme pour TMS au dos/cou/membres supérieurs est suivie cinq ans au travers d’entretiens structurés et de données d’indemnisation. Des modèles de Cox stratifiés par genre ont été utilisés pour évaluer la durée jusqu’au premier RAT. Dans le troisième article, une cohorte populationnelle de 13,073 hommes et 9032 femmes en incapacité prolongée pour TMS au dos/cou/membres supérieurs a été suivie pendant trois ans à l’aide de données administratives. Des modèles de Cox stratifiés par genre ont été utilisés pour étudier la durée d’indemnisation et détecter les effets dépendants du temps. Les coûts ont également été examinés. Résultats : Les définitions analysées dans la première étude ne reflètent pas une vision intégrée et partagée de l’(in)capacité au travail. Cependant, un consensus relatif semble émerger qu’il s’agit d’un concept relationnel, résultant de l’interaction de multiples dimensions aux niveaux individuel, organisationnel et sociétal. La seconde étude montre que malgré des courbes de survie jusqu’au RAT similaires entre hommes et femmes (p =0.920), plusieurs déterminants diffèrent selon le genre. Les femmes plus âgées (HR=0.734, par tranches de 10 ans), d’un statut économique perçu comme pauvre (HR=0.625), travaillant ≥40 heures/semaine en ayant des personnes à charge (HR=0.508) et ne connaissant pas l’existence d’un programme de santé et sécurité sur leur lieu de travail (HR=0.598) retournent moins vite au travail, tandis qu’un revenu brut annuel plus élevé (par $10,000) est un facteur facilitant (HR=1.225). Les hommes de plus de 55 ans (HR=0.458), au statut économique perçu comme pauvre (HR=0.653), travaillant ≥40 heures/semaine avec une charge de travail physique perçue élevée (HR=0.720) et une plus grande précarité d’emploi (HR=0.825) retournent moins rapidement au travail. La troisième étude a révélé que trois ans après la lésion, 12.3% des hommes et 7.3% des femmes étaient encore indemnisés, avec un ratio de coûts homme-femme pour l’ensemble des réclamations de 2.1 :1. L’effet de certain prédicteurs (e.g. revenu, siège de lésion, industrie) varie selon le genre. De plus, l’effet de l’âge chez les hommes et l’effet de l’historique d’indemnisation chez les femmes varient dans le temps. Conclusion : La façon de définir l’(in)capacité au travail a des implications importantes pour la recherche, l’indemnisation et la réadaptation. Les résultats confirment également la pertinence d’investiguer les déterminants du RAT et de l’indemnisation selon le genre.
Resumo:
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.
Resumo:
Avec la vague des départs à la retraite amorcée par la génération des baby-boomers, le marché du travail canadien traversera inéluctablement une période de transition. Le vide laissé par ces départs obligera de nombreuses industries à réajuster leur tir afin de ne pas être secouées par de trop fortes turbulences. À cet effet, l’impact des retraites n’aura pas la même ampleur pour chacune des branches d’activité. S’appuyant sur les données longitudinales de l’Enquête sur la dynamique du travail et du revenu de 1993 à 2010, cette recherche analyse les tendances au fil du temps et entre les industries en regard des départs d’emploi de carrière. Une attention particulière est aussi portée aux emplois de transition selon le secteur d’activité, afin de déterminer si cette pratique peut amoindrir les répercussions des départs d’emploi de carrière. Les résultats montrent que l’intensité des départs d’emploi de carrière s’accroit au cours de la période considérée et que d’importantes variations existent entre les travailleurs des diverses catégories d’industries examinées. L’industrie des services professionnels, scientifiques et techniques affiche la plus faible proportion de travailleurs ayant quitté un emploi de carrière (26 %). À l’autre extrémité du spectre, les travailleurs du secteur de l’hébergement et des services de restauration présentent la plus forte probabilité d’effectuer un départ d’emploi de carrière (47 %). Au chapitre des emplois de transition, les travailleurs en provenance l’industrie de la construction montrent la plus forte propension à oeuvrer au sein d’un tel type d’emploi. Si certaines industries se démarquent des autres, cela s’explique surtout en raison du comportement différentiel des travailleurs les plus âgés (55 à 64 ans).
Resumo:
Ce travail se situe dans la perspective des études sur la protection des savoirs traditionnels contre la biopiraterie commise par quelques industries pharmaceutiques et cosmétiques. Malgré le débat qui s’est déroulé à ce sujet après la signature de la Convention sur la diversité biologique, ces patrimoines culturels continuent d’être largement menacés. L’étude se propose d’analyser les mécanismes capables de protéger contre la biopiraterie les savoirs traditionnels associés à la biodiversité qui intéressent l’industrie pharmaceutique, et ce, par le biais des droits de propriété intellectuelle existants aussi bien à l’échelle internationale que dans le cadre des législations nationales. Ces mécanismes sont évalués quant à leur efficacité, en vue d’en identifier les plus intéressants, susceptibles d’être adoptés soit par des pays qui ne disposent pas encore de législation en matière de protection des savoirs traditionnels soit pour être utilisés dans le cadre international. Avec cet objectif, le présent travail dressera un panorama concernant la législation du Brésil, du Costa Rica et du Pérou. En outre, seront mises en exergue par la suite les différentes conventions en lien avec les savoirs traditionnels, à savoir la Convention sur la diversité biologique, le Protocole de Nagoya, le Comité intergouvernemental de la propriété intellectuelle relative aux ressources génétiques, aux savoirs traditionnels et au folklore de l’Organisation mondiale de la propriété intellectuelle. L’analyse menée a mis en lumière un certain nombre de dispositions assez efficaces pouvant être utilisées de façon optimale par des pays ne disposant pas de législation en matière de protection des savoirs traditionnels ou encore pouvant être intégrées dans des traités internationaux en la matière, afin de rendre lesdits traités plus efficaces sur le plan pratique. Bien plus, ladite analyse démontre que l’Accord sur les aspects des droits de propriété intellectuelle qui touchent au commerce est actuellement l’accord le plus coercitif et le plus contraignant lorsque l’on veut mener une lutte efficace contre la biopiraterie. Par ailleurs, en s’appuyant sur des fondements théoriques constructivistes, notre analyse essaye de démontrer que les pays du Sud, riches en biodiversité et en savoirs traditionnels, peuvent véritablement impulser un mouvement en faveur d’une législation internationale efficace en matière de protection des savoirs traditionnels
Resumo:
Ce que nous proposons de faire dans ce mémoire est de s’attarder au phénomène spécifique de la lecture des scénarios dans le contexte institutionnel québécois. Nous analyserons un corpus de cent soixante douze rapports de lecture de scénarios de longs métrages de fiction rédigés entre 1972 et 2004. Il n’existe, à notre connaissance, aucune étude portant spécifiquement sur un corpus de rapports de lecture. Dans un premier temps, nous situerons le rôle et la place du scénario dans l’histoire de la production de films de fiction québécoise, entre acceptation et refus. Ensuite, nous nous intéresserons à la manière dont concrètement les scénarios sont lus : par qui, comment, dans quelles conditions, avec quels objectifs. Enfin, en utilisant une analyse par théorisation ancrée (grounded theory), nous identifierons, à partir des commentaires émis dans les rapports, cinq entités sur lesquelles le lecteur se fonde pour formuler son jugement. Il s’agit du scénariste, du scénario proposé, du lecteur lui-même, du film à faire et du spectateur présumé que nous nommerons fictif. Nous en conclurons que le lecteur de scénario occupe une fonction de médiateur entre un texte et son auteur d’une part et un futur film et son spectateur réel d’autre part. Cette médiation est le lieu de convergence de différentes attentes, celles des lecteurs, des auteurs, des producteurs et des institutions.
Resumo:
Ce mémoire de maîtrise se penche sur la place du cinéma analogique à l’ère du « tout-numérique », en particulier dans le domaine du cinéma d’avant-garde. Le premier chapitre se consacre, d’un point de vue historique et théorique, sur «l’air du temps cinématographique», c’est-à-dire, sur le statut de la pellicule dans un contexte où l’on assiste à la disparition du format 35mm, tout aussi bien comme support de diffusion dans les salles de cinéma qu’à l’étape du tournage et de la postproduction. Face à une industrie qui tend à rendre obsolète le travail en pellicule, tout en capitalisant sur l’attrait de celle-ci en la reproduisant par le biais de simulacres numériques, il existe des regroupements de cinéastes qui continuent de défendre l’art cinématographique sur support argentique. Ainsi, le deuxième chapitre relève la pluralité des micros-laboratoires cinématographiques qui offrent des formes de résistance à cette domination du numérique. Nous nous intéresserons également, en amont, aux mouvements des coopératives tels que la Film-Maker’s Cooperative de New York et la London Filmmaker’s Coop afin de comprendre le changement de paradigme qui s’est opéré au sein de l’avant-garde cinématographique entre les années 50 et 70. Les mouvements de coopératives cherchaient avant tout une autonomie créative, tandis que les collectifs contemporains dédiés à la pellicule assurent la pérennité d’une pratique en voie de disparition. Finalement, le troisième chapitre propose une étude de cas sur le collectif de cinéastes montréalais Double Négatif. Ce chapitre relate tout aussi bien l’historique du collectif (fondement du groupe lors de leur passage à l’université Concordia), les spécificités qui émanent de leur filmographie (notamment les multiples collaborations musicales) ainsi que leur dévouement pour la diffusion de films sur support pellicule, depuis bientôt dix ans, au sein de la métropole. À l’image de d’autres regroupements similaires ailleurs sur la planète (Process Reversal, l’Abominable, Filmwerplaats pour ne nommer que ceux-là) le collectif Double Négatif montre des voies à suivre pour assurer que le cinéma sur pellicule puisse se décliner au futur.
Resumo:
Au début des années 1920, la ville de Montréal se retrouve dans une situation assez unique. À l’époque, les États-Unis et toutes les provinces canadiennes à l’exception du Québec ont adopté la prohibition de la vente d’alcool. Mais même au Québec, environ la moitié de la population de la province est alors touchée par des prohibitions locales (votées au niveau municipal), des prohibitions qui ont largement perduré tout au long de la période à l’étude. Durant cette ère de prohibition de l’alcool nord-américaine, Montréal est la plus grande ville, et une des seules sur le continent non régie par une loi sur la prohibition. C’est aussi celle qui dispose des lois les plus libérales envers l’alcool des deux côtés du 49ème parallèle grâce à la création de la Commission des Liqueurs de Québec (CLQ), le premier système de contrôle gouvernemental de l’alcool en Amérique du Nord. C’est dans ce contexte que Montréal devient une rare oasis dans un continent assoiffé et le plus grand cobaye du modèle de contrôle gouvernemental de l’alcool. Ce mémoire examine les impacts de cette conjoncture sur le développement de cette ville, de son industrie touristique, de sa vie nocturne et de sa réputation. En premier lieu, le mémoire présente une mise en contexte de la situation aux États-Unis, au Canada et au Québec afin de faire ressortir le caractère unique de Montréal pendant cette période. En deuxième lieu, l’essor du tourisme dit « de liqueur » et de la vie nocturne montréalaise, à la fois légale et illicite, est exploré. En dernier lieu, le mémoire met au jour l’impact que cette conjoncture a eu sur la construction de la réputation de la ville à travers l’examen des écrits des anti- et pro-prohibitionnistes qui ont chacun propagé des visions idéalisées et démonisées de cette ville « bien arrosée », ainsi que des documents associés à l’essor du tourisme, tels que les chansons, les guides touristiques et les récits de voyage, qui, pour leur part, ont présenté un image plus romancée de la métropole et associée à un refuge festif de la prohibition. Malgré leurs différences, ces trois visions de Montréal l’ont néanmoins associée à la liberté, que ce soit une liberté ordonnée, dangereuse ou bien émancipatrice. Ainsi, à partir de l’expérience de la prohibition et du tourisme de liqueur, Montréal devient connue comme une ville « ouverte », dans ses acceptions à la fois positives et négatives.
Resumo:
Dans cette thèse, je me suis intéressé aux effets des fluctuations du prix de pétrole sur l'activité macroéconomique selon la cause sous-jacente ces fluctuations. Les modèles économiques utilisés dans cette thèse sont principalement les modèles d'équilibre général dynamique stochastique (de l'anglais Dynamic Stochastic General Equilibrium, DSGE) et les modèles Vecteurs Autorégressifs, VAR. Plusieurs études ont examiné les effets des fluctuations du prix de pétrole sur les principaux variables macroéconomiques, mais très peu d'entre elles ont fait spécifiquement le lien entre les effets des fluctuations du prix du pétrole et la l'origine de ces fluctuations. Pourtant, il est largement admis dans les études plus récentes que les augmentations du prix du pétrole peuvent avoir des effets très différents en fonction de la cause sous-jacente de cette augmentation. Ma thèse, structurée en trois chapitres, porte une attention particulière aux sources de fluctuations du prix de pétrole et leurs impacts sur l'activité macroéconomique en général, et en particulier sur l'économie du Canada. Le premier chapitre examine comment les chocs d'offre de pétrole, de demande agrégée, et de demande de précaution de pétrole affectent l'économie du Canada, dans un Modèle d'équilibre Général Dynamique Stochastique estimé. L'estimation est réalisée par la méthode Bayésienne, en utilisant des données trimestrielles canadiennes sur la période 1983Q1 à 2010Q4. Les résultats montrent que les effets dynamiques des fluctuations du prix du pétrole sur les principaux agrégats macro-économiques canadiens varient en fonction de leurs sources. En particulier, une augmentation de 10% du prix réel du pétrole causée par des chocs positifs sur la demande globale étrangère a un effet positif significatif de l'ordre de 0,4% sur le PIB réel du Canada au moment de l'impact et l'effet reste positif sur tous les horizons. En revanche, une augmentation du prix réel du pétrole causée par des chocs négatifs sur l'offre de pétrole ou par des chocs positifs de la demande de pétrole de précaution a un effet négligeable sur le PIB réel du Canada au moment de l'impact, mais provoque une baisse légèrement significative après l'impact. En outre, parmi les chocs pétroliers identifiés, les chocs sur la demande globale étrangère ont été relativement plus important pour expliquer la fluctuation des principaux agrégats macroéconomiques du Canada au cours de la période d'estimation. Le deuxième chapitre utilise un modèle Structurel VAR en Panel pour examiner les liens entre les chocs de demande et d'offre de pétrole et les ajustements de la demande de travail et des salaires dans les industries manufacturières au Canada. Le modèle est estimé sur des données annuelles désagrégées au niveau industriel sur la période de 1975 à 2008. Les principaux résultats suggèrent qu'un choc positif de demande globale a un effet positif sur la demande de travail et les salaires, à court terme et à long terme. Un choc négatif sur l'offre de pétrole a un effet négatif relativement faible au moment de l'impact, mais l'effet devient positif après la première année. En revanche, un choc positif sur la demande précaution de pétrole a un impact négatif à tous les horizons. Les estimations industrie-par-industrie confirment les précédents résultats en panel. En outre, le papier examine comment les effets des différents chocs pétroliers sur la demande travail et les salaires varient en fonction du degré d'exposition commerciale et de l'intensité en énergie dans la production. Il ressort que les industries fortement exposées au commerce international et les industries fortement intensives en énergie sont plus vulnérables aux fluctuations du prix du pétrole causées par des chocs d'offre de pétrole ou des chocs de demande globale. Le dernier chapitre examine les implications en terme de bien-être social de l'introduction des inventaires en pétrole sur le marché mondial à l'aide d'un modèle DSGE de trois pays dont deux pays importateurs de pétrole et un pays exportateur de pétrole. Les gains de bien-être sont mesurés par la variation compensatoire de la consommation sous deux règles de politique monétaire. Les principaux résultats montrent que l'introduction des inventaires en pétrole a des effets négatifs sur le bien-être des consommateurs dans chacun des deux pays importateurs de pétrole, alors qu'il a des effets positifs sur le bien-être des consommateurs dans le pays exportateur de pétrole, quelle que soit la règle de politique monétaire. Par ailleurs, l'inclusion de la dépréciation du taux de change dans les règles de politique monétaire permet de réduire les coûts sociaux pour les pays importateurs de pétrole. Enfin, l'ampleur des effets de bien-être dépend du niveau d'inventaire en pétrole à l'état stationnaire et est principalement expliquée par les chocs sur les inventaires en pétrole.
Resumo:
Mon mémoire de maîtrise a été réalisé dans le cadre du projet Génorem (www.genorem.ca), un projet multidisciplinaire qui réunit différents chercheurs de l'Université de Montréal et de l'Université McGill dans le but d'améliorer les techniques utilisées en bioremédiation. Dans le cadre de l'étude, des saules à croissance rapide (Salix sp.) ont été utilisés comme plantes modèles dans l'étude. Ainsi, 11 cultivars de saule ont été suivis afin de déterminer leur potentiel à produire un bon rendement de biomasse, à tolérer des conditions de stress sévère causé par la présence de HAPs (hydrocarbures aromatiques polycycliques) , BPCs (biphényles polychlorés) et d'hydrocarbures pétroliers C10-C50. L'expérimentation consistait en une plantation de saule à forte densité qui a été mise en place en 2011 sur le site d'une ancienne industrie de pétrochimie à Varennes, dans le sud du Québec. Les boutures des génotypes sélectionnés ont été plantées sur une superficie d'environ 5000 m2. Les plantes ont été suivies pendant les deux saisons de croissance suivant le recépage et une série de paramètres de croissance et de mesures physiologiques ont été récoltés (surface foliaire, taux de chlorophylle, conductance stomatique et statut nutritionnel) dans le but d'évaluer et de comparer les performances de chaque génotype sur un sol pollué. Les analyses statistiques ont démontré que le cultivar S. miyabeana (SX61) était le meilleur producteur de biomasse sur le site contaminé, tandis que S. nigra (S05) et S. acutifolia (S54) présentaient la meilleure capacité photosynthétique. S. dasyclados (SV1), S. purpurea (‘Fish Creek’) et S. caprea (S365) ont semblé particulièrement affectés par la présence de contaminants. La capacité d'établissement et la croissance de S. nigra (S05), S. eriocephala (S25) and S. purpurea x S. miyabeana (‘Millbrook’) indiquent une tolérance globale supérieure à la pollution . Cette analyse comparative des différentes réponses physiologiques des saules cultivés sur un sol contaminé pourra guider le processus de sélection de plantes et les techniques de bioremédiation dans les futurs projets de phytoremédiation.
Resumo:
Dans ma thèse doctorale, j'étudie trois facteurs importants qui caractérisent le commerce international : les différences technologiques entre les pays, les barrières à l'entrée sous la forme de coûts fixes et la migration internationale. Le premier chapitre analyse si les différences technologiques entre les pays peuvent expliquer la spécialisation dans le commerce international entre les pays. Pour mesurer le niveau de la spécialisation, je calcule les index de concentration pour la valeur des importations et des exportations et décompose la concentration totale dans la marge de produits extensive (nombre de produits commercialisés) et la marge de produits intensive (volume de produits commercialisés). En utilisant des données commerciales détaillées au niveau du produit dans 160 pays, mes résultats montrent que les exportations sont plus concentrées que les importations, que la spécialisation se produit principalement au niveau de la marge intensive du produit, et que les économies plus grandes disposent d'importations et d'exportations plus diversifiées, car elles commercialisent plus de produits. Compte tenu de ces faits, j'évalue la capacité du modèle Eaton-Kortum, le principal modèle de la théorie ricardienne du commerce, pour représenter les preuves empiriques. Les résultats montrent que la spécialisation à travers l'avantage comparatif induit par les différences de technologie peut expliquer les faits qualitatifs et quantitatifs. De plus, j'évalue le rôle des déterminants clés de la spécialisation : le degré de l'avantage comparatif, l'élasticité de la substitution et la géographie. Une implication de ces résultats est qu'il est important d’évaluer jusqu'à quel point la volatilité de production mesurée par la volatilité du PIB est motivée par la spécialisation des exportations et des importations. Étant donné le compromis entre l'ouverture du commerce et la volatilité de production, les bénéfices tirés du commerce peuvent s'avérer plus faibles que ceux estimés précédemment. Par conséquent, les politiques commerciales alternatives telles que l'ouverture graduelle au commerce combinée à la diversification de la production pour réduire la concentration de l'exportation peuvent se révéler être une meilleure stratégie que l'approche du laissez-faire. En utilisant la relation entre la taille du marché et l’entrée de firmes et produits, le deuxième chapitre évalue si les barrières à l'entrée sous la forme de coûts fixes à exporter sont au niveau de la firme ou au niveau du produit. Si les coûts fixes se trouvent au niveau de la firme, la firme multiproduits a un avantage de coût de production par rapport aux autres firmes parce qu’elles peuvent diviser les coûts fixes sur plusieurs produits. Dans ce cas, le commerce international sera caractérisé par peu de firmes qui exportent beaucoup des produits. Si les coûts fixes sont au niveau du produit, l’entrée d’un produit est associée avec l’entrée de plusieurs firmes. La raison est qu’une fois que la première firme entre et paye les coûts fixes du produit, elle crée un effet d’entrainement qui réduit les coûts fixes pour des firmes rivales. Dans ce cas, le commerce international sera caractérisé par plusieurs firmes qui vendent des variétés différentes du même produit. En utilisant des données détaillées provenant de 40 pays exportateurs à travers 180 marchés de destination, mes résultats montrent que les barrières à l'entrée se trouvent principalement au niveau du produit. Un marché plus large favorise l'expansion d'un plus grand nombre d’entreprises au sein d'une catégorie de produit plutôt que de permettre aux entreprises produisant plusieurs produits de croître dans une gamme de produits. En regardant la différence entre le nombre d'exportateurs au sein d'une catégorie de produit dans des destinations données, je trouve que le taux d'entrée de firmes augmente significativement après qu'un produit entre la première fois dans le marché. J'en déduis donc que le premier entrant réduit les coûts fixes pour les firmes suivantes. Mes recherches démontrent également que malgré une plus grande compétition sur le marché du produit, les entreprises disposent de revenus d'exportation supérieurs et sont plus susceptibles de rester sur les marchés internationaux. Ces résultats sont cohérents avec l’hypothèse que l’effet d’entrainement incite l'entrée de firmes rivales et permettent aux entreprises de produire à plus grande échelle. Cette recherche dévoile un nombre de conclusions importantes. D'abord, les politiques commerciales encouragent l'entrée de nouveaux produits, par exemple, en promouvant des produits dans les marchés de destination entraînant ainsi des retombées qui se traduiront par un taux de participation plus élevé de l'entreprise et une croissance de l'exportation. Deuxièmement, les consommateurs du pays importateur peuvent bénéficier de prix plus bas pour le produit en réduisant les barrières techniques du commerce. Troisièmement, lorsque l'on effectue des expérimentations politiques sous la forme de réduction des coûts commerciaux, il est de coutume de considérer uniquement une baisse des coûts marginaux et d'évaluer les répercussions sur le bien-être du consommateur. Cependant, un élément important des accords commerciaux est la réduction des barrières techniques au commerce grâce à la négociation de normes communes pour un produit. Négliger l'existence des barrières à l'entrée et les conséquences des réaffectations de l'industrie affaiblit l'impact des réformes commerciales. Le troisième chapitre prend en compte le rôle de l'information dans la facilitation du commerce international. Les immigrants réduisent les coûts de transaction dans le commerce international en fournissant des informations sur les possibilités d'échange avec leur pays d'origine. En utilisant des données géographiques détaillées sur l'immigration et les importations aux États-Unis entre 1970 et 2005, je quantifie l'incidence qu'ont les nouveaux immigrants sur la demande pour les importations de biens intermédiaires aux États-Unis. Pour établir le lien cause à effet entre le commerce et la migration, j’exploite l'important afflux d'immigrants d'Amérique centrale après l'ouragan Mitch. Les résultats montrent que l'augmentation de dix pour cent d'immigrants a fait croître la demande pour les importations de biens intermédiaires de 1,5 pour cent. Mes résultats sont robustes aux problèmes de la causalité inverse ou la décision d’émigrer est causée par des opportunités de faire du commerce.
Resumo:
Le jeu vidéo est un produit qui ne cesse de gagner en popularité alors que les expériences ludiques tendent de plus en plus à se diversifier. Les recherches académiques sur l’objet vidéoludique se sont multipliées dans les dernières années afin de comprendre les particularités du nouveau média, surtout en ce qui concerne l’analyse du produit lui-même et sa réception, mais laissant peu de place à sa créa-tion et sa production. Montréal est un lieu idéal pour étudier le médium : en peu de temps, l’industrie du jeu vidéo est devenue l’un des fleurons industriels québécois. La présente étude s’est intéressée aux développeurs de Montréal, ville où se situe la plus grande partie des studios au Québec, afin de connaître leur perception du produit vidéoludique et de l’industrie. Au travers d’une perspective phénoménologique, un séjour ethno-graphique a été effectué dans un studio de production vidéoludique où plusieurs développeurs ont été observés et interviewés. Ce travail s’inscrit dans une anthropologie du travail et rend compte de la com-plexité qui émerge lorsqu’un travail essentiellement créatif vient se heurter à des motifs de production strictes. Plus encore, il rend compte d’un paradigme opposant directement la création et la production dans un milieu qui se présente comme une avenue prometteuse pour une jeunesse désirant vivre d’un travail créatif. Cette condition est attribuable à la nature du jeu vidéo lui-même qui se situe, selon Kline, Dyer-Witheford et De Peuter (2003), à mi-chemin entre la culture, la technologie et les visées commerciales (marketing). Les développeurs se trouvent donc entre deux eaux : d’un côté ils sont influencés par la culture du jeu, relevant de leurs pratiques, leurs préférences et des commu-nautés de développeurs et, de l’autre côté, par l’industrie qui dicte les façons de faire et viennent selon eux minimiser leur potentiel créatif.