993 resultados para Industrie aérospatiale
Resumo:
Dans un contexte de grandes transformations économiques imposées par la mondialisation, le développement d’innovations et la financiarisation de l’économie ont profondément atteint les villes mono industrielles de la période fordiste. L’industrie automobile, grandement influencée par les restructurations économiques globales, a elle aussi été profondément touchée. Ce faisant, les paysages urbains des villes dépendantes de cette industrie, comme Windsor en Ontario, ont été construits et détruits par le processus de destruction créative, dont nous soulignons la composante spatiale. La structure paysagère de Windsor s’est ainsi transformée : alors que des aires importantes dans différents quartiers attendent d’être réinvesties, donnant lieu aux paysages abandonnés, d’autres paysages sont créés. Cette recherche est basée sur l’étude de trois quartiers bordant la Rivière Détroit ayant subi d’importants changements dans leurs paysages. L’objectif principal de ce mémoire est donc de déterminer comment le processus de destruction créative s’opère à Windsor et quels en sont les impacts spatiaux. Afin de parvenir à cet objectif, des observations du paysage avec la création du répertoire photographique, accompagnées d’entrevues directes, ont été les méthodes privilégiées La recherche a permis de déterminer que le processus de destruction créative a lieu dans des contextes de déclin, mais également de croissance. Avec les restructurations économiques globales de l’industrie automobile, les paysages de Windsor se sont créés, déstructurés, et parfois restructurés, grâce aux interventions des acteurs locaux. Face à l’abandon progressif de certains espaces, ces acteurs ont dû réfléchir à de nouvelles stratégies en réponse aux transformations paysagères, comme le néolibéralisme urbain. Nous avons ainsi pu conclure que la destruction créative des paysages est donc en relation avec les processus économiques globaux et négociée par les acteurs locaux.
Resumo:
Étude de cas / Case study
Resumo:
Après avoir passé plus de 4 ans dans des camps de travail forcé, Jonas Mekas, lituanien, est déporté avec son frère par les Nations-Unies en 1949 aux États-Unis. Les deux rescapés de la seconde guerre mondiale dédient alors leur temps au cinéma. Dès leur arrivée, ils se procurent une caméra 16 mm bolex et se tournent vers le cinéma expérimental, grâce, entre autre, à une de ces cinéastes pionnières américaine Maya Deren. En marge de l'industrie cinématographique hollywoodienne, Jonas Mekas participe à l'édification de structures - coopératives, associations, magazines, journaux - afin de rendre accessible ce genre filmique, de lui obtenir une reconnaissance publique et de, ultimement, le préserver. En 1969, il réalise un film intitulé "Diaries, Notes and Sketches : Also Known as Walden". Mekas réalise ensuite des films qui réemploient des séquences qui se trouvent dans cette première ébauche filmique. Ce processus se retrace au sein de son « premier essai » numérique qu'il réalise à l'ère cybériste intitulé "The First Forty" (2006), composé de vidéos et de descriptions textuelles. Tout comme il l’avait fait avec Walden, Mekas présente explicitement celui-ci à un public, en l’occurrence son nouveau public d'internautes, qui en prend connaissance sur son site web officiel. La présentation numérique et la table des matières papier accompagnant "Diaries, Notes and Sketches : Also Known as Walden" rédigée par l'artiste en 1969 ont une fonction similaire au sens où, par elles, Jonas Mekas donne ces deux créations aux spectateurs. Nous avons choisi d'employer le terme de dispositif pour parler de ces « objets » qui font appel à diverses formes énonciatives afin de créer un effet spécifique chez le spectateur. En explorant la théorie sociologique moderne du don développée par Jacques T. Godbout, notre projet a été de relever « l'esprit de don » qui se retrace au sein de ces dispositifs. Cette étude nous permet de constater que les dispositifs audiovisuels / cinématographiques que développa Mekas sont des « objets » qui peuvent être reçus tel des dons suscitant le désir de donner chez les spectateurs. Ils sont le ciment symbolique personnel et collectif nécessaire à l’accomplissement du processus de « reconnaissance » qu’implique le don.
Resumo:
Thesis written in co-mentorship with Robert Michaud.
Resumo:
La présente étude a pour objectif de vérifier si le Canada respecte les prescriptions internationales en matière de droits de l’homme et d’entreprises vis-à-vis de l’encadrement qu’il exerce sur les sociétés minières canadiennes évoluant à l’étranger. En 2011, le Conseil des droits de l’homme de l’ONU a adopté des «Principes directeurs» afin de mettre en oeuvre le cadre de référence « Protéger, Respecter, Réparer » du Représentant spécial chargé de la question des droits de l’homme et des sociétés transnationales et autres entreprises. Selon ce cadre de référence, les États ont des obligations de protection et de réparation alors que les entreprises ont seulement la responsabilité de respecter les droits humains. Après six années de travail, le Représentant spécial John Ruggie, a fait le choix de formuler dans ses «Principes directeurs» des directives non contraignantes à l’égard des États et des entreprises afin de les aider à remplir leurs obligations et responsabilités vis-à-vis des droits de l’homme. Selon, l’ONU, cet instrument de portée universelle est le plus élaboré en la matière, si bien qu’il est recommandé aux entreprises et plus particulièrement aux États de s’y conformer lors de l’élaboration de leurs politiques respectives en matière d'activité économique et de droits humains. Il convient donc de vérifier d’une part si l’encadrement exercé par l’appareil législatif et gouvernemental vis-à-vis des sociétés minières canadiennes évoluant à l’étranger est conforme au principe directeur «Protéger». D’autres part, il convient de vérifier si les recours judiciaires et extrajudiciaires disponibles au Canada remplissent les exigences du principe directeur «Réparer». Cette double analyse permettra de conclure que le Canada respecte dans les grandes lignes ces «Principes directeurs» mais qu’il pourrait faire bien plus notamment en terme d’accès à des réparations effectives pour les victimes étrangères de minières canadiennes.
Resumo:
La présente thèse porte sur les limites de la théorie de la fonctionnelle de la densité et les moyens de surmonter celles-ci. Ces limites sont explorées dans le contexte d'une implémentation traditionnelle utilisant une base d'ondes planes. Dans un premier temps, les limites dans la taille des systèmes pouvant être simulés sont observées. Des méthodes de pointe pour surmonter ces dernières sont ensuite utilisées pour simuler des systèmes de taille nanométrique. En particulier, le greffage de molécules de bromophényle sur les nanotubes de carbone est étudié avec ces méthodes, étant donné l'impact substantiel que pourrait avoir une meilleure compréhension de ce procédé sur l'industrie de l'électronique. Dans un deuxième temps, les limites de précision de la théorie de la fonctionnelle de la densité sont explorées. Tout d'abord, une étude quantitative de l'incertitude de cette méthode pour le couplage électron-phonon est effectuée et révèle que celle-ci est substantiellement plus élevée que celle présumée dans la littérature. L'incertitude sur le couplage électron-phonon est ensuite explorée dans le cadre de la méthode G0W0 et cette dernière se révèle être une alternative substantiellement plus précise. Cette méthode présentant toutefois de sévères limitations dans la taille des systèmes traitables, différents moyens théoriques pour surmonter ces dernières sont développés et présentés dans cette thèse. La performance et la précision accrues de l'implémentation résultante laissent présager de nouvelles possibilités dans l'étude et la conception de certaines catégories de matériaux, dont les supraconducteurs, les polymères utiles en photovoltaïque organique, les semi-conducteurs, etc.
Resumo:
L’histoire du concept d’idéologie est riche des différentes définitions qui ont tenté de le circonscrire, en tension entre la description de visions du monde et la dénonciation de la « fausse conscience ». Chez les penseurs regroupés sous le nom d’ « École de Francfort », l’idéologie en vient à équivaloir au phénomène de l’industrie culturelle, c’est-à-dire la mise au service de la raison technique dans la production de la culture. Le statut du cinéma est intéressant à cet égard : non seulement est-ce un art né à l’époque industrielle et indissociable des possibilités techniques offertes par celle-ci, mais il a été mobilisé pour de nombreuses entreprises propagandistes, plus ou moins subtiles. La question directrice de l’interrogation est donc la suivante : selon la théorie critique de l’École de Francfort, le cinéma peut-il être considéré comme de l’art ou est-il confiné au domaine de l’idéologie ? Autrement dit, le cinéma peut-il revendiquer un statut qui ne ferait pas de lui qu’un support de la domination de l’humain par l’humain ?
Resumo:
La demande croissante en carburants, ainsi que les changements climatiques dus au réchauffement planétaire poussent le monde entier à chercher des sources d’énergie capables de produire des combustibles alternatifs aux combustibles fossiles. Durant les dernières années, plusieurs sources potentielles ont été identifiées, les premières à être considérées sont les plantes oléagineuses comme source de biocarburant, cependant l’utilisation de végétaux ou d’huiles végétales ayant un lien avec l’alimentation humaine peut engendrer une hausse des prix des denrées alimentaires, sans oublier les questions éthiques qui s’imposent. De plus, l'usage des huiles non comestibles comme sources de biocarburants, comme l’huile de jatropha, de graines de tabac ou de jojoba, révèle un problème de manque de terre arable ce qui oblige à réduire les terres cultivables de l'industrie agricole et alimentaire au profit des cultures non comestibles. Dans ce contexte, l'utilisation de microorganismes aquatiques, tels que les microalgues comme substrats pour la production de biocarburant semble être une meilleure solution. Les microalgues sont faciles à cultiver et peuvent croitre avec peu ou pas d'entretien. Elles peuvent ainsi se développer dans des eaux douces, saumâtres ou salées de même que dans les terres non cultivables. Le rendement en lipide peut être largement supérieur aux autres sources de biocarburant potentiel, sans oublier qu’elles ne sont pas comestibles et sans aucun impact sur l'industrie alimentaire. De plus, la culture intensive de microalgues pour la production de biodiesel pourrait également jouer un rôle important dans l'atténuation des émissions de CO2. Dans le cache de ce travail, nous avons isolé et identifié morphologiquement des espèces de microalgues natives du Québec, pour ensuite examiner et mesurer leur potentiel de production de lipides (biodiesel). L’échantillonnage fut réalisé dans trois régions différentes du Québec: la région de Montréal, la gaspésie et le nord du Québec, et dans des eaux douces, saumâtres ou salées. Cent souches ont été isolées à partir de la région de Montréal, caractérisées et sélectionnées selon la teneur en lipides et leur élimination des nutriments dans les eaux usées à des températures différentes (10 ± 2°C et 22 ± 2°C). Les espèces ayant une production potentiellement élevée en lipides ont été sélectionnées. L’utilisation des eaux usées, comme milieu de culture, diminue le coût de production du biocarburant et sert en même temps d'outil pour le traitement des eaux usées. Nous avons comparé la biomasse et le rendement en lipides des souches cultivées dans une eau usée par apport à ceux dans un milieu synthétique, pour finalement identifié un certain nombre d'isolats ayant montré une bonne croissance à 10°C, voir une teneur élevée en lipides (allant de 20% à 45% du poids sec) ou une grande capacité d'élimination de nutriment (>97% d'élimination). De plus, nous avons caractérisé l'une des souches intéressantes ayant montré une production en lipides et une biomasse élevée, soit la microalgue Chlorella sp. PCH90. Isolée au Québec, sa phylogénie moléculaire a été établie et les études sur la production de lipides en fonction de la concentration initiale de nitrate, phosphate et chlorure de sodium ont été réalisées en utilisant de la méthodologie des surfaces de réponse. Dans les conditions appropriées, cette microalgue pourrait produire jusqu'à 36% de lipides et croitre à la fois dans un milieu synthétique et un milieu issu d'un flux secondaire de traitement des eaux usées, et cela à 22°C ou 10°C. Ainsi, on peut conclure que cette souche est prometteuse pour poursuivre le développement en tant que productrice potentielle de biocarburants dans des conditions climatiques locales.
Resumo:
L’oestradiol joue un rôle important dans la reproduction en général, particulièrement dans la croissance folliculaire chez la vache. La production de l’œstradiol nécessite l’expression du gène CYP19A1 suite à la stimulation des cellules de granulosa par l’hormone folliculostimulante (FSH) ou le facteur de croissance insulinique de type 1 (IGF-1). Chez la vache, il existe six promoteurs (1.1 ; 1.2 ; 1.3 ; 1.4 ; 1.5 et 2) qui dirigent la transcription du gène CYP19A1 dans les cellules de la granulosa. Le principal promoteur qui dirige la transcription au niveau de l’ovaire (cellules de granulosa) est le promoteur 2 (P2). Cependant, l’effet de la FSH et de l’IGF-1 sur l’activation de ces promoteurs d’aromatase demeure mal connu. De plus, la demi-vie du transcrit CYP19A1 est très courte avec une région 3’UTR relativement longue. L’analyse de la séquence 3’UTR montre la présence des motifs ARE (séquence riche en AU), des études antérieur montrent que ces séquences impliquent dans la régulation de la stabilité ou la dégradation de l’ARNm, ce qui est fort probable que la courte demi-vie de l’ARNm CYP19A1 est sous le contrôle post-transcriptionel. L’objectif de la thèse visait à étudier la régulation de l’expression du gène CYP19A1 chez la vache. Il y a deux thèmes soit étude de la régulation transcriptionnelle ciblant le promoteur et soit étude de la régulation post-transcriptionnelle impliquant la région 3’non traduite (3’UTR). Le premier objectif vise à étudier la régulation transcriptionnelle du gène CYP19A1. Nous avons étudié l'activité du promoteur ovarien bovin dans deux modèles de cellules de la granulosa, les cellules lutéinisées et nonlutéinisées in vitro, suite à une stimulation des cellules par la FSH ou IGF-1. Nous avons également évalué la voie de signalisation impliquée dans la régulation des différents promoteurs en utilisant un RT-PCR et un gène rapporteur (les différents promoteurs d’aromatase ont été insérés dans le vecteur pGL3promoter en amont du gène exprimant la luciférase). Les résultats de RT-PCR démontrent que la FSH et l’IGF-1 augmentent les concentrations d’ARNm provenant des deux promoteurs 2 et 1.1 dans les cellules de la granulosa non lutéinisées. Des expériences subséquentes ont montré que la FSH stimule le promoteur 2 via la voie PKA tandis que l'IGF-1 stimule le promoteur 2 via la voie PKC. La FSH et l’IGF-1 stimulent l’expression du promoteur 1.1 via la voie PI3K. L’analyse de l’activité luciférase démontre que dans les cellules de granulosa lutéinisées, la FSH stimule le promoteur 1.1 de façon dose dépendante et ne semble y avoir aucun effet significatif sur le promoteur 2. Nous avons donc comparé l’activité du promoteur PII/P2 humain, du rat, de la chèvre et de la vache dans les cellules de granulosa bovine lutéinisées. Le résultat le plus significatif est que le promoteur 2 bovine (et caprine) dépend de plusieurs facteurs de transcription (NR5A2, FOXL2) comparé au promoteur PII humain et celui du promoteur proximal du rat qui dépendent principalement de l'AMPc. En effet, nos résultats ont démontré une expression raisonnablement robuste du P2 bovine lorsque les cellules sont traitées à la forskoline, NR5A2 et FOXL2. Le facteur FOXL2 semble déterminer l'activité du promoteur 2 chez le ruminant. Le deuxième objectif vise à étudier la régulation post-transcriptionnelle du gène CYP19A1. Pour ce faire, nous avons déterminé la séquence minimale de l'ARNm CYP19A1 requise pour la régulation de sa demi-vie. Différents séquences de la région 3’UTR ont été insérés dans le vecteur pGL3promoter en aval du gène exprimant la luciférase ou soit dans le vecteur pGEMTeasy. Le vecteur pGL3promoter a été transfecté dans les cellules de granulosa lutéinisées pour évaluer l'impact de la séquence 3'UTR sur l'expression du gène rapporteur de la luciférase, alors que le vecteur pGEMTeasy a été utilisé pour la transcription in vitro afin de générer de l’ARNm. Ce dernier sera utilisé en réaction croisée au UV avec des extraits protéiques pour démontrer l’association du complexe ARNm/protéine. L’analyse de l’activité luciférase a permis d’identifier une séquence de 200 pb située entre 926 et 1134 pb de la région 3'UTR de l’ARNm CYP19A1 qui a réduit significativement l’activité de la luciférase. Selon les analyses de la réaction croisée au UV, une ou plusieurs protéines de 66 et 80 kDA se lient spécifiquement à la séquence de 200 pb qui réduit l’activité de luciférase. Cette protéine s'exprime dans les cellules de granulosa, mais n’a pas été détectée dans d'autres tissus comme le foie et le cœur. Par ailleurs, l’utilisation du gène rapporteur sensible à la FSH a suscité l’intérêt d'une compagnie pharmaceutique qui vend de l’equine chorionic gonadotropin (eCG) pour lui permettre de distinguer facilement l’eCG ayant une forte activité FSH et donc, avoir un produit commercial plus efficace et de meilleure qualité. Dans cette étude, nous avons développé un système de bioessai à la FSH basé sur la transfection des cellules avec un récepteur à la FSH et un gène rapporteur colorimètrique qui permet d’estimer l’activité de la FSH dans le sérum de la jument et qui pourrait être applicable au niveau de la ferme/industrie.
Resumo:
Cette oeuvre est mise à disposition selon les termes de la licence Creative Commons Attribution - Pas d'utilisation commerciale - Pas de modification 2.5 Canada Vous avez donc le droit de : Partager - copier, distribuer et communiquer le matériel par tous les moyens et sous tous formats; Selon les conditions suivantes : Attribution — Vous devez créditer l'Oeuvre, intégrer un lien vers la licence et indiquer si des modifications ont été effectuées à l'Oeuvre. Vous devez indiquer ces informations par tous les moyens possibles mais vous ne pouvez pas suggérer que l'Offrant vous soutient ou soutient la façon dont vous avez utilisé son Oeuvre. Pas d’Utilisation Commerciale — Vous n'êtes pas autoriser à faire un usage commercial de cette Oeuvre, tout ou partie du matériel la composant. Pas de modifications — Dans le cas où vous effectuez un remix, que vous transformez, ou créez à partir du matériel composant l'Oeuvre originale, vous n'êtes pas autorisé à distribuer ou mettre à disposition l'Oeuvre modifiée. Pour voir une copie de cette licence, visitez http://creativecommons.org/licenses/by-nc-nd/2.5/ca/ ou écrivez à Creative Commons, 444 Castro Street, Suite 900, Mountain View, California, 94041, USA.
Resumo:
La maintenance du logiciel est une phase très importante du cycle de vie de celui-ci. Après les phases de développement et de déploiement, c’est celle qui dure le plus longtemps et qui accapare la majorité des coûts de l'industrie. Ces coûts sont dus en grande partie à la difficulté d’effectuer des changements dans le logiciel ainsi que de contenir les effets de ces changements. Dans cette perspective, de nombreux travaux ont ciblé l’analyse/prédiction de l’impact des changements sur les logiciels. Les approches existantes nécessitent de nombreuses informations en entrée qui sont difficiles à obtenir. Dans ce mémoire, nous utilisons une approche probabiliste. Des classificateurs bayésiens sont entraînés avec des données historiques sur les changements. Ils considèrent les relations entre les éléments (entrées) et les dépendances entre changements historiques (sorties). Plus spécifiquement, un changement complexe est divisé en des changements élémentaires. Pour chaque type de changement élémentaire, nous créons un classificateur bayésien. Pour prédire l’impact d’un changement complexe décomposé en changements élémentaires, les décisions individuelles des classificateurs sont combinées selon diverses stratégies. Notre hypothèse de travail est que notre approche peut être utilisée selon deux scénarios. Dans le premier scénario, les données d’apprentissage sont extraites des anciennes versions du logiciel sur lequel nous voulons analyser l’impact de changements. Dans le second scénario, les données d’apprentissage proviennent d’autres logiciels. Ce second scénario est intéressant, car il permet d’appliquer notre approche à des logiciels qui ne disposent pas d’historiques de changements. Nous avons réussi à prédire correctement les impacts des changements élémentaires. Les résultats ont montré que l’utilisation des classificateurs conceptuels donne les meilleurs résultats. Pour ce qui est de la prédiction des changements complexes, les méthodes de combinaison "Voting" et OR sont préférables pour prédire l’impact quand le nombre de changements à analyser est grand. En revanche, quand ce nombre est limité, l’utilisation de la méthode Noisy-Or ou de sa version modifiée est recommandée.
Resumo:
Introduction : Cette thèse est constituée de trois articles liés les uns aux autres. Le premier s’attache à clarifier les perspectives théoriques et problèmes conceptuels entourant la notion de capacité/incapacité au travail, sa définition et son évolution au fil du temps. Les deuxième et troisième articles visent à évaluer les effets différentiels selon le genre de déterminants du retour au travail (RAT) et de la durée d’indemnisation ainsi que les coûts associés, dans une population de travailleurs indemnisés à long terme pour troubles musculosquelettiques (TMS). Méthodes : Dans le premier article, une revue systématique des définitions de l’(in)capacité au travail et une analyse comparative basée sur la théorisation ancrée débouchent sur une carte conceptuelle intégrative. Dans le second article, une cohorte de 455 adultes en incapacité à long terme pour TMS au dos/cou/membres supérieurs est suivie cinq ans au travers d’entretiens structurés et de données d’indemnisation. Des modèles de Cox stratifiés par genre ont été utilisés pour évaluer la durée jusqu’au premier RAT. Dans le troisième article, une cohorte populationnelle de 13,073 hommes et 9032 femmes en incapacité prolongée pour TMS au dos/cou/membres supérieurs a été suivie pendant trois ans à l’aide de données administratives. Des modèles de Cox stratifiés par genre ont été utilisés pour étudier la durée d’indemnisation et détecter les effets dépendants du temps. Les coûts ont également été examinés. Résultats : Les définitions analysées dans la première étude ne reflètent pas une vision intégrée et partagée de l’(in)capacité au travail. Cependant, un consensus relatif semble émerger qu’il s’agit d’un concept relationnel, résultant de l’interaction de multiples dimensions aux niveaux individuel, organisationnel et sociétal. La seconde étude montre que malgré des courbes de survie jusqu’au RAT similaires entre hommes et femmes (p =0.920), plusieurs déterminants diffèrent selon le genre. Les femmes plus âgées (HR=0.734, par tranches de 10 ans), d’un statut économique perçu comme pauvre (HR=0.625), travaillant ≥40 heures/semaine en ayant des personnes à charge (HR=0.508) et ne connaissant pas l’existence d’un programme de santé et sécurité sur leur lieu de travail (HR=0.598) retournent moins vite au travail, tandis qu’un revenu brut annuel plus élevé (par $10,000) est un facteur facilitant (HR=1.225). Les hommes de plus de 55 ans (HR=0.458), au statut économique perçu comme pauvre (HR=0.653), travaillant ≥40 heures/semaine avec une charge de travail physique perçue élevée (HR=0.720) et une plus grande précarité d’emploi (HR=0.825) retournent moins rapidement au travail. La troisième étude a révélé que trois ans après la lésion, 12.3% des hommes et 7.3% des femmes étaient encore indemnisés, avec un ratio de coûts homme-femme pour l’ensemble des réclamations de 2.1 :1. L’effet de certain prédicteurs (e.g. revenu, siège de lésion, industrie) varie selon le genre. De plus, l’effet de l’âge chez les hommes et l’effet de l’historique d’indemnisation chez les femmes varient dans le temps. Conclusion : La façon de définir l’(in)capacité au travail a des implications importantes pour la recherche, l’indemnisation et la réadaptation. Les résultats confirment également la pertinence d’investiguer les déterminants du RAT et de l’indemnisation selon le genre.
Resumo:
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.
Resumo:
Avec la vague des départs à la retraite amorcée par la génération des baby-boomers, le marché du travail canadien traversera inéluctablement une période de transition. Le vide laissé par ces départs obligera de nombreuses industries à réajuster leur tir afin de ne pas être secouées par de trop fortes turbulences. À cet effet, l’impact des retraites n’aura pas la même ampleur pour chacune des branches d’activité. S’appuyant sur les données longitudinales de l’Enquête sur la dynamique du travail et du revenu de 1993 à 2010, cette recherche analyse les tendances au fil du temps et entre les industries en regard des départs d’emploi de carrière. Une attention particulière est aussi portée aux emplois de transition selon le secteur d’activité, afin de déterminer si cette pratique peut amoindrir les répercussions des départs d’emploi de carrière. Les résultats montrent que l’intensité des départs d’emploi de carrière s’accroit au cours de la période considérée et que d’importantes variations existent entre les travailleurs des diverses catégories d’industries examinées. L’industrie des services professionnels, scientifiques et techniques affiche la plus faible proportion de travailleurs ayant quitté un emploi de carrière (26 %). À l’autre extrémité du spectre, les travailleurs du secteur de l’hébergement et des services de restauration présentent la plus forte probabilité d’effectuer un départ d’emploi de carrière (47 %). Au chapitre des emplois de transition, les travailleurs en provenance l’industrie de la construction montrent la plus forte propension à oeuvrer au sein d’un tel type d’emploi. Si certaines industries se démarquent des autres, cela s’explique surtout en raison du comportement différentiel des travailleurs les plus âgés (55 à 64 ans).
Resumo:
Ce travail se situe dans la perspective des études sur la protection des savoirs traditionnels contre la biopiraterie commise par quelques industries pharmaceutiques et cosmétiques. Malgré le débat qui s’est déroulé à ce sujet après la signature de la Convention sur la diversité biologique, ces patrimoines culturels continuent d’être largement menacés. L’étude se propose d’analyser les mécanismes capables de protéger contre la biopiraterie les savoirs traditionnels associés à la biodiversité qui intéressent l’industrie pharmaceutique, et ce, par le biais des droits de propriété intellectuelle existants aussi bien à l’échelle internationale que dans le cadre des législations nationales. Ces mécanismes sont évalués quant à leur efficacité, en vue d’en identifier les plus intéressants, susceptibles d’être adoptés soit par des pays qui ne disposent pas encore de législation en matière de protection des savoirs traditionnels soit pour être utilisés dans le cadre international. Avec cet objectif, le présent travail dressera un panorama concernant la législation du Brésil, du Costa Rica et du Pérou. En outre, seront mises en exergue par la suite les différentes conventions en lien avec les savoirs traditionnels, à savoir la Convention sur la diversité biologique, le Protocole de Nagoya, le Comité intergouvernemental de la propriété intellectuelle relative aux ressources génétiques, aux savoirs traditionnels et au folklore de l’Organisation mondiale de la propriété intellectuelle. L’analyse menée a mis en lumière un certain nombre de dispositions assez efficaces pouvant être utilisées de façon optimale par des pays ne disposant pas de législation en matière de protection des savoirs traditionnels ou encore pouvant être intégrées dans des traités internationaux en la matière, afin de rendre lesdits traités plus efficaces sur le plan pratique. Bien plus, ladite analyse démontre que l’Accord sur les aspects des droits de propriété intellectuelle qui touchent au commerce est actuellement l’accord le plus coercitif et le plus contraignant lorsque l’on veut mener une lutte efficace contre la biopiraterie. Par ailleurs, en s’appuyant sur des fondements théoriques constructivistes, notre analyse essaye de démontrer que les pays du Sud, riches en biodiversité et en savoirs traditionnels, peuvent véritablement impulser un mouvement en faveur d’une législation internationale efficace en matière de protection des savoirs traditionnels