966 resultados para Abstraction Hierarchy
Resumo:
Le présent mémoire analyse l'impact du contexte d'insolvabilité sur le devoir fiduciaire d'agir dans le meilleur intérêt de la compagnie, devoir imposer aux administrateurs de compagnies par la législation corporative canadienne. L'objectif du mémoire est de déterminer un standard de conduite à être adopté par l'administrateur d'une compagnie insolvable en vue de répondre à ce devoir fiduciaire. Dans un premier temps, comment peut-on définir ce que constitue le « meilleur intérêt de la compagnie» ? L'auteur en vient à la conclusion que l'intérêt de la compagnie est au carrefour d'une communauté d'intérêts lui étant sous-jacents. L'intérêt de la compagnie, bien qu'indépendant de ces intérêts sous-jacents, ne peut s'analyser en faisant abstraction de ces derniers. La jurisprudence et la doctrine récentes laissent entrevoir que l'impact du contexte d'insolvabilité se fait sentir sur la détermination de ces intérêts sous-jacents à celui de la compagnie susceptibles d'être affectés par la finalité poursuivie par la compagnie, finalité axée sur la maximisation des profits à partir des opérations de l'entreprise exploitée par la compagnie. Dans un contexte d'insolvabilité, le créancier, à l'instar de l'actionnaire dans un contexte de solvabilité, supporte le risque commercial résiduel et doit recevoir une attention appropriée par les administrateurs. Par conséquent, dans la détermination de ce que constitue le meilleur intérêt de la compagnie, l'administrateur ne peut, lorsque la compagnie est insolvable, faire abstraction de l'intérêt des créanciers. Ainsi, dans un deuxième temps, qui sont les véritables bénéficiaires du devoir fiduciaire d'agir dans le meilleur intérêt de la compagnie dans un contexte d'insolvabilité? L'auteur en vient à la conclusion que le créancier est un bénéficiaire indirect de ce devoir fiduciaire lorsque la compagnie est insolvable. Tout comme l'actionnaire dans un contexte de solvabilité, le créancier doit être en mesure d'intenter un recours de nature dérivée en vue d'obtenir réparation, pour et au nom de la compagnie. Le contexte d'insolvabilité fait naître, à l'endroit des administrateurs, une obligation de nature fiduciaire de prendre en considération l'intérêt des créanciers tout en permettant à ces derniers d'intenter un tel recours dérivé en vue d'obtenir réparation à la suite d'une violation du devoir fiduciaire d'agir dans le meilleur intérêt de la compagnie. En plus d'être soutenue par une revue de la législation, de la jurisprudence et de la doctrine canadiennes, cette conclusion s'appuie sur une revue de la législation, de la jurisprudence et de la doctrine de certains pays du Commonwealth (Angleterre, Australie et Nouvelle-Zélande) et des États-Unis, juridictions avec lesquelles le Canada entretient des relations privilégiés, historiquement ou économiquement. Finalement, que doit faire l'administrateur d'une compagnie insolvable en vue de répondre à ce devoir fiduciaire d'agir dans le meilleur intérêt de la compagnie? L'auteur arrive à la conclusion que cette obligation de prendre en considération l'intérêt du créancier dans un contexte d'insolvabilité se traduit par un exercice de conciliation entre les intérêts du créancier et ceux des actionnaires. Les paramètres de cet exercice de conciliation sont déterminés en fonction du scénario envisagé par les administrateurs face à la situation d'insolvabilité. Plus le scénario se rapproche d'une liquidation plus ou moins formelle des actifs tangibles et facilement dissociables de la compagnie, moins cet exercice en sera un de conciliation et plus l'intérêt du créancier devra recevoir une attention prépondérante. À l'opposé, plus le scénario en est un de restructuration fondée sur une relance de l'entreprise exploitée par la compagnie insolvable, plus l'intérêt de l'actionnaire devra recevoir une attention particulière.
Resumo:
La qualification est centrale à l'activité du juriste. Les règles de droit positif ne reçoivent application qu'au moment où les faits reçoivent une certaine qualification. Cette réalité prend une dimension particulière face au contrat, lequel est l'objet de multiples dispositions législatives. Le législateur a cru bon au fil du temps, de réglementer diverses formes contractuelles, les contrats nommés. On oppose à ceux-ci les contrats innommés, pure création extra-législative. La détermination de la nature du contrat passe par un processus de qualification indépendant de notions connexes et qui doit s'éloigner d'une méthode intuitive. La qualification du contrat passera principalement par l’analyse des obligations en vue d'identifier l'obligation fondamentale ou la prestation caractéristique du contrat. Il s'agit d'une analyse qu'on veut objective. Les parties auront peu d'influence sur la qualification qui sera ultérieurement donnée à leur contrat, celle-ci étant une question de droit en principe réservée au juge. Le juriste tentera d'abord de lier le contrat aux modèles nommés connus et prévus par le législateur, soit en lui donnant un seul nom ou en reconnaissant la nature mixte de la convention. Dans l'éventualité où ces tentatives ne sont pas concluantes, une qualification innommée devra être choisie. La distinction entre les différentes qualifications possible sera réalisée en fonction de la hiérarchie des obligations au contrat et par l'écart de celle-ci avec les modèles connus.
Resumo:
« La grande majorité des accidents demeure liée aux comportements dangereux des usagers de la route ». Cet énoncé, lapidaire, fait aujourd’hui figure d’évidence au sein de la communauté des intervenants en sécurité routière. Il repose pourtant sur des prémisses discutables. Le problème le plus fondamental réside dans le fait que la recherche des dernières décennies s’est presque toute entière vouée à l’analyse des seuls aspects défaillants de la conduite (l’accident, les infractions, les erreurs et les fautes de conduite, les conducteurs à risque ou dysfonctionnels, les attitudes et traits de caractère incitant à la conduite dangereuse, etc.). Ce faisant, on a fini par oublier qu’il nous restait encore beaucoup de choses à apprendre sur le fonctionnement usuel de la conduite automobile. Comment, en effet, peut-on escompter élucider tous les rouages de la dynamique accidentelle sans avoir au préalable cerné, et bien compris, les mécanismes de la conduite « ordinaire » ? Comment peut-on parvenir à approfondir notre compréhension des comportements de conduite si l’on fait totalement abstraction de toutes les activités courantes, « normales », auxquelles se livrent les conducteurs lorsqu’ils sont au volant de leur véhicule ? C’est dans la perspective de mieux comprendre les comportements de conduite, dans leur complexité et dans leur diversité, que la présente thèse a été réalisée. Y a plus spécifiquement été examinée la question des habitudes en raison de leur prédominance dans l’activité de la conduite, mais également en raison de leur résistance, des obstacles bien concrets qu’elles sont susceptibles d’opposer à tous ceux qui tentent de modifier les comportements individuels de conduite. Des entrevues en profondeur, menées auprès de trente conducteurs et conductrices âgé(e)s de 17 à 54 ans, devaient permettre de répondre, entre autres, aux questions suivantes : De quoi sont constituées les différentes habitudes en matière de conduite automobile ? Quelle place occupent-elles dans la conduite des individus ? En quoi constituent-elles un frein au changement, à la modification des pratiques adoptées ? Quelles sont les dimensions qui participent à leur installation ? Les résultats de l’analyse ont permis de jeter les bases d’un modèle des comportements de conduite où les sensations corporelles se voient conférer un rôle des plus centraux, et où l’habitude – bien davantage caractérisée par la notion de confort que par celles d’automatisme ou de répétition – concourt non seulement à la pérennité, mais également à la régulation des conduites adoptées sur la route.
Resumo:
Cette thèse se propose d’étudier les façons dont la pensée et l’imaginaire grec de l’époque archaïque se représentaient quelques pans du réel qui ne se laissaient jamais voir ni atteindre: l’éther, l’air et l’abîme marin. Vu le caractère insondable de ces espaces, l’imagination et l’abstraction se sont ingéniées à les appréhender par un discours spécifique et à les intégrer dans le système de connaissances et de croyances propre à l’époque en leur assignant une place dans le système de l’univers, en les rattachant à une hiérarchie de l’ordre cosmologique, en leur donnant une forme, en classant leurs objets et en les rapportant aux modèles du monde connu, en les aménageant par les moyens les plus divers. Une étude des formes d’expression de la pensée grecque archaïque, autant littéraires qu’iconographiques, permet de cerner les diverses formes de représentation des domaines inaccessibles et les modèles d’organisation spatiale issus de ce type de pensée. Grâce à la dialectique particulière qui ressort du rapport entre espace et mouvement, cette thèse se propose également d’interroger le corpus des sources grecques archaïques sous des angles jusqu’ici peu explorés: comment maîtrise-t-on l’espace par les déplacements physiques en dehors des parcours terrestres? Comment les schémas du mouvement dans l’espace se sont-ils forgés? Comment les dichotomies issues de la logique spatiale archaïque (haut/bas, droite/gauche, est/ouest, en deça/au-delà, etc.) influent-elles sur la structuration spatiale? Quelles espèces d’espace révèlent les déplacements à travers les différents niveaux du monde, que ce soit ceux des dieux, ceux des mortels et d’autres entités, forces physiques et substances privilégiées dans le commerce avec le divin et le monde d’en haut? Ces analyses mettent en valeur les façons dont l’imagination et l’abstraction plutôt que l’expérience vécue ont contribué, à leur façon, à structurer l’espace et à forger l’image du monde comme κόσμος, monde mis en ordre et soumis autant aux lois physiques qu’aux lois divines.
Resumo:
À très peu de philosophes l’histoire de la pensée occidentale a accordé une place aussi significative qu’à Socrate : nous apprenons tout naturellement à l’édifier comme héros de la rationalité et à reconnaître en lui la figure même du philosophe critique. À plusieurs égards, cette représentation élogieuse nous paraît justifiée, bien que, d’un autre point de vue, elle puisse nous faire sombrer dans la confusion, dès lors que notre regard porte simultanément, et comme pour produire un contraste, sur l’image d’un Socrate se soumettant au daimonion, son étrange signe divin. Comment pouvons-nous justifier, à partir du corpus platonicien, à la fois l’engagement de Socrate vis-à-vis de la rationalité et sa soumission à un phénomène en apparence irrationnel ? De cette question troublante est née la présente étude qui se consacre donc au problème de l’articulation entre le rapport de Socrate aux dieux et son rapport à la raison critique. Plus précisément, nous avons cherché à déterminer s’il existait, sur le plan épistémologique, une hiérarchie entre le daimonion et la méthode d’investigation rationnelle propre à Socrate, l’elenchos. Une telle étude exégétique nécessitait, dans un premier temps, une analyse systématique et approfondie des quelques passages sur le signe divin. Nous avons ensuite exposé deux solutions paradigmatiques au problème du double engagement contradictoire de Socrate, celle de G. Vlastos ainsi que celle de T.C. Brickhouse et N.D. Smith. Enfin, nous avons augmenté cette seconde partie d’un examen spécifique du Phèdre et du Timée, de même que d’un survol des modes de divination pour satisfaire un triple objectif : situer le signe divin en regard de la mantique traditionnelle, déterminer le rôle attribué par Platon à la raison dans le processus divinatoire, et être ainsi en mesure de trancher notre question principale.
Resumo:
Les systèmes de gestion intégrée en environnement et en santé et sécurité du travail (SGI) sont un nouveau paradigme de gestion dans les organisations modernes. Ces systèmes sont construits à partir des normes ISO 14001 et d’OHSAS 18001, basées sur la prévention des risques et le principe de précaution. La littérature sur les SGI témoigne d’un marasme conceptuel prédominant depuis plus de 10 ans; elle insiste sur l’urgence d’un consensus taxinomique et conceptuel afin de définir les systèmes de gestion intégrée et de différencier le mécanisme d’intégration de celui de l’implantation. Cette lacune conceptuelle enlise les connaissances dans un fossé épistémologique, retardant ainsi le débat dans ce nouveau champ d’études. Les rares connaissances dont nous disposons dans ce domaine proviennent de quelques études théoriques et de six études empiriques, toutes préoccupées par la compatibilité des multiples systèmes et des avantages économiques de leur intégration. Les évidences engendrées par ces études sont insuffisantes pour appréhender la dynamique du nouveau paradigme dont les effets demeurent peu connus. Cette situation révèle l’urgence d’agir dans un contexte où l’utilisation des SGI se multiplie, et où leur tendance à minimiser l’importance des risques devient de plus en plus préoccupante. Aucune étude ne s’est encore penchée sur l’implantation d’un SGI en environnement et en santé et sécurité du travail construit uniquement à partir des normes ISO 14001 et d’OHSAS 18001. Cette connaissance est importante pour expliquer les effets de tels systèmes. C’est dans cette perspective que nous avons réalisé cette première étude empirique d’un SGI selon les normes ISO 14001 et d’OHSAS 18001. Nos questions de recherche portent sur le mode, le degré d’implantation, les effets du SGI, ainsi que sur les facteurs contextuels qui interviennent pour expliquer les variations dans le degré d’implantation et les effets du SGI. Il s’agit d’une recherche à prélèvement qualitatif qui repose sur un devis d’étude de cas, avec des niveaux d’analyse imbriqués, et comportant une double visée descriptive et explicative. Notre échantillon, de type raisonné, regroupait trente-cinq intervenants provenant de différentes instances hiérarchiques ; il incluait également des représentants syndicaux. Notre échantillon était composé de 7 usines, accréditées aux normes ISO 14001, OHSAS 18001, et dispersées dans différentes villes du Québec. Ces usines différaient tant par leur technologie, leur âge, leur taille, et leurs types de production. Nos données ont été recueillies en 2004; elles sont basées sur des entrevues semi dirigées, sur des observations directes lors de la visite des lieux; elles s’appuient aussi sur des consultations de documents internes et sur des outils électroniques implantés. La transcription des entrevues effectuée, le contenu des discours a été catégorisé selon les cinq dimensions du SGI: engagement, planification, mise en opération, contrôle et revue de la direction. Une condensation horizontale avait précédé l’analyse de chaque cas et l’analyse transversale des cas selon une approche à la fois inductive et déductive. Les résultats de notre recherche ont révélé deux modes d’implantation : le mode d’enrichissement et le mode de fusion. Ces modes dépendaient de la nature des structures fonctionnelles en place. La visée d’amélioration continue à la base du SGI n’avait pas réussi à concilier les approches traditionnelles bottom up et top down qui ont dominé cette implantation; son mécanisme était guidé par 4 types de stratégies : l’économie des ressources, le contrôle des forces d’influences, la stratégie des fruits faciles à cueillir et la stratégie à petits pas. Pour analyser le degré d’implantation, nous avons tenu compte de l’effort de structuration du SGI et de la force d’utilisation des processus implantés à chacune des cinq dimensions du SGI. Les résultats de notre recherche révèlent une variabilité certaine du degré d’implantation entre les usines d’une part, et entre les processus associés aux cinq dimensions du SGI d’autre part. L’analyse des discours a permis de produire cinq hypothèses qui soutiennent l’effort de structuration et la force d’utilisation du SGI: (i) l’hypothèse de la force de cohésion, (ii) l’hypothèse de la spécificité du processus, (iii) l’hypothèse de la portée du processus, (iv) l’hypothèse de la capacité organisationnelle, (v) l’hypothèse de l’acceptation du changement. L’implantation du SGI était soumise à l’influence de multiples facteurs; ils étaient de nature politique, structurelle et organisationnelle. Ces facteurs avaient agi sur le processus d’implantation en amorçant une cascade d’interactions au cours desquelles leurs forces d’influences se renforçaient, se neutralisaient ou s’additionnaient pour affecter le degré d’implantation. Les facteurs facilitant touchaient surtout l’effort de structuration ; ils incluaient : l’expérience des systèmes de gestion, l’implication de la direction, celle du syndicat ou du CSS, la structure organisationnelle, le niveau d’éducation, l’âge et la taille de l’usine. Quant aux facteurs contraignants, ils agissaient sur la force d’utilisation ; ils incluaient : la lourdeur procédurale, le manque de temps, le manque de formation, le manque de ressources, la culture organisationnelle, la structure organisationnelle, le fossé intergénérationnel, l’absence du syndicat et l’âge de l’usine. Trois effets proximaux escomptés par l’entreprise ont été observés. (i) La rigueur de la gestion était associée à l’application des exigences du SGI; elle touchait la gouvernance en environnement et en santé et sécurité du travail, les mécanismes de gestion et les procédés de production. (ii) La standardisation était reliée au mode d’implantation du SGI; elle concernait les pratiques, les outils, les méthodes de travail et l’organisation des ressources. (iii) La rupture des silos est un effet relié au mode d’implantation du SGI; elle touchait les structures départementales, les frontières professionnelles, les relations et climat de travail. Ces effets proximaux avaient provoqué plusieurs effets émergents, plus distaux: une augmentation du pouvoir de contrôle syndical, un renforcement de la légitimité des recommandations soumises par les spécialistes professionnels, la création de réseaux inter organisationnels et le transfert du savoir. L’implantation du SGI avait transformé la gouvernance et les pratiques en environnement et en santé et sécurité du travail dans les sept usines. Toutefois, elle ne semblait pas garantir l’immunité du processus de gestion des risques à l’environnement ni à la santé et sécurité du travail. Sa capacité à diluer les risques devait retenir l’attention des politiques de santé publiques et des programmes de prévention des risques à l’environnement et à la santé et sécurité du travail. L’amélioration de la gestion des risques demeurait un effet attendu non observé et soumis à des facteurs contextuels qui pourraient l’empêcher de se concrétiser. À cet égard, le transfert du savoir, renforcé par l’émergence des réseaux inter organisationnels, semblait offrir une avenue beaucoup plus prometteuse et accessible. C’est l’une des contributions de cette recherche. Elle a aussi (i) proposé une typologie des modes d’implantation et des effets du SGI (ii) préconisé une méthode détaillée d’une meilleure appréciation du degré d’implantation (iii) précisé le rôle des facteurs contextuels dans l’explication des variations du degré d’implantation et dans la production des effets, (iv) proposé des hypothèses sur la structuration et l’utilisation du SGI (v) offert une perspective plurielle et approfondie de la dynamique de l’implantation du SGI grâce à la variété de l’échantillon des répondants et des usines. Il s’agit de la première étude de terrain dans le domaine. À notre connaissance, aucune autre étude n’a eu de tels résultats. Mots Clés : ISO 14001, OHSAS 18001, gestion intégrée, environnement, santé et sécurité du travail, risques environnementaux, risques en santé et sécurité du travail, analyse d’implantation, degré d’implantation, SGI, transfert du savoir.
Resumo:
Afin de saisir le contexte du phénomène de l’expatriation d’Occidentaux en Inde, nous relevons d’abord certains traits de la modernité occidentale, tels le sentiment d’aliénation, le tournant subjectiviste, la globalisation et les principaux mythes-modèles de l’Inde qui circulent dans les pays occidentaux et donnent naissance aux projets d’expatriation. Une approche expérientielle facilite la compréhension de l’expatriation telle qu’elle est vécue par les acteurs. La collecte de données ethnographiques permet de saisir ces expériences à partir de récits recueillis dans trois zones frontière : 1) à Rishikesh, auprès d’expatriés spirituels; 2) à Calcutta, auprès d’expatriés humanitaires; 3) à Goa, auprès d’expatriés hédonistes-expressifs cherchant à améliorer leur style de vie. Ces données ethnographiques sont présentées dans trois chapitres distincts. Un chapitre comparatif met ensuite en relief quelques points de convergence dans l’expérience des expatriés, soit l’insertion locale au sein de communautés spécifiques, fortement associées à des mythes-modèles de l’Inde; le renouveau identitaire découlant de l’expérience interculturelle; et finalement, l’impact du transnationalisme sur la consolidation du malaise face à la modernité. La discussion théorique présente les solutions mises en branle par les expatriés pour tempérer leur malaise par rapport à l’Occident, soit : 1) l’engagement en profondeur dans un mode de vie permettant de se réaliser selon ses propres aspirations; 2) le regroupement par affinités et l’adoption d’un rôle social clair; 3) l’affranchissement de la pression sociale et l’adoption de pratiques transnationales permettant de préserver une continuité affective avec les proches tout en endossant un statut d’étranger. L’étude révèle aussi qu’on ne peut faire abstraction de l’histoire des relations de l’Occident avec le sous-continent pour comprendre les relations interculturelles des expatriés occidentaux avec les Indiens locaux. Enfin, les privilèges socioéconomiques des Occidentaux en Inde sont clairement identifiés comme étant une condition essentielle de leurs projets d’expatriation, ceux-ci étant néanmoins motivés principalement par un sentiment d’épuisement culturel face à l’Occident et à son mode de vie. Faisant suite à l’analyse des points de vue critiques sur la modernité (renforcés par l’expérience d’altérité), la thèse s’achève sur l’évocation de quelques pistes de recherche pour une anthropologie de l’Occident, tout en interrogeant, implicitement, le projet anthropologique.
Resumo:
Ce mémoire a pour tâche de déterminer le statut ontologique de la puissance chez Aristote. Pour ce faire, il est d’abord question, dans le premier chapitre, de bien définir les deux sens de la puissance, soit la puissance motrice et l’état potentiel. Nous expliquons aussi alors les multiples sens de la puissance motrice et les multiples types de la puissance que sont la nature, l’âme et l’art. Ensuite, le second chapitre étudie les liens entre l’état potentiel et la matière, d’une part, et les liens entre le non-être, la puissance et la possibilité, d’autre part. Enfin, le troisième chapitre explicite la hiérarchie ontologique aristotélicienne pour en dégager le statut ontologique de la puissance par rapport à l’acte. Cela est fait de trois manières : selon l’antériorité de l’acte sur la puissance au sein d’une substance unique ; selon l’antériorité des êtres éternels, notamment celle du premier moteur, sur les êtres générables et corruptibles ; l’antériorité du bien en acte sur le bien puissance.
Resumo:
Ce mémoire vise à recenser les avantages et les inconvénients de l'utilisation du langage de programmation fonctionnel dynamique Scheme pour le développement de jeux vidéo. Pour ce faire, la méthode utilisée est d'abord basée sur une approche plus théorique. En effet, une étude des besoins au niveau de la programmation exprimés par ce type de développement, ainsi qu'une description détaillant les fonctionnalités du langage Scheme pertinentes au développement de jeux vidéo sont données afin de bien mettre en contexte le sujet. Par la suite, une approche pratique est utilisée en effectuant le développement de deux jeux vidéo de complexités croissantes: Space Invaders et Lode Runner. Le développement de ces jeux vidéo a mené à l'extension du langage Scheme par plusieurs langages spécifiques au domaine et bibliothèques, dont notamment un système de programmation orienté objets et un système de coroutines. L'expérience acquise par le développement de ces jeux est finalement comparée à celle d'autres développeurs de jeux vidéo de l'industrie qui ont utilisé Scheme pour la création de titres commerciaux. En résumé, l'utilisation de ce langage a permis d'atteindre un haut niveau d'abstraction favorisant la modularité des jeux développés sans affecter les performances de ces derniers.
Resumo:
L'utilisation de l'expérience comme un mode de détermination des faits, c'est-à-dire comme un élément qui comble les lacunes dans l'ensemble des éléments de preuve dans le procès civil, est un thème quelque peu tabou. La doctrine est souvent basée sur la prémisse voulant que le décideur rende une décision uniquement en vertu des éléments de preuve et qu'il doit absolument s'abstenir d'insérer aux constatations quoi que ce soit qui n'est pas présent dans les éléments de preuve. Cette vision est éloignée de la réalité juridique. Dans la première partie, nous allons aborder les principes procéduraux qui empêchent l'utilisation de l'expérience comme mode de détermination des faits. Ce sont le principe de la reconstruction de l'événement du passé, le principe de l'abstraction des connaissances acquises hors du procès et le principe de l'exclusion de la preuve par ouï-dire. Ensuite, nous portons notre attention sur les différents types d'expérience, c'est-à-dire l'expérience profane, divisible en bon sens et sens commun, et l'expérience scientifique, ainsi sur leurs modes de fonctionnement dans le procès civil. La première partie se termine par une brève confrontation des différents types d'expérience avec les principes procéduraux. La deuxième partie est consacré à l'analyse de l'expérience dans trois instruments juridiques: la connaissance d'office, la présomption de fait et le témoignage d'expert. Nous nous intéressons principalement à vérifier si l'expérience fonctionne à l'intérieur de ces instruments juridiques comme mode de détermination des faits et ensuite quelles sont les limites que le droit pose à l'expérience dans ce rôle. L'analyse va confirmer que le principal instrument par lequel l'expérience comme mode de détermination des faits pénètre dans le procès civil est la présomption de fait.
Resumo:
Réalisées aux échelles internationales et nationales, les études de vulnérabilité aux changements et à la variabilité climatiques sont peu pertinentes dans un processus de prise de décisions à des échelles géographiques plus petites qui représentent les lieux d’implantation des stratégies de réponses envisagées. Les études de vulnérabilité aux changements et à la variabilité climatiques à des échelles géographiques relativement petites dans le secteur agricole sont généralement rares, voire inexistantes au Canada, notamment au Québec. Dans le souci de combler ce vide et de favoriser un processus décisionnel plus éclairé à l’échelle de la ferme, cette étude cherchait principalement à dresser un portrait de l’évolution de la vulnérabilité des fermes productrices de maïs-grain des régions de Montérégie-Ouest et du Lac-St-Jean-Est aux changements et à la variabilité climatiques dans un contexte de multiples sources de pression. Une méthodologie générale constituée d'une évaluation de la vulnérabilité globale à partir d’une combinaison de profils de vulnérabilité aux conditions climatiques et socio-économiques a été adoptée. Pour la période de référence (1985-2005), les profils de vulnérabilité ont été dressés à l’aide d’analyses des coefficients de variation des séries temporelles de rendements et de superficies en maïs-grain. Au moyen de méthodes ethnographiques associées à une technique d’analyse multicritère, le Processus d’analyse hiérarchique (PAH), des scénarios d’indicateurs de capacité adaptative du secteur agricole susmentionné ont été développés pour la période de référence. Ceux-ci ont ensuite servi de point de départ dans l’élaboration des indicateurs de capacité de réponses des producteurs agricoles pour la période future 2010-2039. Pour celle-ci, les deux profils de vulnérabilité sont issus d’une simplification du cadre théorique de « Intergovernmental Panel on Climate Change » (IPCC) relatif aux principales composantes du concept de vulnérabilité. Pour la dimension « sensibilité » du secteur des fermes productrices de maïs-grain des deux régions agricoles aux conditions climatiques, une série de données de rendements a été simulée pour la période future. Ces simulations ont été réalisées à l’aide d’un couplage de cinq scénarios climatiques et du modèle de culture CERES-Maize de « Decision Support System for Agrotechnology Transfer » (DSSAT), version 4.0.2.0. En ce qui concerne l’évaluation de la « capacité adaptative » au cours de la période future, la construction des scénarios d’indicateurs de cette composante a été effectuée selon l’influence potentielle des grandes orientations économiques et environnementales considérées dans l’élaboration des lignes directrices des deux familles d’émissions de gaz à effet de serre (GES) A2 et A1B. L’application de la démarche méthodologique préalablement mentionnée a conduit aux principaux résultats suivants. Au cours de la période de référence, la région agricole du Lac-St-Jean-Est semblait être plus vulnérable aux conditions climatiques que celle de Montérégie-Ouest. En effet, le coefficient de variation des rendements du maïs-grain pour la région du Lac-St-Jean-Est était évalué à 0,35; tandis que celui pour la région de Montérégie-Ouest n’était que de 0,23. Toutefois, par rapport aux conditions socio-économiques, la région de Montérégie-Ouest affichait une vulnérabilité plus élevée que celle du Lac-St-Jean-Est. Les valeurs des coefficients de variation pour les superficies en maïs-grain au cours de la période de référence pour la Montérégie-Ouest et le Lac-St-Jean-Est étaient de 0,66 et 0,48, respectivement. Au cours de la période future 2010-2039, la région du Lac-St-Jean-Est serait, dans l’ensemble, toujours plus vulnérable aux conditions climatiques que celle de Montérégie-Ouest. Les valeurs moyennes des coefficients de variation pour les rendements agricoles anticipés fluctuent entre 0,21 et 0,25 pour la région de Montérégie-Ouest et entre 0,31 et 0,50 pour la région du Lac-St-Jean-Est. Néanmoins, en matière de vulnérabilité future aux conditions socio-économiques, la position relative des deux régions serait fonction du scénario de capacité adaptative considéré. Avec les orientations économiques et environnementales considérées dans l’élaboration des lignes directrices de la famille d’émission de GES A2, les indicateurs de capacité adaptative du secteur à l’étude seraient respectivement de 0,13 et 0,08 pour la Montérégie-Ouest et le Lac-St-Jean-Est. D’autre part, en considérant les lignes directrices de la famille d’émission de GES A1B, la région agricole du Lac-St-Jean-Est aurait une capacité adaptative légèrement supérieure (0,07) à celle de la Montérégie-Ouest (0,06). De façon générale, au cours de la période future, la région du Lac-St-Jean-Est devrait posséder une vulnérabilité globale plus élevée que la région de Montérégie-Ouest. Cette situation s’expliquerait principalement par une plus grande vulnérabilité de la région du Lac-St-Jean-Est aux conditions climatiques. Les résultats de cette étude doivent être appréciés dans le contexte des postulats considérés, de la méthodologie suivie et des spécificités des deux régions agricoles examinées. Essentiellement, avec l’adoption d’une démarche méthodologique simple, cette étude a révélé les caractéristiques « dynamique et relative » du concept de vulnérabilité, l’importance de l’échelle géographique et de la prise en compte d’autres sources de pression et surtout de la considération d’une approche contraire à celle du « agriculteur réfractaire aux changements » dans les travaux d’évaluation de ce concept dans le secteur agricole. Finalement, elle a aussi présenté plusieurs pistes de recherche susceptibles de contribuer à une meilleure évaluation de la vulnérabilité des agriculteurs aux changements climatiques dans un contexte de multiples sources de pression.
Resumo:
Les systèmes Matériels/Logiciels deviennent indispensables dans tous les aspects de la vie quotidienne. La présence croissante de ces systèmes dans les différents produits et services incite à trouver des méthodes pour les développer efficacement. Mais une conception efficace de ces systèmes est limitée par plusieurs facteurs, certains d'entre eux sont: la complexité croissante des applications, une augmentation de la densité d'intégration, la nature hétérogène des produits et services, la diminution de temps d’accès au marché. Une modélisation transactionnelle (TLM) est considérée comme un paradigme prometteur permettant de gérer la complexité de conception et fournissant des moyens d’exploration et de validation d'alternatives de conception à des niveaux d’abstraction élevés. Cette recherche propose une méthodologie d’expression de temps dans TLM basée sur une analyse de contraintes temporelles. Nous proposons d'utiliser une combinaison de deux paradigmes de développement pour accélérer la conception: le TLM d'une part et une méthodologie d’expression de temps entre différentes transactions d’autre part. Cette synergie nous permet de combiner dans un seul environnement des méthodes de simulation performantes et des méthodes analytiques formelles. Nous avons proposé un nouvel algorithme de vérification temporelle basé sur la procédure de linéarisation des contraintes de type min/max et une technique d'optimisation afin d'améliorer l'efficacité de l'algorithme. Nous avons complété la description mathématique de tous les types de contraintes présentées dans la littérature. Nous avons développé des méthodes d'exploration et raffinement de système de communication qui nous a permis d'utiliser les algorithmes de vérification temporelle à différents niveaux TLM. Comme il existe plusieurs définitions du TLM, dans le cadre de notre recherche, nous avons défini une méthodologie de spécification et simulation pour des systèmes Matériel/Logiciel basée sur le paradigme de TLM. Dans cette méthodologie plusieurs concepts de modélisation peuvent être considérés séparément. Basée sur l'utilisation des technologies modernes de génie logiciel telles que XML, XSLT, XSD, la programmation orientée objet et plusieurs autres fournies par l’environnement .Net, la méthodologie proposée présente une approche qui rend possible une réutilisation des modèles intermédiaires afin de faire face à la contrainte de temps d’accès au marché. Elle fournit une approche générale dans la modélisation du système qui sépare les différents aspects de conception tels que des modèles de calculs utilisés pour décrire le système à des niveaux d’abstraction multiples. En conséquence, dans le modèle du système nous pouvons clairement identifier la fonctionnalité du système sans les détails reliés aux plateformes de développement et ceci mènera à améliorer la "portabilité" du modèle d'application.
Resumo:
Dans ce mémoire sont décrites deux méthodologies impliquant la synthèse de biaryles via l’arylation directe d’espèces aromatiques non activées, catalysée par différents éléments de transition. La première partie présente les résultats obtenus dans le cadre du développement d’une méthode simple d’arylation directe du benzène catalysée au palladium. Cette méthodologie a l’avantage de procéder sans l’ajout de ligand phosphine généralement utilisé dans les systèmes catalytiques avec le palladium et par conséquent cette réaction peut évoluer à l’air libre sans nul besoin d’une atmosphère inerte. Il est proposé que le mécanisme de formation de ces motifs biarylés pourrait passer par la mise en place d’un palladium d’espèce cationique. Ces composés pourraient éventuellement s’avérer intéressants dans la synthèse de produits pharmaceutiques comportant un motif biphényle de ce type. La deuxième partie est consacrée à une méthodologie très attrayante utilisée pour la synthèse des biphényles impliquant le fer comme catalyseur. Plusieurs catalyseurs à base de rhodium, palladium et ruthénium ont démontré leur grande efficacité dans les processus de couplage direct (insertion C-H). Cette méthodologie consiste en la première méthode efficace d’utilisation d’un catalyseur de fer dans les couplages directs sp2-sp2 avec les iodures d’aryles et iodures d’hétéroaryles. Les avantages du fer, impliquent sans contredit, des coûts moindres et des impacts environnementaux bénins. Les conditions réactionnelles sont douces, la réaction peut tolérer la présence de plusieurs groupements fonctionnels et cette dernière peut même se produire à température ambiante. La transformation s’effectue généralement avec de très bons rendements et des études mécanistiques ont démontré que le processus réactionnel était radicalaire.
Resumo:
La douleur est une expérience perceptive comportant de nombreuses dimensions. Ces dimensions de douleur sont inter-reliées et recrutent des réseaux neuronaux qui traitent les informations correspondantes. L’élucidation de l'architecture fonctionnelle qui supporte les différents aspects perceptifs de l'expérience est donc une étape fondamentale pour notre compréhension du rôle fonctionnel des différentes régions de la matrice cérébrale de la douleur dans les circuits corticaux qui sous tendent l'expérience subjective de la douleur. Parmi les diverses régions du cerveau impliquées dans le traitement de l'information nociceptive, le cortex somatosensoriel primaire et secondaire (S1 et S2) sont les principales régions généralement associées au traitement de l'aspect sensori-discriminatif de la douleur. Toutefois, l'organisation fonctionnelle dans ces régions somato-sensorielles n’est pas complètement claire et relativement peu d'études ont examiné directement l'intégration de l'information entre les régions somatiques sensorielles. Ainsi, plusieurs questions demeurent concernant la relation hiérarchique entre S1 et S2, ainsi que le rôle fonctionnel des connexions inter-hémisphériques des régions somatiques sensorielles homologues. De même, le traitement en série ou en parallèle au sein du système somatosensoriel constitue un autre élément de questionnement qui nécessite un examen plus approfondi. Le but de la présente étude était de tester un certain nombre d'hypothèses sur la causalité dans les interactions fonctionnelle entre S1 et S2, alors que les sujets recevaient des chocs électriques douloureux. Nous avons mis en place une méthode de modélisation de la connectivité, qui utilise une description de causalité de la dynamique du système, afin d'étudier les interactions entre les sites d'activation définie par un ensemble de données provenant d'une étude d'imagerie fonctionnelle. Notre paradigme est constitué de 3 session expérimentales en utilisant des chocs électriques à trois différents niveaux d’intensité, soit modérément douloureux (niveau 3), soit légèrement douloureux (niveau 2), soit complètement non douloureux (niveau 1). Par conséquent, notre paradigme nous a permis d'étudier comment l'intensité du stimulus est codé dans notre réseau d'intérêt, et comment la connectivité des différentes régions est modulée dans les conditions de stimulation différentes. Nos résultats sont en faveur du mode sériel de traitement de l’information somatosensorielle nociceptive avec un apport prédominant de la voie thalamocorticale vers S1 controlatérale au site de stimulation. Nos résultats impliquent que l'information se propage de S1 controlatéral à travers notre réseau d'intérêt composé des cortex S1 bilatéraux et S2. Notre analyse indique que la connexion S1→S2 est renforcée par la douleur, ce qui suggère que S2 est plus élevé dans la hiérarchie du traitement de la douleur que S1, conformément aux conclusions précédentes neurophysiologiques et de magnétoencéphalographie. Enfin, notre analyse fournit des preuves de l'entrée de l'information somatosensorielle dans l'hémisphère controlatéral au côté de stimulation, avec des connexions inter-hémisphériques responsable du transfert de l'information à l'hémisphère ipsilatéral.
Resumo:
L’étude conceptualise la symbolique du Sud en tant qu’espace identitaire construit par une idéologie politique et une esthétique. Les cartes géographiques inversées (1936, 1943) de Joaquín Torres García (Uruguay) sont une prise de position politique qui affirme le pouvoir d’énonciation des artistes latino-américains de façon indépendante aux centres culturels européens. Sa théorie, l’« Universalisme Constructif », propose un nouvel art pour l’Amérique latine, combinant l’éthique artistique précolombienne et l’abstraction moderniste. Dans la nouvelle « Le Sud » (1953) et l’essai « L’écrivain argentin et la tradition » (1951), Jorge Luis Borges (Argentine) redéfinit la littérature latino américaine, marginalisée et périphérique, en tant que littérature qui a droit à toute la culture occidentale. Il rejette une culture qui ne serait que nationaliste. Le diptyque de Fernando Solanas (Argentine) formé des films Sud (1985) et Tangos, l’exil de Gardel (1988) est étudié à partir de son manifeste « Vers un Tiers- Cinéma » (1969), coécrit avec Octavio Getino. Dans le diptyque, le Sud est un espace de dénonciation des censures de la dictature et de l’impérialisme, mais aussi un espace de rénovation culturelle et identitaire. Dans son cinéma, Solanas utilise un produit culturel régional, le tango, comme outil de dénonciation politique. Tout au long de l’étude, on utilise des notions de Michel Foucault, (hétérotopie) et de Walter Mignolo (le centre amovible) pour approfondir le sens de l’espace Sud.