31 resultados para Brasil. [Lei 12.305, de 02 de agosto de 2010]
em Université de Montréal, Canada
Resumo:
Comme son titre l'indique, ce mémoire traite de la légitimité du recours à l'action déclaratoire en droit international privé québécois. L'action déclaratoire, qu'elle soit introduite par déclaration ou par requête, a pour but de faire prononcer un tribunal sur l'existence ou l'inexistence de droits et obligations des parties. Bien que très ancienne, l'action déclaratoire n'était que peu utilisée au Québec jusqu'à l'avènement en 1966 de la requête en jugement déclaratoire dans notre Code de procédure civile. Aujourd'hui, cette action est largement utilisée en droit public dans le cadre du pouvoir de surveillance et de contrôle de la Cour supérieure, mais aussi dans le contexte du droit international privé comme une stratégie de défense, ou parfois d'attaque, dans le cadre d'un litige international. Fondamentalement, la finalité de cette action est d'offrir un mécanisme de protection judiciaire des droits d'un individu lorsque les autres recours ne sont pas disponibles ou accessibles, et de permettre un recours efficace hors du cadre traditionnel de la procédure ordinaire. Dès lors, il semble contestable d'utiliser en droit international privé l'action en jugement déclaratoire pour bloquer les procédures ordinaires autrement applicables. L'objet de cette étude est ainsi de démontrer que bien que le recours à l'action déclaratoire soit légitime en droit international privé, son utilisation actuelle à des fins stratégiques en présence, ou en prévision, d'une action ordinaire intentée dans une autre juridiction, paraît difficilement justifiable. Ainsi, la première partie de ce mémoire est consacrée à l'étude de la légitimité de l'action déclaratoire en droit international privé québécois, et la seconde partie s'intéresse aux effets d'une requête en jugement déclaratoire étrangère sur la procédure internationale au Québec.
Resumo:
Dans les situations du quotidien, nous manipulons fréquemment des objets sans les regarder. Pour effectuer des mouvements vers une cible précise avec un objet à la main, il est nécessaire de percevoir les propriétés spatiales de l’objet. Plusieurs études ont démontré que les sujets peuvent discriminer entre des longueurs d'objet différentes sans l’aide des informations visuelles et peuvent adapter leurs mouvements aux nouvelles caractéristiques inertielles produites lors de la manipulation d’un objet. Dans cette étude, nous avons conduit deux expérimentations afin d’évaluer la capacité des sujets à adapter leurs mouvements d’atteinte à la longueur et à la forme perçues des objets manipulés sur la base unique des sensations non visuelles (sensations haptiques). Dans l'expérience 1, dix sujets devaient exécuter des mouvements d’atteintes vers 4 cibles tridimensionnelles (3D) avec un objet à la main. Trois objets de longueur différente ont été utilisés (pointeurs: 12.5, 17.5, 22.5 cm). Aucune connaissance de la position de la main et de l’objet par rapport à la cible n’était disponible pendant et après les mouvements vers les cibles 3D. Ainsi, lorsque comparé avec les erreurs spatiales commises lors des atteintes manuelles sans pointeur, l’erreur spatiale de chacun des mouvements avec pointeur reflète la précision de l’estimation de la longueur des pointeurs. Nos résultats indiquent que les sujets ont augmenté leurs erreurs spatiales lors des mouvements d’atteinte avec un objet en comparaison avec la condition sans pointeur. Cependant, de façon intéressante, ils ont maintenu le même niveau de précision à travers les trois conditions avec des objets de différentes longueurs malgré une différence de 10 cm entre l’objet le plus court et le plus long. Dans l'expérience 2, neuf sujets différents ont effectué des mouvements d’atteinte vers les mêmes cibles utilisant cette fois-ci deux objets en forme de L (objet no.1 : longueur de 17,5 cm et déviation à droite de 12,5 cm – objet no.2 : longueur de 17,5 cm et déviation à droite de 17,5 cm). Comme c’était le cas lors de l'expérience 1, les sujets ont augmenté leurs erreurs spatiales lors des mouvements d’atteinte avec les objets et cette augmentation était similaire entre les deux conditions avec les objets en forme de L. Une observation frappante de l’expérience 2 est que les erreurs de direction n’ont pas augmenté de façon significative entre les conditions avec objet en forme de L et la condition contrôle sans objet. Ceci démontre que les participants ont perçu de façon précise la déviation latérale des objets sans jamais avoir eu de connaissances visuelles de la configuration des objets. Les résultats suggèrent que l’adaptation à la longueur et à la forme des objets des mouvements d’atteinte est principalement basée sur l’intégration des sensations haptiques. À notre connaissance, cette étude est la première à fournir des données quantitatives sur la précision avec laquelle le système haptique peut permettre la perception de la longueur et de la forme d’un objet tenu dans la main afin d’effectuer un mouvement précis en direction d’une cible.
Resumo:
Le souffle équin est une maladie inflammatoire chronique des petites voies respiratoires, très fréquente chez les chevaux gardés à l’intérieur avec de la paille et du foin moisi et poussiéreux. Les signes cliniques peuvent être prévenus par le contrôle de l’environnement et soulagés par l’administration de corticostéroïdes systémiques et inhalés. L’objectif de cette étude était de déceler les effets secondaires présents sur des chevaux atteints de souffle traités à la fluticasone (Flovent 250 μg HFA®, 2000 μg BID, pendant six mois, et puis 2000 μg SID, pendant six autres mois) par le cortisol sérique et la présence d’ulcères gastriques. Cinq chevaux exempts de maladie respiratoire et onze chevaux atteints du souffle ont été gardés à l’intérieur d’une écurie avec du foin moisi et de la paille dans le but de provoquer la maladie chez le groupe atteints du souffle. Une fois les chevaux atteints de souffle devenus symptomatique, ils ont été divisés en deux groupes : un premier groupe traité avec de la fluticasone, nourri avec du foin et gardé sur une litière de paille, et un deuxième groupe non traité nourrie avec de la moulée et gardé sur une litière de ripe, pendant six mois. Par la suite, les deux groupes ont été mis au pâturage. Le cortisol a été mesuré par Immunoessai enzymatique par chimiluminescence (CEIA, Immunolite 1000, Siemmens®) les 12e et 10e jours avant et les 7e, 28e, 80e, 160e, 200e, 250e, 290e et 320e jours après le début du traitement afin de déterminer le degré de suppression du cortisol sérique. On a également fait une suivi de la présence d`ulcères gastriques à l`aide de vidéo endoscopique. La fluticasone inhalée deux fois par jour cause une diminution du cortisol sérique les 28e, 80e et 160e jours, mais elle n’entraîne pas d’effets sur le score des ulcères gastriques. Les pellets de luzerne causent quant à elles, une augmentation du score des ulcères gastrique chez les animaux exempts de maladie respiratoire.
Resumo:
Dans ce mémoire, il sera question de la formation de dérivés pipéridines en utilisant la fragmentation de Grob. Tout d’abord, une introduction sur les alcaloïdes ainsi que sur l’expertise du groupe Charette associée à leur formation démontrera l’importance de ces composés dans le domaine de la chimie organique. Cela sera suivi par un résumé de la fragmentation de Grob incluant les conditions de réactions utilisées, l’importance de la structure de la molécule initiale, les prérequis stéréoélectroniques ainsi que les modifications qui y ont été apportées. Le chapitre 2 sera dédié au développement de la méthodologie c’est-à-dire, à l’optimisation de tous les paramètres jouant un rôle dans la fragmentation de Grob. Par la suite, l’étendue de la réaction ainsi que des explications sur la régiosélectivité et la diastéréosélectivité de la réaction seront fournies. La méthodologie peut être exploitée dans un contexte de synthèse qui sera démontré dans le chapitre 3. De plus, elle servira pour une étude mécanistique qui est encore d’actualité à partir du concept d’effet frangomérique. Finalement, quelques projets futurs, notamment des améliorations possibles de la méthodologie, seront présentés dans le dernier chapitre. Le tout sera suivi d’une conclusion résumant l’ensemble des travaux effectués.
Resumo:
Problématique : Plusieurs expositions résidentielles ont été associées à la prévalence de l’asthme. Toutefois, peu d’études populationnelles ont examiné la relation entre ces facteurs et un asthme mal maîtrisé chez l’enfant. Objectif : Évaluer les facteurs environnementaux résidentiels associés à un asthme mal maîtrisé chez les enfants montréalais âgés de 6 mois à 12 ans. Méthodes : Les données sont tirées d’une enquête transversale menée en 2006 sur la santé respiratoire d’enfants montréalais âgés de 6 mois à 12 ans (n=7980). La maîtrise de l’asthme a été évaluée chez les enfants avec un asthme actif au cours de l’année précédent l’enquête (n=980) selon des critères recommandés par les lignes directrices canadiennes sur l’asthme. Les rapports de prévalence (RP) et les intervalles de confiance (IC) à 95 % caractérisant l’association entre les facteurs environnementaux, incluant la présence d’allergènes, d’irritants, d’humidité et de moisissures, et le risque d’un asthme mal maîtrisé ont été estimés à l’aide de modèles de régression log-binomiale. Les sujets avec une maîtrise acceptable de l’asthme ont été comparés à ceux dont la maladie était mal maîtrisée. Résultats : Des 980 enfants avec un asthme actif au cours de l’année précédant l’enquête, 36 % ont rencontré au moins un des critères des lignes directrices canadiennes suggérant un asthme mal maîtrisé. Les caractéristiques de la population associées à un asthme mal maîtrisé sont : un plus jeune âge, des antécédents d’atopie parentale, une faible scolarisation de la mère, une mère d’origine étrangère et le statut de locataire. Après ajustement pour l’âge de l’enfant, l’atopie parentale et l’exposition à la fumée de tabac au domicile, une intensité de trafic élevée à proximité du domicile (RP, 1,35; IC 95 %, 1,00-1,81) et la localisation au sous-sol de la chambre de l’enfant ou de sa résidence (RP 1,30; IC 95 %, 1,01-1,66) étaient associées à un risque accru d’asthme mal maîtrisé. Conclusions : Une maîtrise sous-optimale de l’asthme semble être associée à l’exposition au trafic routier et à des conditions d’humidité excessive et probablement de moisissures. Cette dernière exposition étant plus fréquente, elle a probablement un plus grand impact en matière de santé publique.
Resumo:
Dans cette étude, la bile d’un porc canadien naturellement infecté par une souche du virus de l’hépatite E (VHE) a été utilisée afin d’inoculer deux groupes de porcelets. Dans l’étude précoce (E), 4 porcelets âgés de 4 semaines et exempts de pathogènes spécifiques (SPF), ont été suivis jusqu’à 14 jours post-inoculation (pi). Dans l’étude tardive (L), 9 porcelets ont été suivis à chaque semaine jusqu’à l’abattage, soit 120 jours pi. À la nécropsie, la présence du VHE a été évaluée dans différents organes à 7, 14 et 120 jours pi. Des porcelets témoins (E=2 et L=3) ont été inoculés par de la bile exempte de VHE. Le virus a persisté chez certains animaux jusqu’à 84 à 105 jours pi dans le sérum malgré la présence d’anticorps IgG anti-VHE dans le sang, suggérant une virémie prolongée. L’excrétion virale dans les fèces s’est étalée également sur une période de 105 jours pi chez certains animaux. De plus, la détection de l’ARN viral dans les organes évalués s’est révélée presque nulle à l’âge d’abattage à l’exception de quelques vésicules biliaires, alors qu’on retrouvait l’ARN viral dans plusieurs organes à 7 et 14 jours pi. Pour évaluer la distribution du VHE chez les porcs commerciaux du Québec, un échantillonnage de porcs de trois abattoirs a été réalisé. Environ 100 échantillons de sang, fèces, foies et bile provenant des mêmes animaux en processus d’abattage ont été prélevés dans chacun des abattoirs, sur des porcs destinés à la consommation humaine. La détection de l’ARN viral et des anticorps du VHE a été réalisée à l’aide d’une RT-PCR nichée et d’un test ELISA adapté pour déceler les anticorps porcins anti-VHE. Chez les porcs d’abattoir, 12,9 % des échantillons de bile contenaient de l’ARN viral du VHE, alors que la détection virale était moindre dans les autres organes. Une séroprévalence en IgG de 26,0 % a été obtenue pour les sérums porcins analysés. Une analyse phylogénétique des différentes souches isolées pendant l’étude a démontré qu’elles sont du génotype 3. Ces données indiquent une exposition potentielle des travailleurs de l’industrie porcine au VHE porcin, notamment par les fèces, le sang et les organes et également pour les consommateurs par le biais des foies.
Resumo:
Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée.
Resumo:
Ce mémoire porte sur les carnets, publiés sous le titre La Semaison, du poète Philippe Jaccottet ; il s’attache à dégager les grandes lignes d’une pratique d’écriture qui évolue au fil du temps et à déterminer le statut de La Semaison par rapport au reste de l’œuvre. Les quatre premiers chapitres du mémoire établissent les caractéristiques de l’écriture des carnets, en étudiant de près les textes ainsi que leur évolution au fil des années, et en comparant ces textes avec les œuvres publiées parallèlement. On remarque qu’au fil du temps, les œuvres ressemblent de plus en plus aux textes que l’on trouve dans La Semaison. Les deux derniers chapitres essaient d’apprécier, plus globalement, le travail qui y est à l’œuvre. Non seulement les carnets constituent le lieu le plus approprié pour mener une réflexion sur la poésie, mais encore ce sont eux qui assurent cohésion et validité à l’œuvre.
Resumo:
Les équipes virtuelles font l’objet de beaucoup d’attention depuis près de deux décennies. Elles font désormais partie des organisations qui ont dû s’ajuster à l’internationalisation des marchés. Elles sont aussi de plus en plus présentes dans les universités qui mettent en place des cours en environnement virtuel pour préparer leurs étudiants aux nouvelles réalités du marché du travail. Elles sont aussi le fruit des modes nées sous l’impulsion de l’approche constructiviste de la pédagogie. Les recherches qui s’intéressent a elles ont des préoccupations principalement téléologiques et utilitaristes qui donnent le point de vue des gestionnaires et des enseignants sur le phénomène. Peu de recherches se sont penchées sur l’expérience vécue par les membres de ces équipes. Par ailleurs, la volonté de dégager les lois générales des équipes virtuelles amène les chercheurs à l’amputer d’une partie de sa complexité. Notre recherche propose d’observer la manière dont des étudiants ont vécu leur expérience de collaboration en équipe virtuelle. Nous adoptons une posture interprétative et une approche narrative pour observer leur «sensemaking». Cette perspective nous permet de tenir compte de la complexité du phénomène. Nos questions de recherche sont : comment les étudiants font-ils sens de leur collaboration? Comment le «sensemaking» individuel contribue-t-il à construire le «sensemaking» collectif? Nos résultats nous renseignent sur l’importance que revêt le «sensegiving», pour les équipes virtuelles, dans la création de «sensemaking» collectif.
Resumo:
L’architecture au sens strict, qui renvoie à la construction, n’est pas indépendante des déterminations mentales, des images et des valeurs esthétiques, comme références, amenées par divers champs d’intérêt au problème du sens. Elle est, de par ce fait, un objet d’interprétation. Ce qu’on appelle communément « signification architecturale », est un univers vaste dans lequel sont constellées des constructions hypothétiques. En ce qui nous concerne, il s’agit non seulement de mouler la signification architecturale selon un cadre et des matières spécifiques de référence, mais aussi, de voir de près la relation de cette question avec l’attitude de perception de l’homme. Dans l’étude de la signification architecturale, on ne peut donc se détacher du problème de la perception. Au fond, notre travail montrera leur interaction, les moyens de sa mise en œuvre et ce qui est en jeu selon les pratiques théoriques qui la commandent. En posant la question de l’origine de l’acte de perception, qui n’est ni un simple acte de voir, ni un acte contemplatif, mais une forme d’interaction active avec la forme architecturale ou la forme d’art en général, on trouve dans les écrits de l’historien Christian Norberg-Schulz deux types de travaux, et donc deux types de réponses dont nous pouvons d’emblée souligner le caractère antinomique l’une par rapport à l’autre. C’est qu’il traite, dans le premier livre qu’il a écrit, Intentions in architecture (1962), connu dans sa version française sous le titre Système logique de l’architecture (1974, ci-après SLA), de l’expression architecturale et des modes de vie en société comme un continuum, défendant ainsi une approche culturelle de la question en jeu : la signification architecturale et ses temporalités. SLA désigne et représente un système théorique influencé, à bien des égards, par les travaux de l’épistémologie de Jean Piaget et par les contributions de la sémiotique au développement de l’étude de la signification architecturale. Le second type de réponse sur l’origine de l’acte de perception que formule Norberg-Schulz, basé sur sur les réflexions du philosophe Martin Heidegger, se rapporte à un terrain d’étude qui se situe à la dérive de la revendication du fondement social et culturel du langage architectural. Il lie, plus précisément, l’étude de la signification à l’étude de l’être. Reconnaissant ainsi la primauté, voire la prééminence, d’une recherche ontologique, qui consiste à soutenir les questionnements sur l’être en tant qu’être, il devrait amener avec régularité, à partir de son livre Existence, Space and Architecture (1971), des questions sur le fondement universel et historique de l’expression architecturale. Aux deux mouvements théoriques caractéristiques de ses écrits correspond le mouvement que prend la construction de notre thèse que nous séparons en deux parties. La première partie sera ainsi consacrée à l’étude de SLA avec l’objectif de déceler les ambiguïtés qui entourent le cadre de son élaboration et à montrer les types de legs que son auteur laisse à la théorie architecturale. Notre étude va montrer l’aspect controversé de ce livre, lié aux influences qu’exerce la pragmatique sur l’étude de la signification. Il s’agit dans cette première partie de présenter les modèles théoriques dont il débat et de les mettre en relation avec les différentes échelles qui y sont proposées pour l’étude du langage architectural, notamment avec l’échelle sociale. Celle-ci implique l’étude de la fonctionnalité de l’architecture et des moyens de recherche sur la typologie de la forme architecturale et sur sa schématisation. Notre approche critique de cet ouvrage prend le point de vue de la recherche historique chez Manfredo Tafuri. La seconde partie de notre thèse porte, elle, sur les fondements de l’intérêt chez Norberg-Schulz à partager avec Heidegger la question de l’Être qui contribuent à fonder une forme d’investigation existentielle sur la signification architecturale et du problème de la perception . L’éclairage de ces fondements exige, toutefois, de montrer l’enracinement de la question de l’Être dans l’essence de la pratique herméneutique chez Heidegger, mais aussi chez H. G. Gadamer, dont se réclame aussi directement Norberg-Schulz, et de dévoiler, par conséquent, la primauté établie de l’image comme champ permettant d’instaurer la question de l’Être au sein de la recherche architecturale. Sa recherche conséquente sur des valeurs esthétiques transculturelles a ainsi permis de réduire les échelles d’étude de la signification à l’unique échelle d’étude de l’Être. C’est en empruntant cette direction que Norberg-Schulz constitue, au fond, suivant Heidegger, une approche qui a pour tâche d’aborder l’« habiter » et le « bâtir » à titre de solutions au problème existentiel de l’Être. Notre étude révèle, cependant, une interaction entre la question de l’Être et la critique de la technique moderne par laquelle l’architecture est directement concernée, centrée sur son attrait le plus marquant : la reproductibilité des formes. Entre les écrits de Norberg-Schulz et les analyses spécifiques de Heidegger sur le problème de l’art, il existe un contexte de rupture avec le langage de la théorie qu’il s’agit pour nous de dégager et de ramener aux exigences du travail herméneutique, une approche que nous avons nous-même adoptée. Notre méthode est donc essentiellement qualitative. Elle s’inspire notamment des méthodes d’interprétation, de là aussi notre recours à un corpus constitué des travaux de Gilles Deleuze et de Jacques Derrida ainsi qu’à d’autres travaux associés à ce type d’analyse. Notre recherche demeure cependant attentive à des questions d’ordre épistémologique concernant la relation entre la discipline architecturale et les sciences qui se prêtent à l’étude du langage architectural. Notre thèse propose non seulement une compréhension approfondie des réflexions de Norberg-Schulz, mais aussi une démonstration de l’incompatibilité de la phénoménologie de Heidegger et des sciences du langage, notamment la sémiotique.
Resumo:
Ce projet doctoral cherche à élaborer une approche éthique d’accompagnement des jeunes adultes (20-35 ans) en milieu pastoral. Prenant son point de départ dans la méthode praxéologique, il déploie une observation de la pratique d’un certain type d’accompagnement pastoral, puis réfléchit sur des traits de la jeunesse actuelle, surtout québécoise. Bien que cherchant à affirmer leur autonomie, les jeunes qui consultent ponctuellement un prêtre cherchent souvent des réponses à leurs dilemmes moraux. La thèse s’inspire des théoéthiciens nord-américains, Stanley Hauerwas et Craig Dykstra pour dépasser la préoccupation du « quoi faire ». En effet, ces auteurs principaux de la thèse se centrent sur la personne, la réalisation de son soi et le type d’homme ou de femme qu’elle veut être. L’accent est donc mis sur l’être, la totalité de la personne, et non seulement sur le faire. Une surenchère de l’importance du « faire » et de l’« action » renvoie à la fois à notre société post-technologique, centrée sur la productivité de la personne et à une morale catholique prescriptive. Néanmoins, l’éthique du caractère propose un chemin de conversion de la question de savoir « quoi faire » dans celle de savoir « comment vivre ». Sur le plan théologique, elle recentre et réinterprète des aspects essentiels du christianisme, soit les récits, la tradition comme histoire, communauté et imagination. Cette approche revitalise le paysage éthique et le style d’accompagnement pastoral auprès des jeunes adultes. En tant que prêtre catholique souvent consulté par des gens de cette catégorie d’âge (20-35 ans), notre projet de thèse se veut inspirateur d’une nouvelle pratique d’accompagnement éthico-pastoral.
Resumo:
Dans une perspective strictement structurale, cherchant à étendre et généraliser le calque linguistique à la majorité des champs épistémologiques, une nouvelle science –la sémiologie– est née. Considérant les conventions et systèmes langagiers circulant dans la vie sociale des signes, ladite science n’a pas hésité à comparer les systèmes sémiotiques-forme architecturale et paysage de la ville à des structures discursives ou encore des « textes ». L’intégration du système de signes-forme architecturale dans le paysage de la ville se définit conséquemment comme une « dialogie » entre lesdits systèmes sémiotiques, une « intertextualité » s’effectuant sur la base de codes variés, enchevêtrés. En se basant sur les fondements peirciens du signe, nous proposons (selon une méthodologie décompositive desdits systèmes de signes) d’élucider le sens de cette dialogie dans les stratégies contemporaines du « Branding urbain » où ladite « intertextualité » se transforme en « interimagibilité » (ou « intericonicité ») prenant la ville de Toronto et l’extension du musée royal de l’Ontario (ROM) un corpus remarquable manifestant ladite métamorphose.
Resumo:
L’introduction du développement durable apporte de nouvelles préoccupations environnementales au niveau de la construction et de la rénovation résidentielles, une industrie qui représente un marché économique important au Canada. En plus d’engendrer plusieurs impacts sur l’environnement, la conception actuelle ne permet pas d’accommoder le changement initié par l’évolution des pratiques, les avancées technologiques, mais également par l’évolution des patrons de vie des occupants. Dans un premier temps, la revue de littérature dresse le portrait de l’industrie de la construction, rénovation et démolition (CRD) au Canada, ainsi que le profil de gestion des débris de CRD. Ensuite, une analyse documentaire traite de différents outils de conception développés pour améliorer la performance du secteur : 3RV-E, écoconception, écoconstruction et LEED®. De plus, la recension des écrits permet également de cerner les concepts d’adaptabilité et de flexibilité au niveau du bâtiment et dans les approches et mouvements émergents en architecture. Cette démarche nous amène à établir l’hypothèse que l’intégration des critères d’adaptabilité et de flexibilité au niveau du logement aurait pour effet d’améliorer l’adéquation entre les besoins évolutifs des occupants et les nouvelles considérations environnementales. Au niveau méthodologique, l’analyse du cycle de vie simplifiée par l’Eco-indicator99 encadre l’analyse environnementale de l’ossature de trois types de construction de cloison. De cette évaluation, on conclut que c’est la construction traditionnelle à ossature de bois qui produit le moins d’impacts. Dans l’ordre suivant la proposition de construction de cloison à ossature d’aluminium, plus adaptable et flexible, et finalement la construction à ossature d’acier qui est le système le plus dommageable. Par contre, en intégrant le facteur temporel, cette analyse démontre que l’intégration de l’adaptabilité et de la flexibilité procure plusieurs cycles de vie et de rénovation au produit et à ses composantes. Finalement, ces concepts offrent également le potentiel de diminuer les impacts générés par la construction et la rénovation, un constat qui mériterait d’être abordé dans une approche plus systémique.
Resumo:
C’est principalement par le cinéma que nous connaissons et partageons le réel des villes, même celles dans lesquelles nous vivons. Par le cinéma, nous découvrons plus de villes que nous n’en visiterons jamais. Nous connaissons des villes que nous n'avons jamais vues. Nous apprenons à découvrir des villes que nous connaissons déjà. Nous avons en mémoire des villes qui n'existent pas. Que nous soyons spectateur ou créateur, les villes existent d'abord dans notre imaginaire. Percevoir, représenter et créer sont des actes complémentaires qui mobilisent des fonctions communes. Toute perception est conditionnée par le savoir et la mémoire, elle dépend de la culture. Toute représentation, si elle veut communiquer, doit connaître les mécanismes et les codes mémoriels et culturels du public auquel elle s’adresse. Le cinéma ne fait pas que reproduire, il crée et il a appris à utiliser ces codes et ces mécanismes, notamment pour représenter la ville. L’étude du cinéma peut ouvrir aux urbanistes et aux professionnels de l’aménagement, de nouveaux champs de scientificité sur le plan de la représentation et de la perception comme partage du réel de la ville. La ville et le cinéma doivent alors être vus comme un spectacle dans son acception herméneutique, et de ce spectacle il devient possible d’en faire émerger un paradigme; ou dit autrement, the basic belief system or worldview that guides the investigator, not only in choices of methods but in ontologically and episemologically fundamental ways. (Guba & Lincoln, 1994) Ce paradigme, que nous proposons de décrire, de modéliser et dont nous montrons les fonctions conceptuelles; nous le désignons comme la Ville idéelle.