33 resultados para Valeur
em Université Laval Mémoires et thèses électroniques
Resumo:
Le cancer de la vessie est le 5e plus répandu au Canada. Les tumeurs vésicales non-infiltrant le muscle (TVNIM) représentent 70-75% des tumeurs au premier diagnostic. Après une résection transurétrale de tumeur de vessie (RTUTV), 60-70 % des patients souffriront de récidive et 10-20 % de progression vers l’infiltration du muscle (TVIM). Présentement, l’évaluation du risque de récidive ou de progression pour sélectionner le traitement approprié est basée sur les caractéristiques cliniques et pathologiques. La gestion des TVNIM à haut risque est l’un des aspects les plus difficiles à gérer pour un uro-oncologue et il est bien connu que l’issue clinique peut varier significativement entre des patients ayant une tumeur de même stade. Il serait donc important de détecter les tumeurs les plus susceptibles de récidiver et de progresser pour ajuster le traitement en conséquence. L’objectif de mon projet était d’analyser la valeur pronostique du contexte immunologique des TVNIM pour prédire leurs probabilités de récidive ou de progression vers l’infiltration du muscle. Mon premier volet consistait à évaluer la valeur pronostique de l’infiltration des cellules immunes, telles que les cellules dendritiques infiltrant les tumeurs (TIDC), les cellules T infiltrant les tumeurs (TIL) et les macrophages associés aux tumeurs (TAM) dans une cohorte de 106 TVNIM initiales. Les données d’infiltration des TIDC et des TIL dans les TVNIM démontrent leur importance dans l’évolution des patients atteints du cancer de la vessie et pourraient aider à identifier les TVNIM à haut risque. Mon deuxième volet consistait à caractériser un profil d’expression génique associé aux immunités innée et adaptative dans une série de 22 TVNIM. Cependant, le faible nombre de tumeurs disponibles a empêché d’obtenir une conclusion. Notre étude a permis de confirmer que la composition et le phénotype des cellules immunes infiltrant les TVNIM ont un impact sur l’évolution de ces tumeurs.
Resumo:
L’usine Niobec traite un minerai de pyrochlore porteur de niobium pour produire le ferro-niobium utilisé pour la fabrication d’acier. L’usine récupère environ 60% des minéraux de niobium. Les rejets contiennent du niobium et d’autres espèces minérales potentiellement valorisables. Les travaux présentés dans ce mémoire visent à identifier les espèces pouvant être valorisées dans les rejets de Niobec dont les plus prometteurs sont les éléments de terres rares, les minéraux de niobium et l’apatite. Dans le but de concentrer l’apatite des rejets de l’usine, une analyse chimique des rejets a permis de cibler comme flux d’intérêt les particules de dimension supérieure à 0,038mm dans le concentré de carbonates et les rejets du circuit de flottation du pyrochlore. La méthode utilisée pour valoriser les phosphates est la flottation. Les meilleurs résultats ont été obtenus par flottation directe des minéraux de phosphate du concentré de carbonates dans les rejets de Niobec. Le collecteur utilisé est un acide gras de type AERO 6493 avec un mélange d’amidon de tapioca et de NaOH utilisé comme déprimant pour les carbonates. Ces conditions ont permis de produire un concentré d’apatite titrant entre 30 à 32 % P2O5 avec un rendement de 50 à 60% du P2O5 contenue dans le concentré de carbonates. La teneur en MgO dans le concentré d’apatite est comprise entre 3 et 4% comparativement à 15% dans l’alimentation. Puisque le MgO est principalement associé à la dolomie ces résultats confirment une bonne dépression de ce minéral lors de la flottation de l’apatite du concentré de carbonates. La flottation de l’apatite à partir des rejets du pyrochlore n’a pas permis d’obtenir un concentré de valeur commerciale. Le meilleur résultat obtenu lors des essais de flottation sur les rejets pyrochlore correspond à une teneur de 14%avec un rendement de 53% P2O5. Les résultats obtenus montrent toutefois le potentiel associé à la récupération des minéraux de phosphates et justifient la poursuite des travaux, cette fois, moins exploratoires que les travaux rapportés dans ce mémoire.
Resumo:
Cette recherche exploratoire examine le concept émergent de « paysage sous-marin » présenté sous la forme d’une étude cas — celui du jardin des Escoumins — situé dans le parc marin du Saguenay – Saint-Laurent, au Québec. On constate, depuis les dernières décennies, deux complications qui s’interposent au concept de paysage sous-marin puisque d’une part on examine un divorce entre les Québécois et le fleuve Saint-Laurent puis d’une autre on observe l’omission fréquente de sa reconnaissance dans la littérature géographique. En somme, deux questions de recherche en découlent, soit : Quels sont les procédés employés pendant le XXe et XXIe siècle dans la construction des paysages sous-marins au Québec ? et : Quel est le rôle des différents acteurs, et plus précisément celui des plongeurs, dans la mise en valeur et la reconnaissance du paysage sous-marin des Escoumins ? La recherche a été accomplie à travers une revue extensive de la littérature régionale et mondiale portant sur ce concept atypique. Par la suite, une enquête de 35 questions soumises à un échantillon de 73 plongeurs québécois a été analysée, ainsi que sept entrevues semi-dirigées avec des acteurs clefs du domaine. Puis, l’étude et la cartographie des relations spatiales entre les plongeurs et les lieux de prédilection de leur activité ont été réalisés. Les résultats démontrent des interrelations complexes entre les caractéristiques de construction de ces paysages sublimes (le territoire, la nordicité, la pratique d’une activité de loisir, la technologie, l’esthétisme ainsi que l’essor économique et touristique) et les acteurs clefs. Comme la « découverte » des paysages alpins au XVIIIe siècle en Europe, la lente mise en valeur des paysages sous-marins au Québec est causée par la marginalité des lieux. Ainsi, la reconnaissance des paysages subaquatiques est en pleine effervescence au Québec et l’intégration de ce concept en aménagement et en planification touristiques devient capitale.
Resumo:
Cette étude a pour objectif de déterminer la valeur pronostique de la protéine S-100ß et de l’énolase neurone-spécifique (NSE) chez les patients ayant subi un traumatisme craniocérébral (TCC) modéré ou grave. Deux revues systématiques et méta-analyses ont été effectuées afin de recenser les études présentant un dosage de ces biomarqueurs en lien avec la mortalité ou le pronostic fonctionnel évalué à l’aide du score du Glasgow outcome scale (GOS). Des 9228 résultats de la recherche, 41 et 26 études ont été incluses, respectivement, pour la protéine S-100ß et la NSE. Il existe une association entre le dosage sérique de la protéine S-100ß et de la NSE avec une issue clinique défavorable, c’est-à-dire la mortalité ou un score du GOS ≤ 3. Une concentration sérique entre 1,38 et 10,50 µg/L pour la protéine S-100ß est 100 % spécifique pour prédire le décès. La présence de lésions extracérébrales n’influençait pas cette association.
Resumo:
L’objectif de ce projet fut d’évaluer le bénéfice associé à la thérapie antihormonale (TA) pour les cancers du sein avec des récepteurs d’estrogènes (ER) faiblement positifs (<10 fmol/mg de cytosol). Nous avons identifié 2221 patientes avec cancer du sein dont ER ont été évalués par méthode biochimique (Ligand-Based Assay ou LBA) de 1976 à 1995 et suivies jusqu’en 2008. Des modèles à risques proportionnels de Cox ont été utilisés pour évaluer l’impact des différents niveaux de ER sur la survie au cancer du sein chez les patientes ayant reçu ou non une TA. Parmi les 2221 patientes incluses dans l’étude, 661 (29,8%) ont reçu une TA. Chez celles avec TA, une diminution significative de la mortalité spécifique au cancer du sein n’a été démontrée que pour les niveaux de ER ≥10 fmol/mg de cytosol. Ainsi, ceci ne supporte pas une TA pour les cancers du sein faiblement positif pour ER testés en LBA.
Resumo:
Cette étude se penche sur le lien entre le label du patrimoine mondial de l’UNESCO et l’industrie touristique dans un contexte où le titre est de plus en plus convoité et que les destinations cherchent à se démarquer. L’objectif principal consiste à déterminer comment les acteurs du milieu touristique des villes du patrimoine mondial perçoivent le label comme outil promotionnel de la destination. Pour ce faire, le discours est analysé par le biais d’un système de valeurs associées au label pour comprendre comment celles-ci influencent la valence, positive, négative ou neutre accordée au label. Les résultats obtenus démontrent que la valence positive est largement conditionnée par la réputation de l’UNESCO ainsi que l’histoire, l’architecture et la beauté associées aux villes labellisées. Par contre, la protection, valeur à l’origine de la création du label, semble freiner les acteurs dans l’idée le considérer comme un outil utile et valable pour promouvoir la destination.
Resumo:
En alimentation animale, l’utilisation adéquate des aliments nécessite une connaissance précise des valeurs nutritionnelles de leurs composantes, dont celle en acides aminés. Cependant, ces valeurs nutritionnelles dépendent de la teneur en acides aminés essentiels (AAE) totaux et de la digestibilité iléale standardisée (DIS) de ces AAE. Cette dernière varie en fonction de plusieurs facteurs, dont l’origine botanique des graines, les conditions de culture des récoltes, le stockage des aliments, les traitements physico-chimiques appliqués aux grains, les facteurs antinutritionnels (FANs) et les techniques expérimentales utilisées pour le dosage et l’estimation de la digestibilité des AAE. Une approche par méta-analyse a permis d’établir des modèles de prédiction de la valeur nutritionnelle en AAE des ingrédients à partir de leur composition chimique en considérant la protéine brute (PB), les AAE totaux, la teneur en fibre (Acid Detergent Fiber (ADF), Neutral Detergent Fiber (NDF) et Fibre Brute (FB)) et les FANs comme les inhibiteurs de la trypsine. En se référant à l’analyse graphique et statistique, les données ont été réparties en 4 groupes : 1) les tourteaux (tourteau de soja, colza/canola et coton); 2) les légumineuses (féveroles, lupins, pois et soja); 3) les céréales (blé, orge, avoine, sorgho et maïs); 4) les drêches de distilleries (blé et maïs). Ainsi, un modèle général ajusté en fonction du type d’ingrédients a été généré et les facteurs de variation de la digestibilité en AAE ont été identifiés. Pour les tourteaux, la DIS des AAE est réduite par un accroissement de la teneur en NDF, tandis que la DIS des AAE de la féverole, pois et lupin est principalement influencée par la teneur en PB et en FANs. Concernant les graines de soja la DIS des AAE est réduite par une hausse de la teneur en fibre (FB et ADF). Enfin pour les céréales et les sous- produit de céréales telles que les drêches, la PB et les fibres (ADF ou NDF) étaient les meilleurs nutriments pour prédire la DIS des AAE. Ces résultats démontrent que la DIS des AAE peut être prédite avec précision à partir de la composition chimique pour la plupart des ingrédients.
Resumo:
La construction dans l’Arctique nécessite une connaissance précise des propriétés thermiques et géotechniques du pergélisol. La connaissance de ces propriétés est également nécessaire pour le paramétrage des modèles de transfert de chaleur. Des études antérieures ont démontré le grand potentiel de l’utilisation de la tomodensitométrie pour les mesures du volume des composantes du pergélisol et la visualisation de la cryostructure. Une nouvelle approche est proposée pour mesurer la conductivité thermique du pergélisol. Les objectifs généraux de ce projet sont (1) d’élaborer une nouvelle méthode de caractérisation du pergélisol à l’aide de la tomodensitométrie et de modèle éprouvés et (2) de comparer et mettre au point une méthode novatrice pour mesurer la conductivité thermique et des paramètres géotechniques. Les résultats démontrent que les tests effectués à l’aide de la tomodensitométrie donnent des résultats d’une valeur scientifique comparable aux autres méthodes existantes de mesure de déjà existantes de conductivité thermique du pergélisol.
Resumo:
La problématique liée au manque d’accès à la justice se pose dans toutes les régions du monde. Afin de résoudre celle-ci, l’Assemblée nationale du Québec a adopté, le 20 février 2014, le projet de loi 28, Loi instituant le nouveau Code de procédure civile, 1e sess, 40e lég. À cet égard, la disposition préliminaire indique que le nouveau Code de procédure civile (ci-après : « NCPC »), qui régit dorénavant la procédure applicable aux modes de prévention et de règlement des différends (ci-après : « modes de PRD »), vise à « assurer l’accessibilité, la qualité et la célérité de la justice civile […] ». Au-delà de ces mots, qui ont une grande valeur interprétative, ce mémoire analyse dans quelle mesure l’intégration des principes de la procédure applicables aux modes de PRD dans le NCPC est réellement susceptible d’améliorer l’accessibilité de la justice civile au Québec.
Resumo:
Si le Marx de Michel Henry reconduit plusieurs thèses développées dans les écrits antérieurs et anticipe celles de « la trilogie » sur le christianisme, le dialogue qu’il instaure autour du thème de la praxis lui confère un statut singulier dans l’ensemble de l’oeuvre. Parce que Marx attribue à la pratique de l’individu et aux rapports réels entre les pratiques le pouvoir de créer les idéalités, notamment celle de la valeur, Henry est lui-même conduit à déplacer le champ d’immanence qu’il avait jusque-là situé du côté de l’ego et du corps vers la pratique et le système du travail vivant aux prises avec le monde objectif. Or du point de vue d’une phénoménologie matérielle, pour autant qu’il renvoie à un point de vue extérieur à la stricte immanence, le seul usage de la notion d’« individu » manifeste déjà une prise en compte de « la transcendance », poussant Henry à suspendre pour une part l’approche phénoménologique. Même si l’acosmisme de L’essence de la manifestation transparait encore dans le Marx, il est mis en tension extrême avec le monde des déterminations sociales et économiques et contraint l’auteur à développer la thèse de l’enracinement de ces déterminations dans l’immanence de la vie et de la praxis. C’est en même temps ce qui fait la force et l’originalité de la lecture henryenne de Marx. D’un autre côté, quand bien même elle hérite d’une éthique de la praxis, la trilogie semble perdre de vue la stricte individualité de la praxis qui apparaît dans le Marx. C’est ainsi que le concept de Vie Absolue qu’elle promeut est associé à une exigence d’universel que Henry avait préalablement disqualifiée, notamment à travers sa critique de Hegel. La thèse qu’on va lire cherche ainsi à rendre compte de l’originalité absolue du Marx dans l’oeuvre du phénoménologue français.
Resumo:
Introduction : Le diabète de type 2 est une maladie évolutive débilitante et souvent mortelle qui atteint de plus en plus de personnes dans le monde. Le traitement antidiabétique non-insulinique (TADNI) notamment le traitement antidiabétique oral (TADO) est le plus fréquemment utilisé chez les adultes atteints de cette maladie. Toutefois, plusieurs de ces personnes ne prennent pas leur TADO tel que prescrit posant ainsi la problématique d’une adhésion sous-optimale. Ceci entraîne des conséquences néfastes aussi bien pour les patients que pour la société dans laquelle ils vivent. Il serait donc pertinent d’identifier des pistes de solution à cette problématique. Objectifs : Trois objectifs de recherche ont été étudiés : 1) Explorer la capacité de la théorie du comportement planifié (TCP) à prédire l’adhésion future au TADNI chez les adultes atteints de diabète de type 2, 2) Évaluer l’efficacité globale des interventions visant à améliorer l’adhésion au TADO chez les adultes atteints de diabète de type 2 et étudier l’influence des techniques de changement de comportement sur cette efficacité globale, et 3) Évaluer l’efficacité globale de l’entretien motivationnel sur l’adhésion au traitement médicamenteux chez les adultes atteints de maladie chronique et étudier l’influence des caractéristiques de cette intervention sur son efficacité globale. Méthodes : Pour l’objectif 1 : Il s’agissait d’une enquête web, suivie d’une évaluation de l’adhésion au TADNI sur une période de 30 jours, chez des adultes atteints de diabète de type 2, membres de Diabète Québec. L’enquête consistait à la complétion d’un questionnaire auto-administré incluant les variables de la TCP (intention, contrôle comportemental perçu et attitude) ainsi que d’autres variables dites «externes». Les informations relatives au calcul de l’adhésion provenaient des dossiers de pharmacie des participants transmis via la plateforme ReMed. Une régression linéaire multivariée a été utilisée pour estimer la mesure d’association entre l’intention et l’adhésion future au TADNI ainsi que l’interaction entre l’adhésion passée et l’intention. Pour répondre aux objectifs 2 et 3, deux revues systématiques et méta-analyses ont été effectuées et rapportées selon les lignes directrices de PRISMA. Un modèle à effets aléatoires a été utilisé pour estimer l’efficacité globale (g d’Hedges) des interventions et son intervalle de confiance à 95 % (IC95%) dans chacune des revues. Nous avons également quantifié l’hétérogénéité (I2 d’Higgins) entre les études, et avons fait des analyses de sous-groupe et des analyses de sensibilité. Résultats : Objectif 1 : Il y avait une interaction statistiquement significative entre l’adhésion passée et l’intention (valeur-p= 0,03). L’intention n’était pas statistiquement associée à l’adhésion future au TADNI, mais son effet était plus fort chez les non-adhérents que chez les adhérents avant l’enquête web. En revanche, l’intention était principalement prédite par le contrôle comportemental perçu à la fois chez les adhérents [β= 0,90, IC95%= (0,80; 1,00)] et chez les non-adhérents passés [β= 0,76, IC95%= (0,56; 0,97)]. Objectif 2 : L’efficacité globale des interventions sur l’adhésion au TADO était de 0,21 [IC95%= (-0,05; 0,47); I2= 82 %]. L’efficacité globale des interventions dans lesquelles les intervenants aidaient les patients et/ou les cliniciens à être proactifs dans la gestion des effets indésirables était de 0,64 [IC95%= (0,31; 0,96); I2= 56 %]. Objectif 3 : L’efficacité globale des interventions (basées sur l’entretien motivationnel) sur l’adhésion au traitement médicamenteux était de 0,12 [IC95%= (0,05; 0,20); I2= 1 %. Les interventions basées uniquement sur l’entretien motivationnel [β= 0,18, IC95%= (0,00; 0,36)] et celles dans lesquelles les intervenants ont été coachés [β= 0,47, IC95%= (0,03; 0,90)] étaient les plus efficaces. Aussi, les interventions administrées en face-à-face étaient plus efficaces que celles administrées par téléphone [β= 0,27, IC95%=(0,04; 0,50)]. Conclusion : Il existe un écart entre l’intention et l’adhésion future au TADNI, qui est partiellement expliqué par le niveau d’adhésion passée. Toutefois, il n’y avait pas assez de puissance statistique pour démontrer une association statistiquement significative entre l’intention et l’adhésion future chez les non-adhérents passés. D’un autre côté, quelques solutions au problème de l’adhésion sous-optimale au TADO ont été identifiées. En effet, le fait d’aider les patients et/ou les cliniciens à être proactifs dans la gestion des effets indésirables contribue efficacement à l’amélioration de l’adhésion au TADO chez les adultes atteints de diabète de type 2. Aussi, les interventions basées sur l’entretien motivationnel améliorent efficacement l’adhésion au traitement médicamenteux chez les adultes atteints de maladie chronique. L’entretien motivationnel pourrait donc être utilisé comme un outil clinique pour soutenir les patients dans l’autogestion de leur TADO.
Resumo:
Ce mémoire présente la conception, le contrôle et la validation expérimentale d’une boussole haptique servant à diriger les utilisateurs aux prises avec une déficience visuelle, et ce, dans tous les environnements. La revue de littérature décrit le besoin pour un guidage haptique et permet de mettre en perspective cette technologie dans le marché actuel. La boussole proposée utilise le principe de couples asymétriques. Son design est basé sur une architecture de moteur à entraînement direct et un contrôle en boucle ouverte étalonné au préalable. Cette conception permet d’atteindre une vaste plage de fréquences pour la rétroaction haptique. Les propriétés mécaniques de l’assemblage sont évaluées. Puis, l’étalonnage des couples permet d’assurer que le contrôle en boucle ouverte produit des couples avec une précision suffisante. Un premier test avec des utilisateurs a permis d’identifier que les paramètres de fréquence entre 5 et 15 Hz combinés avec des couples au-delà de 40 mNm permettent d’atteindre une efficacité intéressante pour la tâche. L’expérience suivante démontre qu’utiliser une rétroaction haptique proportionnelle à l’erreur d’orientation améliore significativement les performances. Le concept est ensuite éprouvé avec dix-neuf sujets qui doivent se diriger sur un parcours avec l’aide seule de cette boussole haptique. Les résultats montrent que tous les sujets ont réussi à rencontrer tous les objectifs de la route, tout en maintenant des déviations latérales relativement faibles (0:39 m en moyenne). Les performances obtenues et les impressions des utilisateurs sont prometteuses et plaident en faveur de ce dispositif. Pour terminer, un modèle simplifié du comportement d’un individu pour la tâche d’orientation est développé et démontre l’importance de la personnalisation de l’appareil. Ce modèle est ensuite utilisé pour mettre en valeur la stratégie d’horizon défilant pour le placement de la cible intermédiaire actuelle dans un parcours sur une longue distance.
Resumo:
Après une période où la valeur des quotas laitiers a été en forte croissance au Québec, un plafond à cette valeur a été fixé à compter de 2007. Ce plafond a eu pour effet de limiter l’offre de quota sur le marché et la croissance de la taille des entreprises laitières québécoises. Cette situation soulève un questionnement sur l’efficience économique, le blocage de la croissance des entreprises les empêchant de bénéficier d’économies de taille, si bien entendu il en existe. En conséquence, cette étude s’intéresse aux économies de taille en production laitière en Amérique du Nord. Les économies de taille des entreprises ont été mesurées à l’aide d’une régression linéaire multiple à partir de certains indicateurs de coût monétaire et non monétaire. Cette analyse comprend quatre strates de taille formées à partir d’un échantillon non aléatoire de 847 entreprises du Québec, de l’État de New York et de la Californie, ainsi qu’à partir d’un groupe d’entreprises efficientes (groupe de tête). Les résultats démontrent l’existence d’économies de taille principalement au niveau des coûts fixes et plus particulièrement des coûts fixes non monétaires. Ils révèlent aussi que les deux indicateurs où l’effet des économies de taille est le plus important sont le coût du travail non rémunéré et l’amortissement. Par ailleurs, lorsque la taille d’une entreprise augmente, les économies de taille supplémentaires réalisées deviennent de moins en moins importantes. Enfin, les résultats indiquent qu’il existe des déséconomies de taille au niveau des coûts d’alimentation. Les résultats obtenus au niveau du groupe de tête vont dans le même sens. Ils confirment également qu’il est possible pour les grandes entreprises efficientes de réaliser des économies de taille pour la plupart des indicateurs de coût. Toutefois, les économies additionnelles que ces entreprises peuvent réaliser sont moins importantes que celles obtenues par les petites entreprises efficientes. Mots clés : Agriculture, production laitière, Amérique du Nord, économies de taille, efficience économique, régression linéaire.
Resumo:
Le bois subit une demande croissante comme matériau de construction dans les bâtiments de grandes dimensions. Ses qualités de matériau renouvelable et esthétique le rendent attrayant pour les architectes. Lorsque comparé à des produits fonctionnellement équivalents, il apparait que le bois permet de réduire la consommation d’énergie non-renouvelable. Sa transformation nécessite une quantité d’énergie inférieure que l’acier et le béton. Par ailleurs, par son origine biologique, une structure en bois permet de stocker du carbone biogénique pour la durée de vie du bâtiment. Maintenant permis jusqu’à six étages de hauteur au Canada, les bâtiments de grande taille en bois relèvent des défis de conception. Lors du dimensionnement des structures, les zones des connecteurs sont souvent les points critiques. Effectivement, les contraintes y sont maximales. Les structures peuvent alors apparaitre massives et diminuer l’innovation architecturale. De nouvelles stratégies doivent donc être développées afin d’améliorer la résistance mécanique dans les zones de connecteurs. Différents travaux ont récemment porté sur la création ou l’amélioration de types d’assemblage. Dans cette étude, l’accent est mis sur le renforcement du bois utilisé dans la région de connexion. L’imprégnation a été choisie comme solution de renfort puisque la littérature démontre qu’il est possible d’augmenter la dureté du bois avec cette technique. L’utilisation de cette stratégie de renfort sur l’épinette noire (Picea Mariana (Mill.) BSP) pour une application structurale est l’élément de nouveauté dans cette recherche. À défaut d’effectuer une imprégnation jusqu’au coeur des pièces, l’essence peu perméable de bois employée favorise la création d’une mince couche en surface traitée sans avoir à utiliser une quantité importante de produits chimiques. L’agent d’imprégnation est composé de 1,6 hexanediol diacrylate, de triméthylopropane tricacrylate et d’un oligomère de polyester acrylate. Une deuxième formulation contenant des nanoparticules de SiO2 a permis de vérifier l’effet des nanoparticules sur l’augmentation de la résistance mécanique du bois. Ainsi, dans ce projet, un procédé d’imprégnation vide-pression a servi à modifier un nouveau matériau à base de bois permettant des assemblages plus résistants mécaniquement. Le test de portance locale à l’enfoncement parallèle au fil d’un connecteur de type tige a été réalisé afin de déterminer l’apport du traitement sur le bois utilisé comme élément de connexion. L’effet d’échelle a été observé par la réalisation du test avec trois diamètres de boulons différents (9,525 mm, 12,700 mm et 15,875 mm). En outre, le test a été effectué selon un chargement perpendiculaire au fil pour le boulon de moyen diamètre (12,700 mm). La corrélation d’images numériques a été utilisée comme outil d’analyse de la répartition des contraintes dans le bois. Les résultats ont démontré une portance du bois plus élevée suite au traitement. Par ailleurs, l’efficacité est croissante lorsque le diamètre du boulon diminue. C’est un produit avec une valeur caractéristique de la portance locale parallèle au fil de 79% supérieure qui a été créé dans le cas du test avec le boulon de 9,525 mm. La raideur du bois a subi une augmentation avoisinant les 30%. Suite au traitement, la présence d’une rupture par fissuration est moins fréquente. Les contraintes se distribuent plus largement autour de la région de connexion. Le traitement n’a pas produit d’effet significatif sur la résistance mécanique de l’assemblage dans le cas d’un enfoncement du boulon perpendiculairement au fil du bois. De même, l’effet des nanoparticules en solution n’est pas ressorti significatif. Malgré une pénétration très faible du liquide à l’intérieur du bois, la couche densifiée en surface créée suite au traitement est suffisante pour produire un nouveau matériau plus résistant dans les zones de connexion. Le renfort du bois dans la région des connecteurs doit influencer le dimensionnement des structures de grande taille. Avec des éléments de connexion renforcés, il sera possible d’allonger les portées des poutres, multipliant ainsi les possibilités architecturales. Le renfort pourra aussi permettre de réduire les sections des poutres et d’utiliser une quantité moindre de bois dans un bâtiment. Cela engendrera des coûts de transport et des coûts reliés au temps d’assemblage réduits. De plus, un connecteur plus résistant permettra d’être utilisé en moins grande quantité dans un assemblage. Les coûts d’approvisionnement en éléments métalliques et le temps de pose sur le site pourront être revus à la baisse. Les avantages d’un nouveau matériau à base de bois plus performant utilisé dans les connexions permettront de promouvoir le bois dans les constructions de grande taille et de réduire l’impact environnemental des bâtiments.
Resumo:
Ce mémoire a pour objet de décrire l’opération de la grâce dans la pensée de Jankélévitch. Pour y parvenir, notre exposé prendra la forme d’un itinéraire éthique. Nous montrerons d’abord que l’homme peut vouloir de deux manières différentes. Il peut se préférer lui-même, se placer comme finalité de son action ou bien, à l’inverse, choisir l’autre comme point focal. Cette deuxième option ne va pas de soi et nécessite un effort de liberté. Dans un deuxième temps, nous expliquerons que ces deux manières de vouloir impliquent la conscience. Se préférer module la conscience tout comme préférer son prochain. Or, la conscience est animée d’une dynamique propre. L’éthique devra chercher à allier la manière de vouloir à celle-ci. Un bon vouloir en phase avec l’évolution de la conscience mène à l’innocence, le stade ultime de la conscience, aussi appelée l’état de grâce. Cet état de grâce est un point culminant, difficile à atteindre et qui commande un important effort de liberté. Il rend possible l’opération de la grâce, objet de notre troisième chapitre. L’opération de la grâce est un moment de conversion qui place l’homme au-dessus de sa nature biologique et le fait coïncider avec un mouvement métempirique. Lorsque cela se produit, l’agent touche au sommet de la vie morale jankélévitchienne, il devient créateur de valeur, générateur de la morale.