941 resultados para Noyau sensoriel principal du trijumeau
Resumo:
Si la théologie lucanienne de la résurrection a largement été étudiée dans le livre des Actes des Apôtres, Jésus n’a jamais été considéré comme personnage principal, à l’inverse des apôtres, de l’Esprit saint ou même de Dieu. Pourtant, le premier verset des Actes laisse entendre que Jésus va continuer de faire et d’enseigner ce qu’il avait commencé dans l’évangile, même si, peu de temps après l’ouverture du récit, il quitte la scène. Pour chercher à comprendre ce paradoxe, une analyse approfondie de la mise en récit du personnage Jésus dans les Actes était nécessaire. Le premier chapitre de cette thèse introduit le sujet, l’état de la question et deux approches méthodologiques empruntées aux experts de la caractérisation narrative. Au chapitre deux, après avoir introduit la difficulté d’identification du personnage qui se trouve derrière le titre Seigneur des Actes, le cadre épistémologique d’Elizabeth Struthers Malbon permet d’observer le comment en classant toutes les péricopes qui participent à la rhétorique de la caractérisation christologique en cinq catégories : (1) la christologie représentée qui montre ce que Jésus fait, (2) la christologie détournée qui permet d’entendre ce que Jésus dit en réponse aux autres personnages, (3) la christologie projetée qui laisse entendre ce que les autres personnages ou le narrateur disent à Jésus et à son sujet, (4) la christologie réfléchie qui montre ce que les autres personnages font en reflétant ce que Jésus a dit et (5) la christologie reflétée qui montre ce que les autres personnages font en reflétant ce que Jésus a fait. Ensuite, avec le chapitre trois, l’approche de John Darr donne à comprendre le pourquoi de la caractérisation par l’observation de quatre activités cognitives du lecteur : (1) l’anticipation et la rétrospection, (2) la recherche de cohérence, (3) l’identification et/ou l’implication et (4) la défamiliarisation. Enfin, au chapitre quatre, les résultats des deux méthodes sont comparés pour proposer une solution au cas de l’ouverture paradoxale des Actes. D’abord les différentes observations de la thèse montrent que le personnage Jésus n’est pas si absent du récit; puis la rhétorique narrative de la caractérisation conduit le lecteur à comprendre que c’est essentiellement au travers des personnages du récit que Jésus est présent en actes et en paroles.
Resumo:
L’obésité est un facteur de risque lié à des problèmes physiques, émotionnels et comportementaux. Aujourd’hui, l’alimentation est composée d’un régime typiquement occidental «Western diet» qui est riche en acides gras saturés (AGS) et pauvre en acides gras polyinsaturés (AGPI) tel que les oméga-3 (N-3) et occasionnant un déséquilibre du ratio alimentaire N-6/N-3. Ce déséquilibre est une des causes de la prévalence des maladies mentales y compris celles des troubles de l'humeur et de l’anxiété. L’acide docosahexaénoïque (ADH, 22: 6 n-3) est l’acide gras (AG) le plus abondant dans le cerveau et son accumulation est particulièrement élevée pendant la période périnatale. Il joue un rôle important dans le développement neuronal et d'autres fonctions du cerveau tel l'apprentissage et la mémoire. Des perturbations de l’environnement périnatal peuvent influencer à très long terme l’avenir de la descendance en la rendant plus susceptible de développer des problèmes d’obésité dans un contexte nutritionnel riche. On ignore cependant si le déficit alimentaire chez la mère et particulièrement en ADH aura un impact sur la motivation alimentaire de la progéniture. L’objectif principal de cette thèse est d’étudier le rôle potentiel des N-3 sur la balance énergétique, la motivation alimentaire, la dépression et le niveau d’anxiété des descendants de souris mâles adultes assujetties à une alimentation riche en gras. Nos données ont démontré qu‘un régime maternel déficitaire en ADH durant la période périnatale incitait la descendance à fournir plus d’effort afin d’obtenir un aliment palatable. Ceci entraînerait un dérèglement de l’homéostasie énergétique en augmentant le gain de poids et en diminuant l’activité locomotrice tout en exacerbant le comportement de type anxieux dès que les souris sont exposées à un milieu obésogène. Les acides gras libres (AGL) sont des nutriments essentiels fonctionnant comme des molécules de signalisation dans le cerveau en ayant des récepteurs qui jouent un rôle important dans le contrôle du métabolisme énergétique. Parmi eux, on distingue un récepteur couplé à la protéine G (GPCR), le GPR120. Ce récepteur activé par les AGPI ω-3 intervient dans les mécanismes anti-inflammatoires et insulino-résistants via les N-3. Une mutation dans le gène GPR120 occasionnée par une réduction de l’activité de signalisation du gène est liée à l’obésité humaine. L'objectif premier de cette deuxième étude était d’évaluer l'impact de la stimulation pharmacologique de GPR120 dans le système nerveux central (SNC) sur l'alimentation, les dépenses d'énergie, le comportement de type anxieux et la récompense alimentaire. Nos résultats démontrent qu’une injection centrale aiguë d'agoniste GPR120 III réduit la prise alimentaire ad libitum et la motivation alimentaire pour un aliment riche en gras et en sucre; ainsi que les comportements de type anxieux. L’injection centrale chronique (21 jours) de ce même agoniste GPR120 III transmis par une pompe osmotique a démontré que les souris placées sous diète hypercalorique (HFD n’ont présenté aucune modification lors de la prise alimentaire ni de gain de poids mais qu’il y avait comparativement au groupe de véhicule, une réduction du comportement de type anxieux, que ce soit dans le labyrinthe en croix surélevé (LCS) ou dans le test à champ ouvert (OFT). L’ADH est reconnu pour ses propriétés anorexigènes au niveau central. De plus, la stimulation des récepteurs de GPR120 au niveau du cerveau avec un agoniste synthétique peut produire un effet intense intervenir sur le comportement lié à l'alimentation des rongeurs. Trouver une approche visant à contrôler à la fois la neuroinflammation, la récompense alimentaire et les troubles émotionnels aiderait assurément au traitement de l'obésité et du diabète de type 2.
Resumo:
L’obésité est un problème de santé publique reconnu. Dans la dernière décennie l’obésité abdominale (OA) a été considérée comme une maladie métabolique qui contribue davantage au risque de diabète et de maladies cardiovasculaires que l’obésité générale définie par l’indice de masse corporelle. Toutefois, dans les populations d’origine africaine, la relation entre l’OA et les autres biomarqueurs de risque cardiométabolique (RCM) demeure obscure à cause du manque d’études chez ces populations et de l’absence de valeurs-seuils spécifiques pour juger d’une OA. Cette étude visait à comparer la prévalence des biomarqueurs de RCM (OA, hypertension artérielle, hyperglycémie, dyslipidémie, résistance à l'insuline et inflammation pré-clinique) chez les Béninois de Cotonou et les Haïtiens de Port-au-Prince (PAP), à étudier l’association de l’OA avec les autres biomarqueurs de RCM, à documenter le rôle du niveau socio-économique (NSE) et du mode de vie dans cette association et à ’identifier les indicateurs anthropométriques de l’OA -tour de taille (TT) et le ratio TT/hauteur (TT/H)- et les seuils qui prédisent le mieux le RCM à Cotonou et à PAP. Il s’est agi d’une analyse de données transversales chez 452 adultes (52 % hommes) apparemment en bonne santé, âgés de 25 à 60 ans, avec 200 sujets vivant à Cotonou (Bénin) et 252 sujets à PAP (Haïti). Les biomarqueurs de RCM considérés étaient : le syndrome métabolique (SMet) d’après les critères harmonisés de 2009 et ses composantes individuelles - une OA à partir d’un TT ≥ 94cm chez les hommes et ≥ 80cm chez les femmes, une hypertension, une dyslipidémie et une hyperglycémie; la résistance à l’insuline définie chez l’ensemble des sujets de l’étude à partir du 75e centile de l’Homeostasis Model Assessment (HOMA-IR); un ratio d’athérogénicité élevé (Cholestérol sérique total/HDL-Cholestérol); et l’inflammation pré-clinique mesurée à partir d’un niveau de protéine C-réactive ultrasensible (PCRus) entre 3 et 10 mg/l. Le ratio TT/H était aussi considéré pour définir l’OA à partir d’un seuil de 0,5. Les données sur les habitudes alimentaires, la consommation d’alcool, le tabagisme, les caractéristiques sociodémographiques et les conditions socio-économiques incluant le niveau d’éducation et un proxy du revenu (basé sur l’analyse par composante principale des biens et des possessions) ont été recueillies au moyen d’un questionnaire. Sur la base de données de fréquence de consommation d’aliments occidentaux, urbains et traditionnels, des schémas alimentaires des sujets de chaque ville ont été identifiés par analyse typologique. La validité et les valeurs-seuils de TT et du ratio TT/H prédictives du RCM ont été définies à partir des courbes ROC (Receiver Operating Characteristics). Le SMet était présent chez 21,5 % et 16,1 % des participants, respectivement à Cotonou et à PAP. La prévalence d’OA était élevée à Cotonou (52,5 %) qu’à PAP (36%), avec une prévalence plus élevée chez les femmes que chez les hommes. Le profil lipidique sérique était plus athérogène à PAP avec 89,3 % d’HDL-c bas à PAP contre 79,7 % à Cotonou et un ratio CT/HDL-c élevé de 73,4 % à PAP contre 42 % à Cotonou. Les valeurs-seuils spécifiques de TT et du TT/H étaient respectivement 94 cm et 0,59 chez les femmes et 80 cm et 0,50 chez les hommes. Les analyses multivariées de l’OA avec les biomarqueurs de RCM les plus fortement prévalents dans ces deux populations montraient que l’OA était associée à un risque accru de résistance à l’insuline, d’athérogénicité et de tension artérielle élevée et ceci, indépendamment des facteurs socio-économiques et du mode de vie. Deux schémas alimentaires ont émergé, transitionnel et traditionnel, dans chaque ville, mais ceux-ci ne se révélaient pas associés aux biomarqueurs de RCM bien qu’ils soient en lien avec les variables socio-économiques. La présente étude confirme la présence de plusieurs biomarqueurs de RCM chez des sujets apparemment sains. En outre, l’OA est un élément clé du RCM dans ces deux populations. Les seuils actuels de TT devraient être reconsidérés éventuellement à la lumière d’études de plus grande envergure, afin de mieux définir l’OA chez les Noirs africains ou d’origine africaine, ce qui permettra une surveillance épidémiologique plus adéquate des biomarqueurs de RCM.
Resumo:
Les entreprises qui se servent des technologies de l’information et de la communication (TIC) pour innover mesurent des impacts très inégaux sur leurs performances. Cela dépend principalement de l’intensité, l’ampleur et la cohérence de l’innovation systémique auxquelles elles procèdent. En l’état de la connaissance, la littérature identifie le besoin de mieux comprendre cette notion d’alignement systémique. Cette thèse propose d’aborder cette question à l’aide de la notion d’innovation du modèle d’affaires. Une revue systématique de la littérature a été réalisée. D’un point de vue conceptuel, elle contribue à mieux définir le concept de modèle d’affaires, et a permis de réaliser une typologie des différents cadres de modélisation d’affaires. Le cadre conceptuel qui en est issu aborde le sujet de l’innovation du modèle d’affaires à trois niveaux : (1) stratégique à travers la proposition d’une matrice de positionnement de l’innovation de modèle d’affaires et l’identification de trajectoires d’innovation ; (2) configuration du modèle d’affaires à l’aide du cadre de modélisation tétraédrique de Caisse et Montreuil ; et (3) opérationnel-tactique par l’analyse des facteurs clés de succès et des chaines structurantes. Du fait du caractère émergeant de la littérature sur le sujet, la méthodologie choisie est une étude de cas comparés. Trois études de cas d’entreprises québécoises ont été réalisées. Elles oeuvrent dans des secteurs variés, et ont procédé à une innovation significative de leur modèle d’affaires en s’appuyant sur des TIC,. La recherche conclut à la pertinence de l’utilisation du concept de modèle d’affaires en ce qui concerne l’analyse de l’alignement systémique dans un contexte d’innovation appuyée sur les TIC. Neuf propositions de recherche sont énoncées et ouvrent la voie à de futures recherches
Resumo:
Ce mémoire présente l’information relative à l’efficacité de différents fossés avaloirs utilisés en milieu agricole. Son objectif principal est d’évaluer l’efficacité de trois bassins de sédimentation créés à l’aide de différents avaloirs. Pour ce faire la caractérisation de l’eau a été réalisée. La campagne d’échantillonnage et de prise de mesures a été réalisée durant la période estivale de l’année 2013. Le but de cette campagne est d’évaluer le débit, d’analyser les concentrations ainsi que les charges des matières en suspension, d’azote et de phosphore, et de caractériser la pluviométrie. Les résultats obtenus mettent en évidence quel type de fossé avaloir est le plus efficace pour retenir une partie des polluants, pour contrôler le débit de pointe et pour réduire l’impact de la pollution agricole.
Resumo:
Manger est un geste davantage relié aux sensations plutôt qu’aux cognitions. Les ateliers Les aventuriers du goût constituent l’objet de cette évaluation qui cible les enfants âgés de 5 à 7 ans en milieu scolaire dans la région de Sherbrooke. Les objectifs de l’étude sont de décrire 1) les effets des ateliers sur la reconnaissance des aliments, l’envie de goûter et le comportement alimentaire quant à la diversité du choix alimentaire, et de décrire 2) le comportement alimentaire des enfants tel que perçu par leurs parents. Un devis mixte d’évaluation comportant des observations faites avant et après les ateliers avec groupe témoin a été utilisé. Il en ressort que les ateliers ont favorisé la reconnaissance des aliments et l’attitude envers l’envie de goûter à de nouveaux aliments. L’éveil sensoriel au goût semble une avenue prometteuse pour favoriser la reconnaissance d’aliments, encourager la diversité ainsi que l’acquisition de saines habitudes alimentaires.
Resumo:
Après une période où la valeur des quotas laitiers a été en forte croissance au Québec, un plafond à cette valeur a été fixé à compter de 2007. Ce plafond a eu pour effet de limiter l’offre de quota sur le marché et la croissance de la taille des entreprises laitières québécoises. Cette situation soulève un questionnement sur l’efficience économique, le blocage de la croissance des entreprises les empêchant de bénéficier d’économies de taille, si bien entendu il en existe. En conséquence, cette étude s’intéresse aux économies de taille en production laitière en Amérique du Nord. Les économies de taille des entreprises ont été mesurées à l’aide d’une régression linéaire multiple à partir de certains indicateurs de coût monétaire et non monétaire. Cette analyse comprend quatre strates de taille formées à partir d’un échantillon non aléatoire de 847 entreprises du Québec, de l’État de New York et de la Californie, ainsi qu’à partir d’un groupe d’entreprises efficientes (groupe de tête). Les résultats démontrent l’existence d’économies de taille principalement au niveau des coûts fixes et plus particulièrement des coûts fixes non monétaires. Ils révèlent aussi que les deux indicateurs où l’effet des économies de taille est le plus important sont le coût du travail non rémunéré et l’amortissement. Par ailleurs, lorsque la taille d’une entreprise augmente, les économies de taille supplémentaires réalisées deviennent de moins en moins importantes. Enfin, les résultats indiquent qu’il existe des déséconomies de taille au niveau des coûts d’alimentation. Les résultats obtenus au niveau du groupe de tête vont dans le même sens. Ils confirment également qu’il est possible pour les grandes entreprises efficientes de réaliser des économies de taille pour la plupart des indicateurs de coût. Toutefois, les économies additionnelles que ces entreprises peuvent réaliser sont moins importantes que celles obtenues par les petites entreprises efficientes. Mots clés : Agriculture, production laitière, Amérique du Nord, économies de taille, efficience économique, régression linéaire.
Resumo:
Cette recherche porte sur l’étude paléoécologique d’une tourbière à palses, située à l’intérieur des terres, au-delà de la limite marine de la mer de Tyrrell, sur la rive nord du lac à l’Eau-Claire (Wiyâshâkimî en langue crie). L’objectif principal est de retracer l’impact des changements climatiques sur l’évolution temporelle de cet écosystème. L’analyse de macrorestes végétaux extraits de la tourbe accumulée depuis la déglaciation nous a permis de reconstituer l’évolution des conditions trophiques de la tourbière depuis sa formation. L’accumulation de la matière organique a débuté vers 6290 ans BP (années étalonnées). Par la suite l’évolution de la tourbière a suivi trois étapes successives: une étape d’étang (de 6290 à 5790 ans étal. BP), une étape de tourbière minérotrophe (de 5790 à 4350 ans étal. BP) et une étape de tourbière ombrotrophe (à partir de 4350 ans étal. BP). L’installation du pergélisol menant à la formation de la palse est survenue vers 160 ans étal. BP. La dégradation des palses et la formation subséquente d’une mare de thermokarst auraient été engendrées par le réchauffement climatique qui a commencé au début du siècle. Ainsi, l’étude de l’évolution de la mare de thermokarst située en marge de la tourbière à palse indique la succession de trois phases distinctes, subaquatique, minérotrophe et ombrotrophe. La comparaison de nos résultats avec ceux portant sur les tourbières à palses situées près de la baie d’Hudson et de la baie de James suggère que la continentalité n’a pas influencé d’une façon significative l’évolution de la tourbière du Lac à l’Eau-Claire.
Resumo:
L’objectif général de cet essai est de développer une approche de consultation et de participation du public pour les projets d’exploitation des ressources naturelles, applicable au domaine minier. Cet objectif s’insère dans un contexte où l’importance de l’acceptabilité sociale des projets d’exploitation des ressources naturelles est grandissante. De plus, le récent ajout de nouvelles exigences de consultation dans le domaine minier suscite, pour les entreprises minières, un besoin de lignes directrices pour améliorer les modalités de consultation. L’analyse de la revue de littérature sur les stratégies de communication existantes identifie d’abord deux principes clés à suivre au cours du processus. Le premier principe est la participation réelle des parties prenantes, laquelle va au-delà du simple recueil des préoccupations en faisant participer les parties prenantes à la réalisation même du projet. Le second principe est la transparence de l’entreprise, laquelle permet d’assurer que les parties prenantes exercent leur droit de faire des choix libres et éclairés. De l’analyse résulte ensuite une stratégie de participation et de consultation simple résumée en sept grandes étapes. La première étape est de faire des recherches préalables sur le milieu récepteur, lesquelles sont suivies par leur analyse et une prise de décision (seconde étape) à savoir si l’entreprise va de l’avant ou non avec le projet en fonction des enjeux potentiels identifiés. Si le projet va de l’avant, la troisième étape est de rencontrer les communautés autochtones présentes sur le territoire. Cette étape est en fait le début de la consultation des communautés autochtones, qui se fait en parallèle avec la consultation régulière. Lorsque ce processus est enclenché, il est possible d’élaborer le plan de consultation (quatrième étape) qui sera par la suite proposé aux parties intéressées lors des premières rencontres publiques. La cinquième étape représente la tenue des premières séances d’information au cours desquelles les candidatures pour la mise en place d’un comité consultatif doivent être recueillies. Le comité consultatif est l’outil principal recommandé pour intégrer les parties prenantes à la planification de projet. Une fois le comité consultatif démarré, le reste des activités de consultation peuvent être enclenchées (sixième étape). Il est recommandé de tenir deux processus de consultation, un dans le cadre de l’étude de préfaisabilité en phase d’exploration, et un dans le cadre de l’étude d’impact sur l’environnement. Enfin, une fois le processus de consultation et la planification du projet terminés, les différents mécanismes de suivi choisis avec les parties prenantes sont mis en place (septième étape). Les principaux mécanismes recommandés dans le cadre de cet essai sont le comité de suivi et le comité « d’après-mine ».
Resumo:
Depuis 20 ans, les demandes adressées au Programme d’Aide aux Membres du Barreau (PAMBA) sont en constante progression, passant de 120 demandes traitées annuellement en 1996, comparativement à 1 157 demandes en 2016 (PAMBA, 2006, 2016). Ces demandes concernaient notamment la dépression, l’anxiété, le stress, la toxicomanie et l’alcoolisme. En plus de ces problématiques, il s’avère que les avocats présenteraient une proportion plus élevée de dépression, d’alcoolisme, de toxicomanie et de suicide que les autres professionnels (Hill, 1998). Parallèlement, les modèles actuels en stress professionnel (Bakker & Demerouti, 2007; Demerouti, Bakker, Nachreiner, & Schaufeli, 2001; Karasek, 1979; Karasek & Theorell, 1990; Siegrist, 1996) parviennent difficilement à cerner la complexité des déterminants de la détresse psychologique au travail chez les professions issues de l’économie du savoir dont font partie les avocats. En effet, les modèles traditionnels en stress professionnel évacuent les conditions et les contraintes propres aux professions règlementées. De plus, très peu d’études ont été réalisées chez les avocats, et aucune n’a été menée au Québec. Ce mémoire a pour but principal d’identifier les facteurs de risque et de protection qui influencent le stress et la détresse psychologique chez les avocats membres du Barreau du Québec. Ainsi, la présente recherche qualitative de type descriptive et exploratoire a permis de cartographier les facteurs de risque et de protection au stress et à la détresse psychologique, de cartographier les manifestations physiques, psychologiques et comportementales découlant du stress et de la détresse et finalement, de préciser les déterminants susceptibles d’influencer la détresse psychologique chez les avocats du Québec à partir d’un modèle conceptuel de départ inspiré du modèle de Marchand (2004). Pour ce faire, 22 entrevues semi-dirigées ont été menées en Estrie et dans le Grand Montréal auprès de femmes et d’hommes provenant du secteur public ou privé. Une analyse du contenu thématique des données s’inspirant de méthodes propres à la théorisation ancrée fut réalisée à l’aide du logiciel QDA Miner. Prenant appui sur le modèle théorique général d’analyse de la santé mentale de Marchand (2004), l’analyse des résultats a permis d’identifier et de classer hiérarchiquement 158 facteurs de risque et de protection selon les niveaux macro, micro et méso. Il en ressort que la culture professionnelle (macro) de même que les demandes psychologiques, émotionnelles et contractuelles (méso) sont les catégories ayant le plus d’importance dans l’explication du stress et de la détresse psychologique chez les avocats du Québec. Ainsi, la culture professionnelle a principalement trait à la compétitivité dans le milieu juridique et aux impératifs professionnels liés à la performance. Les demandes psychologiques concernent particulièrement la surcharge de travail et d’urgences de même que la complexité des dossiers, alors que les demandes émotionnelles ont trait notamment à la charge émotive importante envers le client et à la difficulté d’établir un détachement personnel vis-à-vis des dossiers traités. Enfin, les demandes contractuelles sont le type de demandes comportant le plus de facteurs (13), dont la majorité constitue des facteurs de risque pour la santé mentale des praticiens interrogés. Elles concernent principalement les longues heures de travail, les heures facturables et la facturation ainsi que la méthode d’évaluation de rendement se basant principalement sur les objectifs d’heures facturables dans le secteur privé. Il est également ressorti que le genre et le secteur de pratique (privé ou publique) influenceraient les stress et la détresse psychologique. Enfin, les retombées théoriques et pratiques, les limites de cette étude de même que les avenues de recherches futures concluent le présent mémoire.
Resumo:
Cette thèse s’inscrit dans le contexte d’une optimisation industrielle et économique des éléments de structure en BFUP permettant d’en garantir la ductilité au niveau structural, tout en ajustant la quantité de fibres et en optimisant le mode de fabrication. Le modèle développé décrit explicitement la participation du renfort fibré en traction au niveau local, en enchaînant une phase de comportement écrouissante suivie d’une phase adoucissante. La loi de comportement est fonction de la densité, de l’orientation des fibres vis-à-vis des directions principales de traction, de leur élancement et d’autres paramètres matériaux usuels liés aux fibres, à la matrice cimentaire et à leur interaction. L’orientation des fibres est prise en compte à partir d’une loi de probabilité normale à une ou deux variables permettant de reproduire n’importe quelle orientation obtenue à partir d’un calcul représentatif de la mise en oeuvre du BFUP frais ou renseignée par analyse expérimentale sur prototype. Enfin, le modèle reproduit la fissuration des BFUP sur le principe des modèles de fissures diffuses et tournantes. La loi de comportement est intégrée au sein d’un logiciel de calcul de structure par éléments finis, permettant de l’utiliser comme un outil prédictif de la fiabilité et de la ductilité globale d’éléments en BFUP. Deux campagnes expérimentales ont été effectuées, une à l’Université Laval de Québec et l’autre à l’Ifsttar, Marne-la-Vallée. La première permet de valider la capacité du modèle reproduire le comportement global sous des sollicitations typiques de traction et de flexion dans des éléments structurels simples pour lesquels l’orientation préférentielle des fibres a été renseignée par tomographie. La seconde campagne expérimentale démontre les capacités du modèle dans une démarche d’optimisation, pour la fabrication de plaques nervurées relativement complexes et présentant un intérêt industriel potentiel pour lesquels différentes modalités de fabrication et des BFUP plus ou moins fibrés ont été envisagés. Le contrôle de la répartition et de l’orientation des fibres a été réalisé à partir d’essais mécaniques sur prélèvements. Les prévisions du modèle ont été confrontées au comportement structurel global et à la ductilité mis en évidence expérimentalement. Le modèle a ainsi pu être qualifié vis-à-vis des méthodes analytiques usuelles de l’ingénierie, en prenant en compte la variabilité statistique. Des pistes d’amélioration et de complément de développement ont été identifiées.
Resumo:
L’eau est un enjeu majeur en environnement autant d’un point de vue de sa qualité que de sa quantité. Cependant, des pénuries d’eau douce se font de plus en plus sentir à travers le monde. Par ailleurs, les États-Unis n’en sont pas exemptés. En effet, l’ouest du pays constate que les réserves diminuent constamment. Dans le passé, une compagnie californienne s’était déjà tournée vers le Canada afin d’en acheter une certaine quantité en vrac dans le dessein d’en assurer son approvisionnement. Le Québec, étant un voisin des Américains, ne peut se permettre d’écarter la question de l’exportation d’eau en vrac, d’autant plus qu’il est évident qu’une activité de cette envergure crée des impacts sur l’environnement et la société. C’est pourquoi cet essai a pour objectif d’identifier si la vente de l’eau douce en vrac du Québec vers les États-Unis implique des conséquences pour les citoyens québécois. Une analyse multicritère a été réalisée afin d’atteindre l’objectif principal de cet l’essai. Cette dernière consiste en l’évaluation des différents aspects de l’exportation d’eau douce selon une optique sociale. Ainsi, neuf critères ont été créés. Ils sont répartis en quatre catégories, soit sociale, économique, législative et les relations internationales. Suite aux résultats obtenus lors de l’évaluation des critères, il est possible d’affirmer que la vente de l’eau québécoise aurait des incidences sur la population. Cette analyse nous permet de conclure que, d’un côté, les citoyens accordent une grande valeur à la ressource et qu’ils seraient plutôt d’accord à exporter l’eau. Néanmoins, d’un autre côté, les critères concernant la relation de pouvoir entre le pays amont et celui aval ainsi que les conséquences qu’implique l’Accord de libre-échange nord-américain viennent causer des répercussions négatives pour les citoyens. Les principales conséquences négatives concernent davantage le milieu international. Par contre, le Québec a peu ou pas d’influence à ce niveau, c’est pourquoi l’ensemble des recommandations effectuées porte sur des dispositions que la province pourrait envisager à l’interne afin de limiter les incidences sur sa population et son environnement. L’accent est donc mis sur des mesures permettant de mieux gérer la ressource et de la consommer de manière responsable. Ainsi, il est recommandé de mettre en place une gestion intégrée de l’eau par bassin versant, de fixer une quantité maximale pour l’exportation, d’installer des compteurs d’eau, de revoir la facturation de l’eau et, finalement, communiquer l’information aux citoyens dans l’optique de les renseigner, mais aussi de les impliquer dans la protection de l’eau au Québec.
Resumo:
L’objectif principal de cet essai, destiné aux gestionnaires actuels et futurs de la berce du Caucase, est de proposer une meilleure gestion municipale et territoriale de l’espèce au Québec. La berce du Caucase est une espèce végétale exotique envahissante originaire d’Eurasie, introduite récemment dans la province et dont l’envahissement prend de l’ampleur. Son éradication ou du moins son contrôle est primordial, car cette espèce a un impact sanitaire considérable. En effet, elle provoque une phytophotodermatite à son contact, qui peut être sévère. La problématique est que les municipalités sont les acteurs de front dans la lutte contre la berce invasive et que les ressources actuelles pour supporter la gestion qu’elles font de l’espèce, sont limitées. De plus, les méthodes de contrôle et d’éradication à privilégier au Québec pour empêcher la propagation de la berce du Caucase et ultimement l’évincer de la province, ne sont pas encore validées. Elles sont présentement étudiées par le groupe de recherche QuéBERCE. L’analyse de la gestion actuelle des espèces exotiques envahissantes réalisée par les différents acteurs gouvernementaux et non gouvernementaux, à l’échelle nationale et provinciale de l’Ontario et du Québec, révèle dans un premier temps plusieurs lacunes. En effet, un manque de volonté politique, d’engagement et de soutien financier des actions locales contre l’espèce invasive par le gouvernement du Québec, a été démontré. Dans un deuxième temps, l’analyse de la gestion municipale de la berce du Caucase dans le cadre d’une étude de cas, ciblant trois municipalités, corrobore ces lacunes et met en lumière certaines difficultés rencontrées. Les délais serrés d’exécution des méthodes de contrôle et d’éradication sur le terrain, la formation adéquate des travailleurs, l’utilisation de la technique de lutte appropriée aux conditions du milieu, la propagation de l’espèce entre les frontières territoriales, l’aspect prévention et la règlementation municipale sont les principaux enjeux de gestion relevés. En conclusion, la lutte contre la berce du Caucase n’est pas aisée. Elle requiert un plan d’action adéquat, une bonne organisation sur le terrain, un certain niveau de connaissances et de formation de la part du gestionnaire municipal ou territorial, ainsi qu’un meilleur appui de la part du gouvernement. Certaines recommandations sont adressées aux gestionnaires, dont les suivantes : favoriser une gestion intégrée de l’espèce au territoire, participer aux formations du groupe QuéBERCE et réaliser plusieurs suivis des sites traités contre la berce exotique pour s’assurer de la réussite de l’intervention. Finalement, afin de lui permettre de réaliser un plan d’action efficient, il est recommandé au gouvernement provincial de modifier les pratiques actuelles du Québec en matière de gestion des espèces exotiques envahissantes. Notamment, d’élaborer une stratégie d’action contre la berce du Caucase, de créer un programme de financement adéquat pour soutenir les actions de lutte contre cette espèce à l’échelle municipale et territoriale et d’appuyer la mise en place d’un organisme phare dans la gestion des espèces invasives.
Resumo:
Les services rendus par la nature sont ébranlés par les activités économiques humaines, ce qui invite l’économie à changer de paradigme. L’économie circulaire dont découle la symbiose industrielle, comporte des espoirs de transition. Dans le cadre de l’essai, c’est la symbiose qui dévoilera ses propres pistes de mutation, par son modèle d’affaires. Celui-ci permet de détecter et de créer de la valeur dans les entreprises. Il existe plusieurs angles pour dévoiler le modèle d’affaires, mais c’est la perspective du système d’activité qui est sélectionnée. L’objectif principal de l’essai est d’explorer cette perspective, en l’appliquant sur une symbiose industrielle québécoise, soit celle du Centre local de développement de Brome-Missisquoi. Cette perspective est systémique et s’avère pertinente dans le contexte d’une symbiose. Puisque le modèle d’affaires permet de constater comment s’organise la symbiose pour créer de la valeur, le premier sous objectif est d’analyser celle-ci. En découle une étude comparative soulevant ses facteurs de succès et d’entrave. Les expériences de symbioses sont multiples et différenciées, mais certaines constantes peuvent être dégagées. Puisque son développement prend du temps, la mobilisation des acteurs comporte des défis. L’analyse de la rentabilité de la symbiose et de sa gouvernance peut outiller les intervenants pour faciliter son déploiement. Les retombées de la symbiose industrielle de Brome-Missisquoi sont positives. Afin de maintenir l’intérêt des participants et d’impulser la symbiose vers la pérennité, des recommandations sont formulées. Il est recommandé d’augmenter la diversité de ses parties prenantes de la symbiose, encadré par une réflexion stratégique co construite. La résilience de la symbiose en sera renforcie. Il importe de revenir sur la vision des membres et de développer leur compréhension du concept. Enfin, il est recommandé d’améliorer l’ancrage de la symbiose sur son territoire, en se greffant aux organisations déjà existantes, mais actuellement absentes du membariat. Des témoignages soulèvent des changements de pratiques notables chez certaines parties prenantes, ce qui semble indiquer que les symbioses industrielles favorisent le changement de paradigme.
Resumo:
Résumé : En raison de sa grande étendue, le Nord canadien présente plusieurs défis logistiques pour une exploitation rentable de ses ressources minérales. La TéléCartographie Prédictive (TCP) vise à faciliter la localisation de gisements en produisant des cartes du potentiel géologique. Des données altimétriques sont nécessaires pour générer ces cartes. Or, celles actuellement disponibles au nord du 60e parallèle ne sont pas optimales principalement parce qu’elles sont dérivés de courbes à équidistance variable et avec une valeur au mètre. Parallèlement, il est essentiel de connaître l'exactitude verticale des données altimétriques pour être en mesure de les utiliser adéquatement, en considérant les contraintes liées à son exactitude. Le projet présenté vise à aborder ces deux problématiques afin d'améliorer la qualité des données altimétriques et contribuer à raffiner la cartographie prédictive réalisée par TCP dans le Nord canadien, pour une zone d’étude située au Territoire du Nord-Ouest. Le premier objectif était de produire des points de contrôles permettant une évaluation précise de l'exactitude verticale des données altimétriques. Le second objectif était de produire un modèle altimétrique amélioré pour la zone d'étude. Le mémoire présente d'abord une méthode de filtrage pour des données Global Land and Surface Altimetry Data (GLA14) de la mission ICESat (Ice, Cloud and land Elevation SATellite). Le filtrage est basé sur l'application d'une série d'indicateurs calculés à partir d’informations disponibles dans les données GLA14 et des conditions du terrain. Ces indicateurs permettent d'éliminer les points d'élévation potentiellement contaminés. Les points sont donc filtrés en fonction de la qualité de l’attitude calculée, de la saturation du signal, du bruit d'équipement, des conditions atmosphériques, de la pente et du nombre d'échos. Ensuite, le document décrit une méthode de production de Modèles Numériques de Surfaces (MNS) améliorés, par stéréoradargrammétrie (SRG) avec Radarsat-2 (RS-2). La première partie de la méthodologie adoptée consiste à faire la stéréorestitution des MNS à partir de paires d'images RS-2, sans point de contrôle. L'exactitude des MNS préliminaires ainsi produits est calculée à partir des points de contrôles issus du filtrage des données GLA14 et analysée en fonction des combinaisons d’angles d'incidences utilisées pour la stéréorestitution. Ensuite, des sélections de MNS préliminaires sont assemblées afin de produire 5 MNS couvrant chacun la zone d'étude en totalité. Ces MNS sont analysés afin d'identifier la sélection optimale pour la zone d'intérêt. Les indicateurs sélectionnés pour la méthode de filtrage ont pu être validés comme performant et complémentaires, à l’exception de l’indicateur basé sur le ratio signal/bruit puisqu’il était redondant avec l’indicateur basé sur le gain. Autrement, chaque indicateur a permis de filtrer des points de manière exclusive. La méthode de filtrage a permis de réduire de 19% l'erreur quadratique moyenne sur l'élévation, lorsque que comparée aux Données d'Élévation Numérique du Canada (DNEC). Malgré un taux de rejet de 69% suite au filtrage, la densité initiale des données GLA14 a permis de conserver une distribution spatiale homogène. À partir des 136 MNS préliminaires analysés, aucune combinaison d’angles d’incidences des images RS-2 acquises n’a pu être identifiée comme étant idéale pour la SRG, en raison de la grande variabilité des exactitudes verticales. Par contre, l'analyse a indiqué que les images devraient idéalement être acquises à des températures en dessous de 0°C, pour minimiser les disparités radiométriques entre les scènes. Les résultats ont aussi confirmé que la pente est le principal facteur d’influence sur l’exactitude de MNS produits par SRG. La meilleure exactitude verticale, soit 4 m, a été atteinte par l’assemblage de configurations de même direction de visées. Par contre, les configurations de visées opposées, en plus de produire une exactitude du même ordre (5 m), ont permis de réduire le nombre d’images utilisées de 30%, par rapport au nombre d'images acquises initialement. Par conséquent, l'utilisation d'images de visées opposées pourrait permettre d’augmenter l’efficacité de réalisation de projets de SRG en diminuant la période d’acquisition. Les données altimétriques produites pourraient à leur tour contribuer à améliorer les résultats de la TCP, et augmenter la performance de l’industrie minière canadienne et finalement, améliorer la qualité de vie des citoyens du Nord du Canada.