847 resultados para Séquençage à haut-débit
Resumo:
L'Université Bishop's de Lennoxville est née d'un défi de l'anglicanisme de s'implanter dans une région colonisée par des Américains dans une province en majeure partie francophone. Troisième plus ancienne université du Québec, Bishop's célèbrera en décembre de cette année 1993, son 150 ième anniversaire. Bien qu'elle soit petite, avec un effectif de seulement 2000 étudiants, Bishop's quand même réussît à attirer des étudiants non seulement du Québec mais de toutes les autres provinces ainsi que de l'étranger. Le cas de Bishop's est unique étant donné qu'elle est la seule université anglophone du Québec établie dans une région rurale. De plus, n'offrant que des programmes de premier cycle, elle perd le pouvoir d'attraction des programmes de deuxième et troisième cycles ainsi que celui des facultés des professions libérales telles que le droit, le génie ou la médecine. Les responsables de l'université s'interrogent sur les raisons qui aujourd'hui amènent un étudiant à choisir Bishop's plutôt qu'une autre université pour entreprendre ses études. Leur problème n'est pas autant d'augmenter le nombre total d'étudiants inscrits que surtout celui de changer la composition du corps estudiantin afin qu'un plus grand pourcentage provienne de la province du Québec. Conscients de l'énorme potentiel que représente le marché francophone, ils voudraient tout en maintenant la participation présente des anglophones du Québec, développer des stratégies qui leur permettront d'attirer un plus grand nombre d'étudiants francophones. Les mesures prises par l'administration durant les deux dernières années académiques ont été d'accorder des proportions de plus en plus importantes du budget de recrutement aux cegeps francophones. Confrontés à notre tour à ce problème, nous avons décidé de le résoudre d'une manière plus globale et plus approfondie. Une revue préliminaire de la littérature s'est avérée insuffisante. La recherche dans ce domaine foisonne en études de préférences visant surtout à faire des prévisions au sujet des admissions futures dans le but d'attirer le plus de candidats possible sans se soucier de l'origine régionale, ethnique ou linguistique des étudiants. Afin d'attirer tel groupe d'étudiants plutôt qu'un autre, les responsables devraient tout d'abord enquêter sur les attributs d'une université qui sont importants pour chaque groupe et déterminer si ces attributs diffèrent d'un groupe à un autre. C'est pour cette raison que nous avons mené auprès des étudiants de Bishop's une étude de préférences afin de trouver le message qui doit être véhiculé lors des activités de recrutement. De plus, comme mentionné plus haut, les responsables consacrent une partie du budget à ces activités. Apporter un changement au corps étudiant devient par conséquent un problème de gestion des efforts de recrutement. Nous avons pour cela développé un modèle basé sur une fonction de réponse visant à établir une relation entre les demandes d'inscriptions et différentes autres variables telles que le potentiel du marché, les sommes allouées au recrutement, la distance qui sépare la région d'origine de Bishop's, et enfin un effet de langue qui différencierait la réponse des francophones de celle des anglophones. Ce modèle permet d'élaborer une règle de répartition du budget relativement facile à mettre en oeuvre et qui aiderait les responsables à optimiser la composition du corps étudiant.
Resumo:
La présente étude tend à vérifier s'il y a concordance ou non entre l'évolution du jugement moral général par rapport au jugement moral sexuel. Une brève revue de littérature de la pensée grecque à nos jours, ainsi qu'une traduction du sens du "moral" à travers les valeurs nous permet de nous situer au coeur de notre recherche. En première partie, il est présenté une synthèse des théories de Jean Piaget, Lawrence Kohlberg et Erik H. Erikson sur le jugement moral ainsi qu'un regard sur le développement psycho-sexuel afin de bien situer toutes les données sur lesquelles s'établira l'expérimentation dont il est fait état en deuxième partie. L'expérimentation sur le niveau du jugement moral général par rapport au jugement moral sexuel a été réalisée selon l'approche que Lawrence Kohlberg a développée en utilisant un nouvel instrument qui s'intitule: "Opinionnaire sur certains thèmes de relations humaines". Cette expérimentation fut réalisée auprès de 165 adolescents de secondaire 111, à l'intérieur des cadres d'une école polyvalente. Les données suivantes ont été observées : - le sexe (garçons - filles) - les secteurs (régulier - professionnel) - les âges (14 - 15 - 16 ans) - les strates sociales (pauvre - moyen - riche) - le tissu familial (couple uni - famille monoparentale - famille d'accueil). Les résultats de cette recherche indiquent qu'il n'y a aucune différence entre le jugement moral général et le jugement moral sexuel par rapport aux données énoncées ci-haut. Cependant, certaines différences ont été observées entre les secteurs et entre les 14 et 15-16 ans, ainsi qu'entre les riches et les moyens-pauvres. Des éléments intéressants sont ressortis de cette observation, tels que: - Les étudiants plus favorisés pécuniérement et socialement ont un niveau de jugement moral général et de jugement moral sexuel plus élevé que les autres. - Les étudiants de 14 ans présentent également un niveau de jugement moral général et de jugement moral sexuel plus élevé que ceux de 15 et 16 ans. Comme conclusion, nous croyons que la recherche ayant trait au jugement moral général par rapport au jugement moral sexuel est actuellement dépassée et qu'il y aurait lieu de s'intéresser à d'autres aspects comme, par exemple, les angles d'entrée et de sortie pour l'évolution d'un stade vers un autre.
Resumo:
Le travail occupe une place très importante dans la société industrialisée, ce concept est en constante évolution. Au cours des dernières décennies, le travail a connu deux révolutions importantes. La première fût celle de l'agriculture, la deuxième industrielle. Nous vivons présentement une troisième révolution, celle de la technologie. Le virage technologique amène des changements considérables sur le marché du travail aux plans économique, social et personnel. Depuis les trente dernières années, la technologie connaît des progrès immenses et ce, de façon soutenue et de plus en plus rapide. Plusieurs professions ont disparu, d'autres sont appelées à disparaître et la plupart subiront d'importantes modifications à cause de l'implantation de la nouvelle technologie. Par exemple, la secrétaire est passée de la machine à écrire manuelle conventionnelle à l'électrique, dorénavant, elle fait du traitement de texte sur ordinateur; presque tout son travail est informatisé. Elle aura à utiliser, dans les prochaines années, des appareils dont le plus haut degré de sophistication n'a pas été atteint. Les architectes et les ingénieurs ont troqué leur table à dessins pour l'ordinateur qui réalise leurs plans et croquis en deux fois moins de temps. Les tailleurs ne coupent plus les tissus avec des ciseaux mais avec des lasers ce qui apporte plus de précision et rapidité. Les exemples de ce type se comptent par milliers maintenant et l'avancement technologique progresse rapidement. Nous retrouvons ces traces partout même dans nos foyers (magnétoscopes, jeux vidéos, ordinateurs, fours à micro-ondes, etc.).
Resumo:
La présente thèse propose une étude expérimentale du décollement dans le diffuseur d’un modèle de turbine hydroélectrique bulbe. Le décollement se produit quand la turbine est opérée à forte charge et il réduit la section effective de récupération du diffuseur. La diminution de la performance du diffuseur à forte charge engendre une baisse brusque de l’efficacité de la turbine et de la puissance extraite. Le modèle réduit de bulbe est fidèle aux machines modernes avec un diffuseur particulièrement divergent. Les performances de la turbine sont mesurées sur une large gamme de points d’opération pour déterminer les conditions les plus intéressantes pour l’étude du décollement et pour étudier la distribution paramétrique de ce phénomène. La pression est mesurée le long de l’aspirateur par des capteurs dynamiques affleurants alors que les champs de vitesse dans la zone de décollement sont mesurés avec une méthode PIV à deux composantes. Les observations à la paroi sont pour leur part faites à l’aide de brins de laine. Pour un débit suffisant, le gradient de pression adverse induit par la géométrie du diffuseur affaiblit suffisamment la couche limite, entraînant ainsi l’éjection de fluide de la paroi le long d’une large enveloppe tridimensionelle. Le décollement instationnaire tridimensionnel se situe dans la même zone du diffuseur indépendamment du point d’opération. L’augmentation du débit provoque à la fois une extension de la zone de décollement et une augmentation de l’occurrence de ses manifestations. La position et la forme du front de décollement fluctue significativement sans périodicité. L’analyse topologique et celle des tourbillons des champs de vitesse instantanés montrent une topologie du front de décollement complexe qui diffère beaucoup d’une réalisation à l’autre. Bien que l’écoulement soit turbulent, les tourbillons associés aux foyers du front sont clairement plus gros et plus intenses que ceux de la turbulence. Cela suggère que le mécanisme d’enroulement menant aux tourbillons du décollement est clairement distinct des mécanismes de la turbulence.
Resumo:
Notre recherche porte sur une approche pédagogique qui nous a amenée à élaborer un matériel spécifique rejoignant l'image mentale auditive et l'image mentale visuelle chez les élèves de 2e secondaire. L'objectif de cette recherche est de vérifier si cette pédagogie permettrait à tous les élèves de réussir, si elle rendrait les résultats des groupes d'élèves plus homogènes et s'il serait possible grâce à elle d'atteindre un haut degré de satisfaction des élèves à l'égard du cours d'économie familiale. L'expérimentation a été réalisée auprès de quatre groupes, deux groupes expérimentaux et deux groupes témoins. Pour les groupes témoins, l'enseignement traditionnel ou exposé collectif a été utilisé. Pour les groupes expérimentaux, un enseignement favorisant la gestion mentale basée sur la théorie de La Garanderie avec un nouveau document pédagogique appuyé de matériel spécifique a été utilisé. Cette approche pédagogique s'appuie également sur la théorie de Bloom sur l'évaluation formative et sur l'évaluation sommative. Les analyses statistiques n'ont pas montré de différence significative entre les performances moyennes de chacun des groupes, sauf pour le groupe expérimental fort. Toutefois, nous pouvons remarquer une plus grande homogénéité chez les groupes expérimentaux et une plus grande satisfaction des élèves.
Resumo:
Selon Schaefer (1991), il y aurait un manque de connaissance des caractéristiques parentales qui seraient liées à la performance académique et aux habiletés adaptatives des élèves du primaire et du secondaire. Une meilleure compréhension de ces caractéristiques pourrait permettre d'intervenir directement sur le milieu d'éducation primaire du jeune, soit la famille, pour améliorer ses performances scolaires et ses comportements adaptatifs. Krieller, entre autres, (1976; voir Schaefer, 1991), s'est intéressé aux caractéristiques parentales : selon lui, les normes de comportements favorisés par les parents pour eux-mêmes et les enfants seraient directement liées aux croyances et aux comportements de l'enfant. Plusieurs chercheurs rapportent que des caractéristiques parentales telles le niveau d'éducation (Kohn, 1969, Alwin, 1984; voir Schaefer, 1991), les attitudes et les valeurs face à l'éducation (Schaefer et Edgerton, 1985; voir Schaefer, 1991), seraient liées aux pratiques éducatives des parents. Par exemple, l'autoritarisme parental serait lié à un faible niveau de scolarité des parents et à un système de valeurs axé sur l'encadrement rigide et l'obéissance, alors que le style parental démocratique serait lié à un plus haut niveau d'éducation et à des valeurs axées sur l'encadrement souple et l’autonomisation (Becker et Krug, 1985; voir Schaefer, 1991). D'autres chercheurs ont établi qu'il existait un lien entre le type de croyance parentale et les pratiques éducatives et la performance scolaire et l'adaptation des élèves (Baumrind, 1971, 1973; voir Dornbush, 1987 : Dornbuah, 1987, 1990, 1991, 1992); par exemple, les jeunes qui ont des parents démocratiques (qualité de la supervision) bénéficient d'une meilleure supervision et ils sont mieux adaptés et plus performants en milieu scolaire. L'ensemble des recherches précitées établit clairement qu'il existe des liens significatifs entre les croyances parentales, les pratiques éducatives et l'adaptation et la performance des jeunes en milieu scolaire.
Resumo:
L’isomérisation alcaline du lactose en lactulose a été effectuée électro-chimiquement à l’aide d’un réacteur d’électro-activation en combinaison avec des résines échangeuses d’anions de polystyrène de trois types; à savoir Lewatit VP-OC-1065 faible-acide, Lewatit MP-64 moyenne-acide et Lewatit Monoplus M500 forte-acide. Les paramètres opératoires qui ont fait l’objet de cette étude ont été étudiés sur trois blocs expérimentaux pour optimiser le système. Dans le Premier bloc, les paramètres étudiés sont : (1) ratio lactose-5%(p/v) : résine échangeuse d’anions (1:0.5, 1:1 et 1:2), (2) intensité du champ électrique : 50 mA, 100 mA et 200 mA et (3) type de résines : faible, moyenne et forte. Dans le Deuxième bloc, les paramètres mis à l’étude comprenaient : (1) l’intensité du champ électrique : 300 mA, 450 mA et 550 mA, (2) le débit de la solution traitée : 25 ml / min, 50 ml/ min et 100 ml/min et (3) la surface active de la membrane adjacente au compartiment cathodique : 0.78 cm2, 7.06 cm2 et 18.1 cm2. Le Troisième bloc expérimental a été effectué sur la base de la distance entre la membrane et l’électrode : 3.1 cm, 5.6 cm et 9 cm. Le même modèle expérimental a était également réalisé avec du perméat du lactosérum d’une concentration de 7% (p/v). Les résultats obtenus ont révélé que le meilleur rendement de l’isomérisation du lactose en lactulose était obtenu après 30 minutes d’électroactivation en utilisant une solution modèle de lactose-5% avec une valeur d’environ 20.1%. Les conditions opératoires qui ont permis d’avoir ce taux de conversion sont une intensité du courant de 550 mA, un débit de la solution de 25 ml/min, une surface active de la membrane de 7.06 cm2 et une distance de 9 cm entre la cathode et la membrane qui lui y est adjacente. En utilisant le perméat de lactosérum-7%, un taux de conversion de lactose en lactulose de 8.34% a était obtenu avec une intensité du courant de 200 mA, un débit de 120 ml/min, une surface active de de 18.1cm2 et une distance de 9 cm entre la membrane et l’électrode dans le compartiment cathodique. Les analyses de variance ont indiqué un effet catalytique significatif du type de la résine. En effet, la résine-forte a permis d’avoir les plus hauts rendements de la réaction d’isomérisation par électro-activation. La résistance électrique globale du système d’électroactivation dépendait de la valeur de l’intensité du courant. Le produit final était d’une grande pureté, car il ne présentait que quelques traces de galactose (< 4%).
Resumo:
Afin d’améliorer nos pratiques agricoles dans le contexte d’une agriculture durable, plusieurs agents de lutte biologique (ALB) ont été développés, testés et sont maintenant utilisés dans le monde pour combattre les pertes de rendements causées par les maladies. Blumeria graminis f. sp. hordei ( Bgh) est l’agent pathogène responsable du blanc de l’orge et peut réduire les rendements de cette culture jusqu’à 40%. Un champignon épiphyte, Pseudozyma flocculosa, a été découvert et identifié en 1987 en association étroite avec le blanc du trèfle. Les chercheurs ont alors remarqué que ce champignon exhibait une forte activité antagoniste contre le blanc en détruisant les structures de l’agent pathogène. Suite à d’autres travaux, il est apparu que ce comportement antagoniste était dirigé contre tous les membres des Erysiphales et semblait lié à la synthèse d’un glycolipide antifongique soit la flocculosine. Toutefois, on n’est toujours pas parvenus à associer l’efficacité de l’ALB avec la production de ce glycolipide. Ces observations suggèrent que d’autres facteurs seraient impliqués lorsque les deux protagonistes, l’ALB et le blanc, sont en contact. L’objectif principal de ce projet était donc de chercher d’autres mécanismes moléculaires pouvant expliquer l’interaction P. flocculosa-blanc et orge, en faisant une analyse transcriptomique complète des trois protagonistes en même temps. L’interaction tripartite a été échantillonnée à différents temps suivant l’inoculation de P. flocculosa sur des feuilles d’orge présentant déjà une intensité de blanc d’environ 50%. Les échantillons de feuilles prélevés ont ensuite été utilisés pour l’extraction de l’ARN qui ont été ensuite transformés en ADNc pour la préparation des librairies. Cinq répliquats ont été effectués pour chaque temps et le tout a été séquencé à l’aide de séquençage par synthèse Illumina HiSeq. Les séquences obtenues (reads) ont ensuite été analysées à l’aide du logiciel CLC Genomics Workbench. Brièvement, les séquences obtenues ont été cartographiées sur les trois génomes de référence. Suite à la cartographie, les analyses d’expression ont été conduites et les gènes exprimés de façon différentielle ont été recherchés. Cette étape a été conduite en portant une attention particulière aux gènes codant pour un groupe de protéines appelées CSEP pour “candidate secreted effector proteins” qui seraient possiblement impliquées dans l’interaction tripartite. Parmi les protéines exprimées de façon différentielle en présence du blanc ou en absence de ce dernier, nous avons pu constater que certaines CSEP étaient fortement exprimées en présence du blanc. Ces résultats sont prometteurs et nous offrent une piste certaine pour l’élucidation des mécanismes impliqués dans cette interaction tripartite.
Resumo:
Le secteur administratif se veut la scène d'innombrables transformations dont certaines affectent en profondeur la nature même des tâches et fonctions du personnel. Les travailleuses et travailleurs de bureau subissent, entre autres, les conséquences de ce remue-ménage quasi permanent dont l'informatique constitue l'un des principaux éléments bouleversants. Constamment en évolution, donc en changement, les individus doivent adapter leurs méthodes de travail, leurs horaires et leurs tâches de manière à répondre aux besoins des gestionnaires, eux-mêmes tributaires de systèmes économiquement et socialement instables. Devant cet état de fait, nous nous sommes demandé comment réagissait le personnel de soutien administratif. Partant du principe que de fréquentes innovations engendrent un haut niveau de stress, nous avons voulu identifier les principaux facteurs qui influencent négativement cette catégorie d'employées et employés. Pour ce faire, nous avons mené une recherche descriptive dont la population s'est limitée à la région de Rimouski. Après avoir effectué une revue de la littérature traitant de la problématique du stress et des conditions de travail en général, nous avons sélectionné 17 facteurs de stress et les avons analysés selon cinq variables précises et une classification préétablie de répondantes et de répondants. Les résultats obtenus indiquent qu'effectivement certains éléments causent et entretiennent un niveau de stress qualifié de négatif chez le personnel de soutien et ce, indépendamment des variables étudiées. Comme peu d'études se sont intéressées aux travailleuses et travailleurs de bureau jusqu'à ce jour, nous faisons un peu figure de pionnière et constatons que les pistes de recherche fourmillent pour qui veut connaître davantage les problèmes relatifs au stress chez le personnel de soutien administratif et y remédier éventuellement.
Resumo:
Cette étude de cas a pour but de vérifier, chez des enfants autistes, l'effet de l'intégration en milieu scolaire régulier sur la fréquence d'émissions des comportements d'isolement social, de ceux reliés aux troubles de la communication verbale et non verbale ainsi que les comportements stéréotypés. Deux enfants autistes, un garçon de quatre ans et une fillette de cinq ans, ont participé à cette étude. La fréquence d'émission des comportements mentionnés ci-haut a été observée à la maison, en classe spéciale ainsi qu'en classe régulière à l'aide d'une grille conçue spécialement pour les enfants autistes (EGA 111). La collecte d'informations a été effectuée à des périodes précises soit avant l'intégration scolaire (maison 1), au début de l'intégration (phase 1), un mois après l'intégration (phase 2) et deux mois après l'intégration (phase 3) enfin à la maison (maison 2). Vingt heures d'observation ont été collectées au total auprès de chaque enfant Une analyse graphique est utilisée pour présenter les résultats obtenus durant les différentes phases d'observation. Celle-ci est assortie d'une analyse non paramétrique de randomisation pour vérifier si la fréquentation d'un groupe de pairs régulier peut contribuer à diminuer significativement les problèmes de communication, d'émission de comportements stéréotypés et d'isolement social. Sauf une exception, les résultats obtenus démontrent que la fréquence d'émission des comportements d'isolement social, de ceux reliés aux troubles de la communication verbale et non verbale et des comportements stéréotypés diminue au cours de l'intégration scolaire en groupes réguliers et ce, tant en classe spéciale qu'en classe régulière chez chacun des enfants. Il est aussi remarquable de constater que les taux horaires d'émission de comportements d'isolement social, de communication verbale et non verbale ainsi que des activités motrices stéréotypées sont beaucoup plus fréquents en classe spéciale comparativement à la classe régulière. Ces résultats suggèrent que l'intégration au groupe de pairs régulier contribue à diminuer la fréquence d'émission de comportements susceptibles de nuire à la qualité de l'adaptation sociale et à l'apprentissage de nouvelles habiletés et qu'il y a généralisation des acquis en classe spéciale et à la maison.
Resumo:
Le monde agricole québécois célèbre cette année deux anniversaires d'importance: le cinquantenaire de la Corporation des agronomes de la province de Québec, fondée à Sherbrooke en 1937, et le centenaire du ministère de l'Agriculture qui existe comme entité administrative distincte depuis 1887. Si la présentation du présent mémoire coïncide avec ces deux anniversaires ce n'est que pur hasard, mais un hasard qui fait bien les choses me semble-t-il. Pourquoi avoir choisi un sujet comme le rôle du ministère de l'Agriculture de la province de Québec dans l'évolution de ce secteur économique entre 1852 et 1929? Une raison personnelle d'abord: je suis mariée à un agronome. L'agriculture est donc une partie intégrante de ma vie. Des raisons professionnelles aussi: l'histoire politique m'intéresse au plus haut point. En faisant le cours d'activité de recherches dirigée intitulé Mercier dans la presse québécoise, 1886-1891, j'ai découvert à ma grande surprise, que le ministère de l'Agriculture existe comme entité distincte depuis 1887 seulement. J'ai donc pensé qu'il serait intéressant de pousser mes recherches un peu plus loin, dans le cadre d'un mémoire de maîtrise, afin d'étudier le rôle qu'a pu jouer le ministère de l'Agriculture dans le processus de spécialisation agricole qui s'est amorcé aux XIX- siècle…
Resumo:
La possibilité d’estimer l’impact du changement climatique en cours sur le comportement hydrologique des hydro-systèmes est une nécessité pour anticiper les adaptations inévitables et nécessaires que doivent envisager nos sociétés. Dans ce contexte, ce projet doctoral présente une étude sur l’évaluation de la sensibilité des projections hydrologiques futures à : (i) La non-robustesse de l’identification des paramètres des modèles hydrologiques, (ii) l’utilisation de plusieurs jeux de paramètres équifinaux et (iii) l’utilisation de différentes structures de modèles hydrologiques. Pour quantifier l’impact de la première source d’incertitude sur les sorties des modèles, quatre sous-périodes climatiquement contrastées sont tout d’abord identifiées au sein des chroniques observées. Les modèles sont calés sur chacune de ces quatre périodes et les sorties engendrées sont analysées en calage et en validation en suivant les quatre configurations du Different Splitsample Tests (Klemeš, 1986;Wilby, 2005; Seiller et al. (2012);Refsgaard et al. (2014)). Afin d’étudier la seconde source d’incertitude liée à la structure du modèle, l’équifinalité des jeux de paramètres est ensuite prise en compte en considérant pour chaque type de calage les sorties associées à des jeux de paramètres équifinaux. Enfin, pour évaluer la troisième source d’incertitude, cinq modèles hydrologiques de différents niveaux de complexité sont appliqués (GR4J, MORDOR, HSAMI, SWAT et HYDROTEL) sur le bassin versant québécois de la rivière Au Saumon. Les trois sources d’incertitude sont évaluées à la fois dans conditions climatiques observées passées et dans les conditions climatiques futures. Les résultats montrent que, en tenant compte de la méthode d’évaluation suivie dans ce doctorat, l’utilisation de différents niveaux de complexité des modèles hydrologiques est la principale source de variabilité dans les projections de débits dans des conditions climatiques futures. Ceci est suivi par le manque de robustesse de l’identification des paramètres. Les projections hydrologiques générées par un ensemble de jeux de paramètres équifinaux sont proches de celles associées au jeu de paramètres optimal. Par conséquent, plus d’efforts devraient être investis dans l’amélioration de la robustesse des modèles pour les études d’impact sur le changement climatique, notamment en développant les structures des modèles plus appropriés et en proposant des procédures de calage qui augmentent leur robustesse. Ces travaux permettent d’apporter une réponse détaillée sur notre capacité à réaliser un diagnostic des impacts des changements climatiques sur les ressources hydriques du bassin Au Saumon et de proposer une démarche méthodologique originale d’analyse pouvant être directement appliquée ou adaptée à d’autres contextes hydro-climatiques.
Resumo:
Les spirales sont des appareils de séparation gravimétrique principalement utilisés dans l’industrie du traitement du minerai de fer. La classification des particules dans la pulpe s’effectue lors de la descente dans les spires en fonction de leur taille et leur densité, des conditions d’opération et de la géométrie de la spirale. L’effet des conditions d’opération (pourcentage solide, débit d’alimentation et débit d’eau de lavage) est évalué sur la performance des spirales en utilisant une spirale WW6E installée à COREM pour traiter un minerai de fer de ArcelorMittal, Québec. Les résultats montrent l’effet dominant du débit de l’eau de lavage et son impact majeur sur les particules grossières. Un circuit fermé de trois spirales parallèles avec 3, 5 et 7 tours est utilisé afin d’évaluer l’influence du nombre de tours. Les résultats préliminaires indiquent que la spirale trois tours fonctionne bien pour le nettoyage tandis que la 7 tour est robuste pour l’ébauchage et l’épuisage.
Resumo:
Cette recherche a pour objectif de mesurer la valeur marginale estimée par les investisseurs canadiens à la suite de l’ajout de 1 dollar d’encaisse, pour la période trimestrielle s’étalant de 2001 à 2013. Autrement dit, nous tentons d’évaluer si l’investisseur déprécie, estime à sa juste valeur nominale ou apprécie la valeur de 1 dollar de trésorerie, et ce à travers son impact sur la valeur marchande de l’équité. Parallèlement, nous tentons d’analyser l’influence des variables liées à la rentabilité, le financement, la croissance et le risque sur la valeur que place l’investisseur à l’ajout de 1 dollar d’encaisse. L’effet sectoriel sera notamment exploré sur l’ensemble de ces périodes. Des études passées ont démontré qu’il existe une asymétrie entre la valeur nominale de 1 dollar d’encaisse et celle estimée par les investisseurs. Plus précisément que l’ajout de 1 dollar de liquidité est évalué à prime. Somme toute, ces analyses affinent leurs résultats en tenant compte de l’influence des autres variables telles que mentionnées plus haut, afin de déterminer celles qui entraînent une appréciation de l’encaisse de celles qui conduisent à sa dépréciation. Nous avons conclu qu’en moyenne la valeur marginale de 1 dollar de liquidité est évaluée à 2,13$ par les investisseurs. Nous avons également pu prouver que les anticipations des investisseurs et le risque total influencent significativement cette estimation. Pour tenter de mesurer la valeur que place l’investisseur à l’ajout de 1 dollar d’encaisse, nous avons utilisé la méthodologie de Pinkowitz et Williamson (2002). Ce faisant, nous avons dans un premier temps mesuré l’impact net de l’encaisse sur la valeur marchande de l’équité en élimant du modèle les variables tenant compte des variations trimestrielles t-2 et t+2. L’hypothèse à vérifier en ce qui concerne l’impact net de l’encaisse est qu’il existe une asymétrie significative entre la valeur de 1 dollar et celle estimée par l’investisseur qui n’est pas uniquement provoquée par l’influence des variations passées et futures de l’encaisse. Les résultats obtenus nous ont permis de prouver que la valeur de 1 dollar d’encaisse est appréciée par l’investisseur, et ce malgré la suppression ou la présence des variables tenant compte des variations. Dans la même ligné, nous avons pu démontrer que, conjointement à l’encaisse au temps t, seules les variations liées aux anticipations des investisseurs impactaient significativement la valeur marchande de l’équité. En ce qui concerne le risque dont l’analyse s’est effectuée en dissociant le risque systématique du risque systémique. L’hypothèse à vérifier est qu’une augmentation du risque systématique entraîne une augmentation de la valeur de l’encaisse estimée par l’investisseur. Les résultats obtenus viennent appuyer cette affirmation. Quant au risque systémique, l’hypothèse à vérifier tente à affirmer qu’en période de crise l’encaisse est sous-estimée par l’investisseur et son impact sur la VME non significatif. Nos résultats nous conduisent à démontrer que pour la crise financière de 2006, cette hypothèse est justifiée, mais nous ne permettent pas de la vérifier pour chaque crise. Finalement, nous tenions à vérifier que dépendamment du secteur étudié, l’encaisse pouvait être plus appréciée par les investisseurs. Or, nos résultats ont montré qu’en présence de la liquidité aucun secteur ne se distingue significativement de ses pairs.
Resumo:
Pour assurer une gestion adéquate des écosystèmes nordiques à l’approche du développement de nouvelles activités économiques, le Centre d’expertise en analyse environnementale du Québec a pris l’initiative d’adapter certains de ses outils, plus particulièrement sa Procédure d’évaluation du risque écotoxicologique. En effet, bien que l’outil soit applicable au Québec méridional, des recommandations pour adapter la méthodologie au Nord en permettraient une utilisation plus judicieuse pour les divers intervenants utilisant cet outil de gestion de l’environnement. L’objectif de cet essai est d’identifier les aspects de l’outil devant être adaptés pour son application dans le Nord québécois et de proposer des recommandations pour y arriver. Ainsi, une première analyse des activités économiques en essor sur le territoire a permis d’identifier les substances qui pourraient être problématiques et pour lesquelles aucun critère de gestion ou de valeur toxicologique de référence n’est disponible au Québec, comme les métaux des terres rares, l’uranium et les fractions des hydrocarbures pétroliers. Une recherche approfondie sur les particularités du territoire à l’étude a permis, pour sa part, d’identifier des espèces écologiques représentatives et qui pourraient être utilisées comme récepteurs potentiels. À la suite de l’analyse de l’outil de gestion d’évaluation du risque écotoxicologique, trois recommandations principales ont pu être émises dans le but de l’adapter à ce territoire unique : 1) établir des critères de sols pour les contaminants susceptibles d’être émis dans le Nord québécois, 2) développer des valeurs toxicologiques de références pour le plus haut niveau de sensibilités pour ces mêmes substances et 3) recueillir les informations nécessaires sur des récepteurs nordiques clés pour pouvoir évaluer le risque écotoxicologique qu’ils courent. Finalement, un exemple d’application des recommandations, notamment l’utilisation de nouveaux récepteurs, tels que le caribou migrateur et le lièvre arctique, ainsi que l’utilisation de critères génériques et de valeurs toxicologiques de référence d’autres juridictions, a permis d’évaluer le risque pour un cas fictif en milieu nordique. Bien que le besoin d’investir des efforts de recherches pour pallier certaines lacunes ait été identifié, les recommandations proposées permettront de cibler ces efforts sur les éléments les plus problématiques pour permettre, finalement, d’adapter l’outil aux réalités des écosystèmes fragiles et uniques de ce territoire particulier.