780 resultados para Réseaux informatiques
Resumo:
Le développement au cours des dernières décennies de lasers à fibre à verrouillage de modes permet aujourd’hui d’avoir accès à des sources fiables d’impulsions femtosecondes qui sont utilisées autant dans les laboratoires de recherche que pour des applications commerciales. Grâce à leur large bande passante ainsi qu’à leur excellente dissipation de chaleur, les fibres dopées avec des ions de terres rares ont permis l’amplification et la génération d’impulsions brèves de haute énergie avec une forte cadence. Cependant, les effets non linéaires causés par la faible taille du faisceau dans la fibre ainsi que la saturation de l’inversion de population du milieu compliquent l’utilisation d’amplificateurs fibrés pour l’obtention d’impulsions brèves dont l’énergie dépasse le millijoule. Diverses stratégies comme l’étirement des impulsions à des durées de l’ordre de la nanoseconde, l’utilisation de fibres à cristaux photoniques ayant un coeur plus large et l’amplification en parallèle ont permis de contourner ces limitations pour obtenir des impulsions de quelques millijoules ayant une durée inférieure à la picoseconde. Ce mémoire de maîtrise présente une nouvelle approche pour l’amplification d’impulsions brèves utilisant la diffusion Raman des verres de silice comme milieu de gain. Il est connu que cet effet non linéaire permet l’amplification avec une large bande passante et ce dernier est d’ailleurs couramment utilisé aujourd’hui dans les réseaux de télécommunications par fibre optique. Puisque l’adaptation des schémas d’amplification Raman existants aux impulsions brèves de haute énergie n’est pas directe, on propose plutôt un schéma consistant à transférer l’énergie d’une impulsion pompe quasi monochromatique à une impulsion signal brève étirée avec une dérive en fréquence. Afin d’évaluer le potentiel du gain Raman pour l’amplification d’impulsions brèves, ce mémoire présente un modèle analytique permettant de prédire les caractéristiques de l’impulsion amplifiée selon celles de la pompe et le milieu dans lequel elles se propagent. On trouve alors que la bande passante élevée du gain Raman des verres de silice ainsi que sa saturation inhomogène permettent l’amplification d’impulsions signal à une énergie comparable à celle de la pompe tout en conservant une largeur spectrale élevée supportant la compression à des durées très brèves. Quelques variantes du schéma d’amplification sont proposées, et leur potentiel est évalué par l’utilisation du modèle analytique ou de simulations numériques. On prédit analytiquement et numériquement l’amplification Raman d’impulsions à des énergies de quelques millijoules, dont la durée est inférieure à 150 fs et dont la puissance crête avoisine 20 GW.
Resumo:
Actuellement au Québec, le contexte d’insertion professionnelle en enseignement représente plusieurs défis pour les enseignants débutants, et ce, en raison de multiples causes (p.ex. la précarité et le manque de soutien). Résultat : près de 15 % à 20 % d’entre eux quitteront la profession dans les cinq premières années de leur carrière et cette statistique ne cesse d’augmenter. Pour remédier à la situation, l’une des solutions envisagées est la mise en place de programmes d’insertion professionnelle (PIP) par les commissions scolaires, lesquels offrent différentes mesures de soutien telles que du mentorat, des ateliers de formation et des réseaux d’entraide en ligne. Cela dit, les modalités de mise en place de ces programmes varient grandement d’un milieu à l’autre, et ce, autant en ce qui a trait aux services offerts qu’à l’admission des candidats. De plus, ceux-ci ne sont généralement évalués que de façon informelle par le milieu. On ne sait donc pas si les enseignants débutants qui y participent se distinguent réellement quant à leur persévérance dans le métier, laquelle repose notamment sur leur motivation au travail, leur capacité de résilience et leur sentiment d’efficacité personnelle (SEP) en classe et à l’école (Bandura, 1997, 2007; Bélair & Lebel, 2007; Deci & Ryan, 1985, 2002; Fernet, Sénécal, Guay, Marsh, & Dowson, 2008; Zacharyas & Brunet, 2012). Ce projet de recherche vise d’une part à mesurer les différences sur le plan de ces variables chez les enseignants débutants participant ou non à un PIP. D’autre part, il vise également à mesurer la prédiction de ces variables par les différentes mesures de soutien offertes dans les PIP chez ceux qui y participent pour constater leur contribution respective dans un PIP. Pour ce faire, une étude préexpérimentale a été menée auprès de 86 participants. À l’aide d’un questionnaire, la motivation au travail, la capacité de résilience et le SEP en classe et à l’école ont été mesurés afin de comparer les résultats du groupe d’enseignants participant à un programme à ceux n’y participant pas. Une MANCOVA a d’abord été conduite avec ces variables et trois variables contrôles « avoir pensé quitter » le milieu d’enseignement, « ordre d’enseignement » et « expérience d’enseignement » comme covariables. Des régressions linéaires multivariées ont ensuite été menées à partir des mesures de soutien. Aucun résultat significatif n’a été obtenu quant aux différences entre les participants en fonction de la participation à un PIP ce qui est représentatif des résultats obtenus dans d’autres recherches sur le sujet (Ingersoll & Strong, 2011). Aucun résultat significatif n’a été obtenu concernant la prédiction des variables d’intérêt par les mesures de soutien.
Resumo:
Les zéolithes étant des matériaux cristallins microporeux ont démontré leurs potentiels et leur polyvalence dans un nombre très important d’applications. Les propriétés uniques des zéolithes ont poussé les chercheurs à leur trouver constamment de nouvelles utilités pour tirer le meilleur parti de ces matériaux extraordinaires. Modifier les caractéristiques des zéolithes classiques ou les combiner en synergie avec d’autres matériaux se trouvent être deux approches viables pour trouver encore de nouvelles applications. Dans ce travail de doctorat, ces deux approches ont été utilisées séparément, premièrement avec la modification morphologique de la ZSM-12 et deuxièmement lors de la formation des matériaux de type coeur/coquille (silice mésoporeuses@silicalite-1). La ZSM-12 est une zéolithe à haute teneur en silice qui a récemment attiré beaucoup l’attention par ses performances supérieures dans les domaines de l’adsorption et de la catalyse. Afin de synthétiser la ZSM-12 avec une pureté élevée et une morphologie contrôlée, la cristallisation de la zéolithe ZSM-12 a été étudiée en détail en fonction des différents réactifs chimiques disponibles (agent directeur de structure, types de silicium et source d’aluminium) et des paramètres réactionnels (l’alcalinité, ratio entre Na, Al et eau). Les résultats présentés dans cette étude ont montré que, contrairement à l’utilisation du structurant organique TEAOH, en utilisant un autre structurant, le MTEAOH, ainsi que le Al(o-i-Pr)3, cela a permis la formation de monocristaux ZSM-12 monodisperses dans un temps plus court. L’alcalinité et la teneur en Na jouent également des rôles déterminants lors de ces synthèses. Les structures de types coeur/coquille avec une zéolithe polycristalline silicalite-1 en tant que coquille, entourant un coeur formé par une microsphère de silice mésoporeuse (tailles de particules de 1,5, 3 et 20-45 μm) ont été synthétisés soit sous forme pure ou chargée avec des espèces hôtes métalliques. Des techniques de nucléations de la zéolithe sur le noyau ont été utilisées pour faire croitre la coquille de façon fiable et arriver à former ces matériaux. C’est la qualité des produits finaux en termes de connectivité des réseaux poreux et d’intégrité de la coquille, qui permet d’obtenir une stéréosélectivité. Ceci a été étudié en faisant varier les paramètres de synthèse, par exemple, lors de prétraitements qui comprennent ; la modification de surface, la nucléation, la calcination et le nombre d’étapes secondaires de cristallisation hydrothermale. En fonction de la taille du noyau mésoporeux et des espèces hôtes incorporées, l’efficacité de la nucléation se révèle être influencée par la technique de modification de surface choisie. En effet, les microsphères de silice mésoporeuses contenant des espèces métalliques nécessitent un traitement supplémentaire de fonctionnalisation chimique sur leur surface externe avec des précurseurs tels que le (3-aminopropyl) triéthoxysilane (APTES), plutôt que d’utiliser une modification de surface avec des polymères ioniques. Nous avons également montré que, selon la taille du noyau, de deux à quatre traitements hydrothermaux rapides sont nécessaires pour envelopper totalement le noyau sans aucune agrégation et sans dissoudre le noyau. De tels matériaux avec une enveloppe de tamis moléculaire cristallin peuvent être utilisés dans une grande variété d’applications, en particulier pour de l’adsorption et de la catalyse stéréo-sélective. Ce type de matériaux a été étudié lors d’une série d’expériences sur l’adsorption sélective du glycérol provenant de biodiesel brut avec des compositions différentes et à des températures différentes. Les résultats obtenus ont été comparés à ceux utilisant des adsorbants classiques comme par exemple du gel de sphères de silice mésoporeux, des zéolithes classiques, silicalite-1, Si-BEA et ZSM-5(H+), sous forment de cristaux, ainsi que le mélange physique de ces matériaux références, à savoir un mélange silicalite-1 et le gel de silice sphères. Bien que le gel de sphères de silice mésoporeux ait montré une capacité d’adsorption de glycérol un peu plus élevée, l’étude a révélé que les adsorbants mésoporeux ont tendance à piéger une quantité importante de molécules plus volumineuses, telles que les « fatty acid methyl ester » (FAME), dans leur vaste réseau de pores. Cependant, dans l’adsorbant à porosité hiérarchisée, la fine couche de zéolite silicalite-1 microporeuse joue un rôle de membrane empêchant la diffusion des molécules de FAME dans les mésopores composant le noyau/coeur de l’adsorbant composite, tandis que le volume des mésopores du noyau permet l’adsorption du glycérol sous forme de multicouches. Finalement, cette caractéristique du matériau coeur/coquille a sensiblement amélioré les performances en termes de rendement de purification et de capacité d’adsorption, par rapport à d’autres adsorbants classiques, y compris le gel de silice mésoporeuse et les zéolithes.
Resumo:
Les techniques des directions d’arrivée (DOA) sont une voie prometteuse pour accroitre la capacité des systèmes et les services de télécommunications en permettant de mieux estimer le canal radio-mobile. Elles permettent aussi de suivre précisément des usagers cellulaires pour orienter les faisceaux d’antennes dans leur direction. S’inscrivant dans ce contexte, ce présent mémoire décrit étape par étape l’implémentation de l’algorithme de haut niveau MUSIC (MUltiple SIgnal Classification) sur une plateforme FPGA afin de déterminer en temps réel l’angle d’arrivée d’une ou des sources incidentes à un réseau d’antennes. Le concept du prototypage rapide des lois de commande (RCP) avec les outils de XilinxTM System generator (XSG) et du MBDK (Model Based Design Kit) de NutaqTM est le concept de développement utilisé. Ce concept se base sur une programmation de code haut niveau à travers des modèles, pour générer automatiquement un code de bas niveau. Une attention particulière est portée sur la méthode choisie pour résoudre le problème de la décomposition en valeurs et vecteurs propres de la matrice complexe de covariance par l’algorithme de Jacobi. L’architecture mise en place implémentant cette dernière dans le FPGA (Field Programmable Gate Array) est détaillée. Par ailleurs, il est prouvé que MUSIC ne peut effectuer une estimation intéressante de la position des sources sans une calibration préalable du réseau d’antennes. Ainsi, la technique de calibration par matrice G utilisée dans ce projet est présentée, en plus de son modèle d’implémentation. Enfin, les résultats expérimentaux du système mis à l’épreuve dans un environnement réel en présence d’une source puis de deux sources fortement corrélées sont illustrés et analysés.
Resumo:
Le journalisme informatique est une pratique émergente qui consiste en l’emploi de méthodes et d’outils empruntés au domaine de l’informatique dans la cueillette, le traitement, l’analyse ou la présentation en ligne de l’information, dans le respect des valeurs fondamentales du journalisme (Diakopoulos, 2010). Cette recherche caractérise le journalisme informatique tel qu’il se pratique au Québec en 2015 au moyen d’une série d’entrevues semi-dirigées avec 30 participants : des praticiens, bien sûr, mais aussi des responsables des principales entreprises de presse où le journalisme informatique est pratiqué ou a été pratiqué, ainsi que des professionnels de l’informatique afin d’avoir un point de vue extérieur. Elle met notamment en relief deux attitudes à l’égard de cette pratique, attitudes qui s’expriment par un travail-frontière. Il y a, d’une part, les tenants d’une ségrégation entre le journalisme et l’informatique, et, d’autre part, les partisans d’une hybridation entre les deux disciplines. Pour ces derniers, le journalisme informatique occupe un territoire professionnel distinct, à la frontière du journalisme et de l’informatique. Cette recherche décrit de façon détaillée les motivations, les compétences et les activités des journalistes informatiques québécois et fait valoir qu’ils participent à une certaine « re-professionnalisation » du journalisme. Mots-clés : journalisme; informatique; technologie; journalisme informatique; journalisme de données; datajournalisme; journalisme assisté par ordinateur; professionnalisme; identité professionnelle; compétences professionnelles; travail-frontière; innovation en journalisme; Canada; Québec
Resumo:
Méthodologie: Simulation; Analyse discriminante linéaire et logistique; Arbres de classification; Réseaux de neurones en base radiale
Resumo:
En juin 2009, le colloque de l'Association québécoise de pédagogie collégial (AQPC) portait le titre Pour des apprentissages durables. Les participants et participantes du colloque échangeaient donc sur les moyens qui peuvent être mis en place pour que les étudiants et étudiantes gardent les connaissances acquises sur le long terme. Lors de ce colloque, plusieurs ateliers et conférences ont porté sur les méthodes d'enseignement novatrices comme l'apprentissage par projet. Toutefois, très peu ont touché au potentiel des émotions vécues dans une classe pour favoriser l'élaboration de la mémoire à long terme. Notre recherche porte précisément sur ce thème. Elle se situe dans le cadre d'un cours de biologie obligatoire pour tous les étudiants et étudiantes du programme de Sciences de la nature : Évolution et diversité du vivant (101-NYA-05). La problématique a été établie à partir de certaines observations faites dans trois collèges où le chercheur principal a oeuvré. Il s'agit du Cégep de Victoriaville, du Cégep François-Xavier-Garneau et du Cégep de Lévis-Lauzon. C'est toutefois à l'intérieur du Cégep de Lévis-Lauzon que la recherche a été menée. Parmi ces observations, on note d'abord qu'à l'intérieur des cours de biologie en général, l'exposé magistral occupe une place importante. Certains problèmes reliés à l'abandon du cours Évolution et diversité du vivant ou aux taux de réussite reliés à ce cours ont également été observés. Enfin, l'action des enseignants et enseignantes porte surtout sur le traitement cognitif des contenus, les émotions étant peu prises en considération. Il est de notre avis que faire plus de place aux émotions en classe —notamment durant l'exposé magistral — pourrait améliorer le processus de mémorisation à long terme ce qui pourrait avoir un impact éventuel sur les taux de réussite. Cela nous a amenés à formuler l'objectif général de notre recherche qui est d'établir un lien entre ce qui est conservé dans la mémoire à long terme et les émotions qui ont pu être vécues par les étudiantes et étudiants lors de l'apprentissage dans le cadre du cours Évolution et diversité du vivant. Le cadre de référence sur lequel s'est appuyée notre recherche repose en premier lieu sur le développement de deux concepts : émotions et mémoire. Nous avons d'abord défini le concept d'émotion, établi une liste de mots permettant l'expression d'émotions et mis en relief les relations qui existent entre les émotions et la cognition. Nous avons ensuite défini le concept de mémoire et en avons présenté les divers types. En deuxième lieu, nous avons présenté les structures cérébrales ainsi que les mécanismes biochimiques qui interviennent lors de l'élaboration de la mémoire à long terme. Le rôle des structures cérébrales impliquées dans les émotions sur la formation de réseaux neuronaux associés à la mémoire y a notamment été exposé. Enfin, des études menées en milieu scolaire portant sur le rôle des émotions en classe ont été présentées. Pour répondre à l'objectif général de notre recherche, nous avons opté pour une recherche qualitative descriptive. Treize étudiants et étudiantes du programme de Sciences de la nature du Cégep de Lévis-Lauzon ont accepté de participer à une entrevue de type semi-dirigé. Ces étudiantes et étudiants étaient tous en dernière session du programme ce qui laissait un écart d'au moins treize mois entre la fin du cours Évolution et diversité du vivant et la participation à l'entrevue. Au cours des entretiens, les participants et participantes avaient à identifier les trois éléments de contenu relié au cours qu'ils avaient le mieux conservés en mémoire. Ils devaient également identifier des émotions vécues à l'intérieur du même cours. Ils pouvaient également présenter des exemples vécus de lien émotion-mémoire dans le cadre du même cours. Les entrevues ont été transcrites et les contenus analysés par segmentation des unités de sens. Les résultats de notre recherche montrent que les participants et participantes de notre étude accordent une grande importance au rôle que jouent les émotions vécues en classe sur leur capacité de mémorisation. À cet égard, plusieurs éléments de contenus identifiés ont pu être reliés à des émotions vécues en classe. Par exemple, la génétique et la sélection naturelle ont fréquemment été reliées à l'amusement ou au plaisir. La surprise est également une émotion qui a été associée à plusieurs éléments de contenu. Il faut toutefois préciser que dans certains cas, les éléments de contenus identifiés n'avaient pas liens évidents avec des émotions vécues en classe. Dans ces cas, le travail personnel a pu avoir un impact positif par exemple. Toutefois, il est clair selon les participants et participantes que les émotions vécues en classe ont pu avoir un rôle déterminant sur la mémorisation de certains éléments de contenus identifiés. Notre analyse permet d'en venir à la même conclusion. À partir de l'analyse des entrevues et des liens qui ont été établis par les participants et participantes entre les émotions vécues et les éléments de contenus mémorisés, nous avons élaboré un répertoire comprenant cinq catégories d'outils permettant de favoriser la construction de la mémoire à long terme en agissant via les émotions vécues en classe. Ces catégories sont l'humour; les actions de l'enseignant ou l'enseignante; les témoignages; les personnifications et les comparaisons; et finalement, les activités et les jeux. Bien que notre recherche se situe dans le contexte d'un cours de biologie propre au programme de Sciences de la nature, le répertoire développé est suffisamment vaste pour être utile, dans des conditions semblables, à l'enseignement d'autres cours au sein de la communauté collégiale. L'exploitation du potentiel des émotions vécues en classe ne peut être considérée comme la recette qui règle tous les problèmes reliés aux apprentissages durables. Cette exploitation peut néanmoins représenter un outil pédagogique intéressant pour quiconque se sentirait à l'aise de l'utiliser.
Resumo:
Cet essai traite des stratégies pédagogiques utilisant des fonctionnalités disponibles dans des environnements numériques d’apprentissage (ENA) en enseignement hybride dans le réseau collégial. Les enseignantes et les enseignants du réseau collégial ont recours aux ENA en tant que médias d’enseignement et d’apprentissage depuis plusieurs années, mais les données montrent des différences importantes dans leur préférence pour les différents outils disponibles. Si la remise des notes est la plus utilisée, d’autres fonctionnalités qui ont pourtant un fort potentiel pédagogique restent peu ou pas exploitées. Parmi les facteurs qui peuvent expliquer cette relative sous-exploitation des ENA, cet essai identifie un manque de ressources pour accompagner les enseignantes et les enseignants dans l’intégration d’un environnement numérique d’apprentissage (ENA) en enseignement hybride au collégial. Pour pallier ce manque, l’essai pose comme question de recherche : « Quelles sont les stratégies d’utilisation des fonctionnalités des environnements numériques d’apprentissage (ENA) à encourager pour l'exploitation optimale de leur potentiel pédagogique en contexte d’enseignement hybride au collégial »? Le but de cet essai est donc de proposer un ensemble de pratiques optimales exploitant de la manière la plus efficace possible les fonctionnalités des ENA en enseignement hybride dans le réseau collégial. Pour y arriver, le premier objectif est de recenser et de classer des pratiques pédagogiques utilisant ces fonctionnalités. Le deuxième objectif de l’essai est d’analyser les pratiques recensées selon un cadre de référence mis au point à partir de trois sources. La première est la métarecherche que Barrette (2011, 2009, 2005) réalise pour le compte de l’Association pour la recherche au collégial; la deuxième est le modèle de la motivation scolaire de Viau (2009) et la troisième est le modèle des « valeurs ajoutées » de l’équipe de Docqs, Lebrun et Smidts (2010). L’analyse des correspondances entre les pratiques recensées et les conditions posées comme des critères d’efficacité par le cadre de référence permet d’atteindre le troisième objectif de cet essai qui est de dégager des stratégies optimales d’utilisation. Axé sur le pôle de la recherche, cet essai procède par études de cas. Son corpus est constitué de 99 récits de pratiques publiés sur le site de Profweb. La sélection de ces récits s’est faite en effectuant des recherches par mots-clés pertinents dans l’ensemble des récits publiés. L’essai réalise l’analyse des récits à partir de 17 fonctionnalités et d’une dix-huitième situation correspondant à l’utilisation combinée de plusieurs fonctionnalités au sein d’un ENA. Une synthèse des pratiques recensées pour chacune des 18 fonctionnalités dégage un schème, c’est-à-dire un ensemble type de pratiques. L’examen des 18 schèmes de pratiques révèle que certains correspondent plus que d’autres aux critères d’efficacité fournis par le cadre de référence. Ainsi, les schèmes de pratiques rapportés par les auteurs de récits dans Profweb indiquent que l’utilisation de plusieurs fonctionnalités combinées au sein d’un ENA, ou l’utilisation des forums ou celle du portfolio satisfont mieux aux critères d’efficacité que l’utilisation du courriel ou que celle de la correction numérique. Les résultats de cet essai indiquent aussi qu’il y a dans les récits une prépondérance de pratiques pédagogiques inspirées du socioconstructivisme et que dans leur ensemble, ces pratiques sont centrées sur l’apprentissage et favorisent la motivation scolaire. Les récits étudiés indiquent aussi un haut niveau de satisfaction à l’égard des équipements informatiques utilisés. En même temps, ces récits font état fréquemment d’un manque d’expérience et d’un besoin de formation de la part des enseignantes et des enseignants. Pour satisfaire le besoin de formation mentionné dans les récits, l’essai propose des pratiques optimales en matière d’utilisation des fonctionnalités d’un ENA en enseignement hybride. Une pratique optimale consiste à identifier pour chacun des schèmes de pratique les critères d’efficacité pertinents dégagés du cadre d’analyse, critères effectivement pris en compte dans les récits ou qui auraient dû l’être. L’examen des récits de pratiques révèle aussi que les critères d’efficacité ne sont pas pris en compte simultanément et qu’il existe une feuille de route, une procédure dont chacune des étapes offre l’occasion de considérer certains critères plutôt que d’autres. L’essai suggère une séquence pour la prise en compte des critères d’efficacité lors de la planification et du déroulement d’une activité pédagogique exploitant des fonctionnalités d’ENA en enseignement hybride. La confection du répertoire des 18 pratiques optimales en matière d’utilisation pédagogique des fonctionnalités d’un ENA constitue un apport nouveau et utile pour répondre au besoin des enseignantes et des enseignants de se former à une utilisation stratégique de ces outils. Un tel répertoire peut constituer le coeur d’un guide de formation et d’intervention que les conseillères et conseillers technopédagogiques du réseau collégial utiliseront avec empressement.
Resumo:
Ce projet porte, dans un souci d’efficacité énergétique, sur la récupération d’énergie des rejets thermiques à basse température. Une analyse d’optimisation des technologies dans le but d’obtenir un système de revalorisation de chaleur rentable fait objet de cette recherche. Le but sera de soutirer la chaleur des rejets thermiques et de la réappliquer à un procédé industriel. Réduire la consommation énergétique d’une usine entre habituellement en conflit avec l’investissement requis pour les équipements de revalorisation de chaleur. Ce projet de maitrise porte sur l’application d’optimisations multiobjectives par algorithme génétique (GA) pour faciliter le design en retrofit des systèmes de revalorisation de chaleur industrielle. L’originalité de cette approche consiste à l’emploi du «fast non-dominant sorting genetic algorithm» ou NSGA-II dans le but de trouver les solutions optimales entre la valeur capitale et les pertes exergétiques des réseaux d’échangeurs de chaleur et de pompes à chaleur. Identifier les solutions optimales entre le coût et l’efficacité exergétique peut ensuite aider dans le processus de sélection d’un design approprié en considérant les coûts énergétiques. Afin de tester cette approche, une étude de cas est proposée pour la récupération de chaleur dans une usine de pâte et papier. Ceci inclut l’intégration d’échangeur de chaleur Shell&tube, d’échangeur à contact direct et de pompe à chaleur au réseau thermique existant. Pour l’étude de cas, le projet en collaboration avec Cascades est constitué de deux étapes, soit de ciblage et d’optimisation de solutions de retrofit du réseau d’échangeur de chaleur de l’usine de tissus Cascades à Kinsley Falls. L’étape de ciblage, basée sur la méthode d’analyse du pincement, permet d’identifier et de sélectionner les modifications de topologie du réseau d’échangeurs existant en y ajoutant de nouveaux équipements. Les scénarios résultants passent ensuite à l’étape d’optimisation où les modèles mathématiques pour chaque nouvel équipement sont optimisés afin de produire une courbe d’échange optimal entre le critère économique et exergétique. Pourquoi doubler l’analyse économique d’un critère d’exergie? D’abord, parce que les modèles économiques sont par définition de nature imprécise. Coupler les résultats des modèles économiques avec un critère exergétique permet d’identifier des solutions de retrofit plus efficaces sans trop s’éloigner d’un optimum économique. Ensuite, le rendement exergétique permet d’identifier les designs utilisant l’énergie de haute qualité, telle que l’électricité ou la vapeur, de façon plus efficace lorsque des sources d’énergie de basse qualité, telles que les effluents thermiques, sont disponibles. Ainsi en choisissant un design qui détruit moins d’exergie, il demandera un coût énergétique moindre. Les résultats de l’étude de cas publiés dans l’article montrent une possibilité de réduction des coûts en demande de vapeur de 89% tout en réduisant la destruction d’exergie de 82%. Dans certains cas de retrofit, la solution la plus justifiable économiquement est également très proche de la solution à destruction d’exergie minimale. L’analyse du réseau d’échangeurs et l’amélioration de son rendement exergétique permettront de justifier l’intégration de ces systèmes dans l’usine. Les diverses options pourront ensuite être considérées par Cascades pour leurs faisabilités technologiques et économiques sachant qu’elles ont été optimisées.
Resumo:
Résumé : c-Myc est un facteur de transcription (FT) dont les niveaux cellulaires sont dérégulés dans la majorité des cancers chez l’homme. En hétérodimère avec son partenaire obligatoire Max, c-Myc lie préférentiellement les séquences E-Box (CACGTG) et cause l’expression de gènes impliqués dans la biosynthèse des protéines et des ARNs, dans le métabolisme et dans la prolifération cellulaire. Il est maintenant bien connu que c-Myc exerce aussi son potentiel mitogène en liant et inhibant différents FTs impliqués dans l’expression de gènes cytostatiques. Entre autres, c-Myc est en mesure d’inhiber Miz-1, un FT comportant 13 doigts de zinc de type Cys2-His2 (ZFs) impliqué dans l’expression de plusieurs gènes régulateurs du cycle cellulaire comprenant les inhibiteurs de CDK p15[indice supérieur INK4], p21[indice supérieur CIP1] et p57[indice supérieur KIP2]. Plus récemment, il fut démontré qu’en contrepartie, Miz-1 est aussi en mesure de renverser les fonctions activatrices de c-Myc et de prévenir la prolifération de cellules cancéreuses dépendantes de c-Myc. Ces différentes observations ont mené à la suggestion de l’hypothèse intéressante que la balance des niveaux de Miz-1 et c-Myc pourrait dicter le destin de la cellule et a permis d’établir Miz-1 comme nouvelle cible potentielle pour le développement d’agents anti-cancéreux. Malgré le fait que ces deux protéines semblent centrales à la régulation du cycle cellulaire, les mécanismes moléculaires leur permettant de s’inhiber mutuellement ainsi que les déterminants moléculaires permettant leur association spécifique demeurent assez peu documentés pour le moment. De plus, la biologie structurale de Miz-1 demeure à être explorée puisque qu’aucune structure de ses 13 ZFs, essentiels à sa liaison à l’ADN, n’a été déterminée pour l’instant. Les travaux réalisés dans le cadre cette thèse visent la caractérisation structurale et biophysique de Miz-1 dans le contexte de la répression génique causée par le complexe c-Myc/Miz-1. Nous présentons des résultats d’éxpériences in vitro démontrant que Miz-1 interagit avec c-Myc via un domaine contenu entre ses ZFs 12 et 13. De plus, nous démontrons que Miz-1 et Max sont en compétition pour la liaison de c-Myc. Ces résultats suggèrent pour la permière fois que Miz-1 inhibe les activités de c-Myc en prévenant son interaction avec son partenaire obligatoire Max. De plus, ils laissent présager que que Miz-1 pourrait servir de référence pour le développement d’inhibiteurs peptidiques de c-Myc. Finalement, nous avons réalisé la caractérisation structurale et dynamique des ZFs 1 à 4 et 8 à 10 de Miz-1 et avons évalué leur potentiel de liaison à l’ADN. Les résultats obtenus, couplés à des analyses bio-informatiques, nous permettent de suggérer un modèle détaillé pour la liaison spécifique de Miz-1 à son ADN consensus récemment identifié.
Resumo:
Des sites de visionnement de contenu audio-vidéo en temps-réel comme YouTube sont devenus très populaires. Le téléchargement des fichiers audio/vidéo consomme une quantité importante de bande passante des réseaux Internet. L’utilisation de codecs à bas débit permet de compresser la taille des fichiers transmis afin de consommer moins de bande passante. La conséquence est une diminution de la qualité de ce qui est transmis. Une diminution de qualité mène à l’apparition de défauts perceptibles dans les fichiers. Ces défauts sont appelés des artifices de compression. L’utilisation d’un algorithme de post-traitement sur les fichiers sonores pourrait augmenter la qualité perçue de la musique transmise en corrigeant certains artifices à la réception, sans toutefois consommer davantage de bande passante. Pour rehausser la qualité subjective des fichiers sonores, il est d’abord nécessaire de déterminer quelles caractéristiques dégradent la qualité perceptuelle. Le présent projet a donc pour objectif le développement d’un algorithme capable de localiser et de corriger de façon non intrusive, un artifice provoqué par des discontinuités et des incohérences au niveau des harmoniques qui dégrade la qualité objective dans les signaux sonores compressés à bas débits (8 – 12 kilobits par seconde).
Resumo:
L’objet de cette recherche concerne le développement de l’expertise enseignante chez les enseignantes et les enseignants d’histoire au secondaire. Une recension des écrits nous a permis d’identifier des aspects qui contribuent au développement professionnel comme les réseaux professionnels, la formation continue ou congrès, le mentorat, des lectures d’ouvrages spécialisés, des collègues de travail et l’expérience. L’objectif de recherche était d’identifier, auprès d’enseignantes et d’enseignants d’histoire au secondaire, quels sont les aspects et les expériences professionnelles qui ont contribué au développement de leur expertise professionnelle. Cette recherche, dite qualitative/interprétative de type exploratoire, repose sur la stratégie du récit de vie. Les participants sont quatre enseignants d’histoire au secondaire considérés comme experts. L’entrevue semi-dirigée a permis de colliger des données qualitatives quant aux aspects et aux expériences professionnelles ayant contribué au développement de leur expertise enseignante. Les résultats de recherche indiquent que les aspects ciblés au départ ont influencé à divers degrés le cheminement des experts participants. D’autres aspects ont émergé comme étant marquants dans le développement professionnel comme la passion ou l’intérêt pour l’enseignement de l’histoire, la qualité des relations tant avec les élèves qu’avec les collègues et la capacité de réfléchir sur sa pratique. Toutefois, trois aspects favorisent plus particulièrement le développement de l’expertise soit l’expérience, les compétences professionnelles en enseignement qui regroupent la préparation de cours, la réflexion sur sa pratique et la relation maitre/élève puis les collègues de travail. Cette recherche est utile parce qu’elle apporte un éclairage sur les aspects contribuant au développement de l’expertise enseignante et peut ouvrir la voie vers une autre étude qui mettrait en évidence les différences entre les voies empruntées pour développer cette dernière.
Resumo:
L’objectif global de cette étude est de déterminer l’impact de la crise de la dette souveraine européenne sur les titres boursiers des six banques d’importance systémique (D-Sibs) canadiennes et celles des pays PIIGS (Portugal, Irlande, Italie, Grèce & Espagne). À cet effet, nous avons échantillonné nos données entre le 1er janvier 2002 au 31 décembre 2015 pour séparer notre fenêtre temporelle en cinq sous-périodes et ce, dans le but d’isoler certains événements d’envergure systémique. Un des sous-objectifs vise à déterminer s’il y a eu un effet de contagion transfrontalier entre les institutions canadiennes et européennes. Pour chacune des cinq sous-périodes, nous avons donc construit des réseaux basés sur les relations de cointégration entre les prix hebdomadaires des titres boursiers des D-Sibs étudiées. Le second sous-objectif consiste à détecter la présence d’un comportement grégaire auprès des investisseurs, en temps de crise, à l’aide de régressions basées sur la dispersion moyenne entre les rendements de chaque titre et ceux d’un portefeuille de marché composé des D-Sibs canadiennes et des pays PIIGS. Cette étude démontre que la crise financière de 2008-2009 a davantage impacté les banques d’importance systémique intérieure canadiennes et des pays PIIGS, contrairement à la crise de la dette souveraine européenne. En effet, l’effet de contagion transfrontalier est davantage notable lors de la faillite de Lehman Brothers, alors que les turbulences de la crise européenne se sont, en général, limitées à ses frontières. De plus, le comportement grégaire est uniquement détectable lors de la crise des subprimes. Ceci implique que les investisseurs n’ont pas perçu les D-Sibs comme étant menacées par la situation financière précaire de la zone euro.
Resumo:
L’objectif de l’essai est d’identifier la stratégie optimale de cotation énergétique des habitations au Québec. À partir des expériences internationales, l’essai évalue, à l’aide d’une analyse multicritère, s’il est plus optimal pour le Québec (scénario A) de continuer à coter la performance énergétique des habitations existantes dans le programme Rénoclimat actuellement en vigueur (hors transactions immobilières) ou (scénario B) d’implanter un système de cotation énergétique pour les habitations lors des transactions immobilières en mode volontaire ou (scénario C) de l’implanter en mode réglementaire. Pour réduire la consommation énergétique et les émissions de gaz à effet de serre des bâtiments, de plus en plus de pays adoptent des législations en matière de cotation énergétique lors des transactions immobilières. Or, au Québec, il existe seulement des programmes de cotation énergétique des habitations existantes hors transactions immobilières dont la participation se fait sur une base volontaire. De plus, des exigences minimales de performance énergétique réglementaires pour les habitations neuves sont en vigueur depuis 2012, mais peu de mécanismes de renforcement sont utilisés pour en assurer le respect. Globalement, selon l’analyse multicritère, dans le cas où un soutien politique est offert et où les ressources financières, techniques, humaines, informatiques et législatives sont disponibles, et ce, tout au long du développement du projet, mais aussi lors de la phase d’opération, le scénario C permet de rencontrer un maximum de bénéfices. Sinon, pour éviter d’investir des ressources humaines et financières supplémentaires, de modifier la législation et de gérer une mise en œuvre complexe, il est possible de continuer à opérer le scénario A. Par contre, ce scénario ne permet pas de développer le plein potentiel de la cotation énergétique. Pour optimiser ce scénario, il est suggéré de renforcir certains éléments du programme. Enfin, il est déconseillé d’implanter le scénario B, à moins qu’il soit temporaire et accompagné d’une annonce dès le début de l’arrivée du système de cotation énergétique en mode réglementaire. En effet, l’analyse multicritère a permis de faire ressortir que les très rares et faibles impacts positifs du scénario B ne font pas le poids face aux ressources requises pour le mettre en œuvre. Dans le cas où l’implantation du scénario C est envisagée, il importe de rappeler que pour profiter des bénéfices estimés, des ressources importantes doivent être investies afin de respecter les nombreux facteurs clés de réussite. Le potentiel du scénario C peut être déployé seulement si ces conditions sont réunies pour s’assurer de la fiabilité du système et, par conséquent, pour assurer l’acceptabilité du public.
Resumo:
Notre objectif avec cette communication est de démontrer que les relations ville/port à Rio de Janeiro sont empreintes de grandes difficultés auxquelles la géographie peut, à défaut d’y remédier, en analyser les tenants et les aboutissants. Pour cela nous avons élaboré notre méthodologie autour de concepts empruntant à la géographie économique (Veltz, Harvey, Sassen…) pour les notions de réseaux, villes, flux ; et à la géographie des transports (transport maritime) pour les notions de relations ville/port (Baudouin, Slack, Hoyle, Monié, Ducruet, Frémont, Rodrigue…). Depuis maintenant quelques décennies, la réorganisation productive à l’œuvre projette d’une manière chaque fois plus évidente les villes et les ports comme des acteurs majeurs de l’intégration de territoires dans les flux issus de la mondialisation croissante des économies. A Rio de Janeiro, nous assistons à de nombreuses initiatives de modernisation du système portuaire et à la revitalisation des friches portuaires de la ville. Depuis un peu plus d’une décennie, le port de Rio est devenu l’un des plus dynamique du pays grâce notamment aux activités de conteneurs, Roll-on/Roll-off, ou encore au développement du tourisme maritime. Cependant, si ces projets s’inscrivent dans une volonté de « connecter » chaque fois un peu plus la seconde métropole brésilienne aux flux de la mondialisation, on s’aperçoit qu’il existe encore de nombreux obstacles caractérisés par les difficultés qu’éprouvent les autorités portuaires et la préfecture de formuler un projet de développement régional autour du port et de la ville. Les relations ville/port à Rio de Janeiro sont marquées par la difficulté de concevoir les ports comme un atout essentiel dans la constitution de réseaux logistiques productifs et intégrés propres à l’économie de circulation actuelle.