999 resultados para Routage (Gestion des réseaux d’ordinateurs)
Resumo:
À travers l’augmentation des désastres dits « naturels » au cours de la dernière décennie, des populations se sont retrouvées soudainement sans maison, sans endroit où loger. L’absence d’endroit où loger amènera donc les populations affectées à se déplacer temporairement et parfois de façon permanente. Cette étude s’intéresse à un cas spécifique de relocalisation dans un site organisé, Corail-Cesselesse, créé quelques mois après le tremblement de terre dévastateur de janvier 2010, en Haïti. Initialement occupé par des ménages provenant surtout des quartiers de Delmas et Port-au-Prince et qui s’étaient réfugiés sur le vaste terrain de golf de Pétionville après avoir perdu leurs habitations, le site de Corail est ainsi étudié de façon descriptive et comparative pour évaluer l’évolution de la vulnérabilité des ménages qui y vivent. Pour ce faire, une revue du concept portant sur la vulnérabilité et la gestion des risques est nécessaire pour y dégager les indicateurs clés servant à l’analyse de l’évolution des états précédant et succédant à une catastrophe naturelle. En particulier, une approche combinant trois méthodes ralliant le qualitatif et quantitatif est utile pour conduire cette évaluation. À travers des questionnaires, des données géospatiales et d’entrevues auprès de professionnels en aménagement dans les pays en développement, on analyse dans quelle mesure la vulnérabilité sociale a évolué. On constate que la prise de décision sur la création de Corail a négligé plusieurs dimensions sociales nécessaires pour permettre aux familles de se rétablir d’un aléa d’une telle amplitude.
Resumo:
Pour respecter les droits d’auteur, la version électronique de ce mémoire a été dépouillée de certains documents visuels et audio-visuels. La version intégrale du mémoire a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal. To respect the reproduction rights and copyrights, the electronic version of this thesis was stripped of images and audiovisuals. The integral version has been left with Documents Management and Archives Service at the University of Montreal.
Resumo:
Le partage des données de façon confidentielle préoccupe un bon nombre d’acteurs, peu importe le domaine. La recherche évolue rapidement, mais le manque de solutions adaptées à la réalité d’une entreprise freine l’adoption de bonnes pratiques d’affaires quant à la protection des renseignements sensibles. Nous proposons dans ce mémoire une solution modulaire, évolutive et complète nommée PEPS, paramétrée pour une utilisation dans le domaine de l’assurance. Nous évaluons le cycle entier d’un partage confidentiel, de la gestion des données à la divulgation, en passant par la gestion des forces externes et l’anonymisation. PEPS se démarque du fait qu’il utilise la contextualisation du problème rencontré et l’information propre au domaine afin de s’ajuster et de maximiser l’utilisation de l’ensemble anonymisé. À cette fin, nous présentons un algorithme d’anonymat fortement contextualisé ainsi que des mesures de performances ajustées aux analyses d’expérience.
Resumo:
Les biotechnologies, le réchauffement climatique, les ressources naturelles et la gestion des écosystèmes sont tous représentatifs de la “nouvelle politique de la nature” (Hajer 2003), un terme englobant les enjeux marqués par une grande incertitude scientifique et un encadrement réglementaire inadapté aux nouvelles réalités, suscitant de fait un conflit politique hors du commun. Dans l'espoir de diminuer ces tensions et de générer un savoir consensuel, de nombreux gouvernements se tournent vers des institutions scientifiques ad hoc pour documenter l'élaboration des politiques et répondre aux préoccupations des partie-prenantes. Mais ces évaluations scientifiques permettent-elles réellement de créer une compréhension commune partagée par ces acteurs politiques polarisés? Alors que l'on pourrait croire que celles-ci génèrent un climat d'apprentissage collectif rassembleur, un environnement politique conflictuel rend l'apprentissage entre opposant extrêmement improbable. Ainsi, cette recherche documente le potentiel conciliateur des évaluation scientifique en utilisant le cas des gaz de schiste québécois (2010-2014). Ce faisant, elle mobilise la littérature sur les dimensions politiques du savoir et de la science afin de conceptualiser le rôle des évaluations scientifiques au sein d'une théorie de la médiation scientifique (scientific brokerage). Une analyse de réseau (SNA) des 5751 références contenues dans les documents déposés par 268 organisations participant aux consultations publiques de 2010 et 2014 constitue le corps de la démonstration empirique. Précisément, il y est démontré comment un médiateur scientifique peut rediriger le flux d'information afin de contrer l'incompatibilité entre apprentissage collectif et conflit politique. L'argument mobilise les mécanismes cognitifs traditionnellement présents dans la théorie des médiateurs de politique (policy broker), mais introduit aussi les jeux de pouvoir fondamentaux à la circulation de la connaissance entre acteurs politiques.
Resumo:
Pour respecter les droits d’auteur, la version électronique de ce mémoire a été dépouillée d'un document visuel. La version intégrale du mémoire a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal.
Resumo:
Les connaissances scientifiques sur le changement climatique (CC) évoluent rapidement. Toutefois, des incertitudes persistent sur l’étendue de ses conséquences, particulièrement dans les milieux urbains, qui subiront des impacts différents de ceux vécus par les milieux ruraux. Les autorités publiques ont récemment commencé à élaborer des politiques publiques d’adaptation au changement climatique (ACC) qui visent à en limiter les conséquences indésirables. En milieu urbain, la littérature suggère qu’un des outils que devraient privilégier ces politiques est le verdissement. Des auteurs signalent que les actions visant l’ACC peuvent se greffer dans des politiques existantes. L’ACC, comme enjeu public, peut donc être réalisée par l’entremise de sa prise en compte dans les politiques publiques de verdissement. Cette prise en compte devrait affecter le contenu (quoi?) et le pilotage (comment?) des différentes étapes des politiques. Le cas de la politique publique de verdissement de la Ville de Montréal, au Québec, nous a permis d’étudier cette prise en compte. En utilisant un cadre d’analyse des politiques publiques développé par Knoepfel et al. (2015), qui porte entre autres sur la mobilisation des ressources par différents acteurs concernés par ces politiques, nous montrons que cette dernière s’est opérée de quelques façons. Premièrement, il y a eu un changement dans l’argumentaire pour le verdissement, outil qui vise à lutter contre les îlots de chaleur urbains et assurer une meilleure gestion des eaux pluviales. Ensuite, le choix de l’échelle d’agglomération pour la prise en compte de l’ACC a entraîné un changement d’échelle dans la gestion du verdissement. La publication d’un plan d’action majeur de verdissement urbain pour l’agglomération, et dont le leitmotiv est l’ACC, le démontre. Quelques modifications réglementaires et l’inclusion de nouveaux acteurs dans la politique témoignent aussi que la prise en compte a eu lieu. Finalement, le plan d’action fournit un cadre pour la mise en œuvre du verdissement dans les zones les plus vulnérables au CC en plus d’une structure de partage des coûts. Cependant, la mise en oeuvre du verdissement dans une visée d’ACC n'a pas été évaluée dans la présente étude. Nous avons aussi noté que la biodiversité est un enjeu d’importance qui va de pair avec l’ACC dans la politique de verdissement. Il y a donc une prise en compte, partielle, de l’ACC dans la politique publique de verdissement à Montréal (avec certains écueils). Nous arguons que l’enjeu de l’ACC sert peut-être d’argument supplémentaire pour verdir la ville plutôt que d’être un véritable moteur de transformation de la politique de verdissement.
Resumo:
Article
Resumo:
Ce cahier de recherche fait état des travaux menés au cours de la troisième étape (2015-2016) du projet « Archives et création : nouvelles perspectives sur l’archivistique ». Les textes sont les suivants : Yvon Lemay et Anne Klein, « Introduction », p. 4-9 ; Ana Pato, « How to speak of trauma? », p. 10-34 ; Annaëlle Winand, « Matériau temporel et images tactiles : l’archive dans Western Sunburn de Karl Lemieux », p. 35-50 ; Anne Klein, « Des archives au théâtre : Sauvageau Sauvageau de Christian Lapointe », p. 51-77 ; Mattia Scarpulla, Les archivistes dansent. Description et analyse de Les gestes de nos mémoires, performance littéraire sur la gestion des archives, p. 78-130 ; Simon Côté-Lapointe, « Diffusion des archives et création : un bilan d’expérience », p. 131-161 ; Yvon Lemay et Anne Klein, « Archives et création : bilan et suites de la recherche », p. 162-200. De plus, le cahier comprend une « Bibliographie » des travaux effectués sur les archives et la création depuis 2007, p. 201-209, et des informations sur « Les auteurs », p.210.
Resumo:
L’article montre que la trajectoire de la réforme de l’inspection en Fédération Wallonie-Bruxelles (FWB) est loin d’être linéaire. Elle est marquée par des processus de reconversion institutionnelle d’institutions existantes, mais aussi de sédimentation et d’hybridation entre l’« ancien » et le « nouveau ». En effet, elle participe à la fois d’une politique de changement institutionnel ambitieuse et de construction du « système scolaire » dans un paysage au départ assez décentralisé et fragmenté ; mais, simultanément, elle est marquée par des « contraintes » institutionnelles existantes, des négociations et transactions entre différents acteurs politiques et scolaires qui déterminent les contours et les compétences du nouveau corps d’inspection en gestation après le décret de 2007 comme les rôles des inspecteurs et leur division du travail avec d’autres acteurs. De plus, dans la mise en œuvre du décret, les orientations normatives, cognitives et professionnelles des acteurs, la permanence de la diversité institutionnelle des réseaux comme la variance structurelle des territoires « modulent » et « tempèrent » l’ambition du changement institutionnel affiché par la politique de la FWB. Cela change mais pas complètement : il y a un processus de conversion partielle et « en tension » de l’institution qu’est l’inspection.
Resumo:
Ce mémoire examine les fondements de la montée ainsi que du déclin de l’organisation non gouvernementale Federal Union, Inc. aux États-Unis entre 1939 et 1945. Ce regroupement, mis sur pied par Clarence K. Streit dans l’optique de faire la promotion de son projet internationaliste décrit dans son livre intitulé Union Now: A Proposal for a Federal Union of the Democracies of the North Atlantic, connut durant la Seconde Guerre mondiale un élan de popularité remarquable qui l’amena à l’avant-scène des débats sur la gestion des relations interétatiques, avant de s’essouffler rapidement, malgré l’intérêt qu’il suscita au cours de ses premières années d’existence. Dans les faits, ce phénomène, s’avéra étroitement lié au contexte historique, à l’idéologie défendue par le mouvement, de même qu’à l’organisation et à la gestion des activités de Federal Union, Inc. Ainsi, par l’étude d’un cas particulier, ce mémoire ouvre une nouvelle fenêtre sur l’internationalisme américain durant la Seconde Guerre mondiale, un champ d’études négligé par les chercheurs. Avec pour principal objectif d’offrir une réflexion articulée sur le fédéralisme mondial, une idéologie toujours très peu étudiée à ce jour par les historiens, cette étude mettra en lumière les rouages expliquant les hauts et les bas de cette ligne de pensée politique à l’époque. Ce faisant, le lecteur sera amené à repenser le mouvement internationaliste américain, traditionnellement perçu comme triomphant au cours de la guerre de 1939 à 1945. Il permettra de surcroît de réfléchir aux facteurs favorisant la transformation de la pensée politique au sein d’une société, tels que l’opinion publique et le rôle des organisations non gouvernementales ainsi que des groupes d’intérêt.
Resumo:
Les zéolithes étant des matériaux cristallins microporeux ont démontré leurs potentiels et leur polyvalence dans un nombre très important d’applications. Les propriétés uniques des zéolithes ont poussé les chercheurs à leur trouver constamment de nouvelles utilités pour tirer le meilleur parti de ces matériaux extraordinaires. Modifier les caractéristiques des zéolithes classiques ou les combiner en synergie avec d’autres matériaux se trouvent être deux approches viables pour trouver encore de nouvelles applications. Dans ce travail de doctorat, ces deux approches ont été utilisées séparément, premièrement avec la modification morphologique de la ZSM-12 et deuxièmement lors de la formation des matériaux de type coeur/coquille (silice mésoporeuses@silicalite-1). La ZSM-12 est une zéolithe à haute teneur en silice qui a récemment attiré beaucoup l’attention par ses performances supérieures dans les domaines de l’adsorption et de la catalyse. Afin de synthétiser la ZSM-12 avec une pureté élevée et une morphologie contrôlée, la cristallisation de la zéolithe ZSM-12 a été étudiée en détail en fonction des différents réactifs chimiques disponibles (agent directeur de structure, types de silicium et source d’aluminium) et des paramètres réactionnels (l’alcalinité, ratio entre Na, Al et eau). Les résultats présentés dans cette étude ont montré que, contrairement à l’utilisation du structurant organique TEAOH, en utilisant un autre structurant, le MTEAOH, ainsi que le Al(o-i-Pr)3, cela a permis la formation de monocristaux ZSM-12 monodisperses dans un temps plus court. L’alcalinité et la teneur en Na jouent également des rôles déterminants lors de ces synthèses. Les structures de types coeur/coquille avec une zéolithe polycristalline silicalite-1 en tant que coquille, entourant un coeur formé par une microsphère de silice mésoporeuse (tailles de particules de 1,5, 3 et 20-45 μm) ont été synthétisés soit sous forme pure ou chargée avec des espèces hôtes métalliques. Des techniques de nucléations de la zéolithe sur le noyau ont été utilisées pour faire croitre la coquille de façon fiable et arriver à former ces matériaux. C’est la qualité des produits finaux en termes de connectivité des réseaux poreux et d’intégrité de la coquille, qui permet d’obtenir une stéréosélectivité. Ceci a été étudié en faisant varier les paramètres de synthèse, par exemple, lors de prétraitements qui comprennent ; la modification de surface, la nucléation, la calcination et le nombre d’étapes secondaires de cristallisation hydrothermale. En fonction de la taille du noyau mésoporeux et des espèces hôtes incorporées, l’efficacité de la nucléation se révèle être influencée par la technique de modification de surface choisie. En effet, les microsphères de silice mésoporeuses contenant des espèces métalliques nécessitent un traitement supplémentaire de fonctionnalisation chimique sur leur surface externe avec des précurseurs tels que le (3-aminopropyl) triéthoxysilane (APTES), plutôt que d’utiliser une modification de surface avec des polymères ioniques. Nous avons également montré que, selon la taille du noyau, de deux à quatre traitements hydrothermaux rapides sont nécessaires pour envelopper totalement le noyau sans aucune agrégation et sans dissoudre le noyau. De tels matériaux avec une enveloppe de tamis moléculaire cristallin peuvent être utilisés dans une grande variété d’applications, en particulier pour de l’adsorption et de la catalyse stéréo-sélective. Ce type de matériaux a été étudié lors d’une série d’expériences sur l’adsorption sélective du glycérol provenant de biodiesel brut avec des compositions différentes et à des températures différentes. Les résultats obtenus ont été comparés à ceux utilisant des adsorbants classiques comme par exemple du gel de sphères de silice mésoporeux, des zéolithes classiques, silicalite-1, Si-BEA et ZSM-5(H+), sous forment de cristaux, ainsi que le mélange physique de ces matériaux références, à savoir un mélange silicalite-1 et le gel de silice sphères. Bien que le gel de sphères de silice mésoporeux ait montré une capacité d’adsorption de glycérol un peu plus élevée, l’étude a révélé que les adsorbants mésoporeux ont tendance à piéger une quantité importante de molécules plus volumineuses, telles que les « fatty acid methyl ester » (FAME), dans leur vaste réseau de pores. Cependant, dans l’adsorbant à porosité hiérarchisée, la fine couche de zéolite silicalite-1 microporeuse joue un rôle de membrane empêchant la diffusion des molécules de FAME dans les mésopores composant le noyau/coeur de l’adsorbant composite, tandis que le volume des mésopores du noyau permet l’adsorption du glycérol sous forme de multicouches. Finalement, cette caractéristique du matériau coeur/coquille a sensiblement amélioré les performances en termes de rendement de purification et de capacité d’adsorption, par rapport à d’autres adsorbants classiques, y compris le gel de silice mésoporeuse et les zéolithes.
Resumo:
Dans la profession d’éducatrice et d’éducateur, le savoir-être revêt une importance particulière. Pour plusieurs, cet apprentissage se fait sans heurt, mais pour d’autres, il arrive que cet apprentissage soit problématique. Dès mon entrée dans la profession d’enseignante au collégial, j’ai rapidement été confrontée à la gestion des attitudes parmi la clientèle étudiante. Les discussions entre collègues renforçaient cette impression que certaines et certains étudiants éprouvaient de sérieuses difficultés à développer les savoir-être essentiels à la profession d’éducatrice et d’éducateur spécialisé. Au fil des trimestres, l’idée s’est imposée d’elle-même : sensibiliser la clientèle étudiante à la gestion des attitudes. Ce champ d’études étant très large, il a fallu circonscrire mon objet de recherche. Cet essai se limite à identifier les savoir-être signifiants à la profession d’éducatrice et d’éducateur spécialisé, afin d’améliorer le développement des compétences professionnelles des étudiantes et des étudiants. Le cadre conceptuel s’articule autour des différents concepts utilisés dans le domaine. Certains auteurs parlent d’attitudes, d’autres exploitent le thème des savoir-être et certains autres encore, utilisent le thème des habiletés socioprofessionnelles. Cette analyse a permis de dégager ma position de chercheuse. Je retiens trois principes de base : - Le savoir-être permet à la personne de réaliser une tâche professionnelle de la meilleure façon qu’il soit. (Boudreault, 2004) - Le savoir-être est un indicateur de performance élevé. (Scallon, 2004) - Le savoir-être est une compétence qui est source de réussite professionnelle. (Bellier, 2004). Les écrits de Bellier (2004), de Boudreault (2004) et de Scallon (2004) cités ci-hauts, font bien comprendre la valeur ajoutée de ce concept en lien avec une profession. Le savoir-être, en contexte de travail, permet à la personne de développer sa compétence professionnelle. Dans cette optique, la première étape pour découvrir les savoir-être signifiants à la profession a été de faire le parallèle entre trois grilles identifiant différents savoir-être. Ces modèles sont inspirés de Boudreault (2004), de Grisé et Trottier (1997) et de l’équipe enseignante en Techniques d’éducation spécialisée du cégep de Granby – Haute-Yamaska. Cette démarche a permis de regrouper les savoir-être similaires ou équivalents. À partir de ces regroupements, un groupe d’enseignantes et d’enseignants du Département des Techniques d’éducation spécialisée du cégep de Granby – Haute-Yamaska s’est prononcé, par l’entremise d’entrevues individuelles, sur les savoir-être les plus pertinents à utiliser pour bâtir un sondage électronique. Par la suite, ce sondage a été réalisé avec la collaboration des différents partenaires de stage de la région de la Montérégie ainsi qu’avec la participation de l’équipe enseignante afin de sélectionner les savoir-être signifiants à la profession. Cet exercice a permis d’identifier quatre savoir-être. L’identification de ces savoir-être aidera certainement l’équipe enseignante et les différents milieux de stage, dans leurs interventions pédagogiques. Il reste à souhaiter que la clientèle étudiante profite des résultats de cette recherche en étant mieux outillée pour développer ses compétences professionnelles.
Resumo:
Le but de cette recherche tente de trouver les causes au taux d'échec et d'abandon élevé en technique de l'informatique. Notre étude a été menée au cégep de Saint-Hyacinthe à l'hiver 2005. Nous avons également étendu notre réflexion à rechercher des solutions à cette problématique, lesquelles nous le croyons, pourraient être appliquées dans d'autres cégeps ou même d'autres techniques. Nous avons voulu proposer des solutions applicables plutôt que d'en faire une liste exhaustive. Pour y arriver, nous avons limité notre champ d'analyse aux domaines suivants: le temps d'étude, le travail rémunéré, la qualité de l'intervention pédagogique et le choc du passage du secondaire au collégial. Nous voulions aussi vérifier si le taux de diplomation en technique de l'informatique au cégep de Saint-Hyacinthe que nous évaluions à 35% a évolué depuis 1994 à aujourd'hui. Nous avons également cherché à établir un lien entre le temps d'étude et le temps occupé à un travail rémunéré. De là nous avons essayé de trouver la corrélation entre le temps d'étude et la réussite scolaire. Finalement, notre dernier objectif était d'interroger les intervenants des différents niveaux afin de recueillir les solutions qu'ils proposaient à la problématique soulevée. De plus, nous avons interrogé par questionnaire tous les étudiants du programme pour jauger leur niveau de satisfaction. Nous avons divisé cette étude en quatre chapitres dont le premier définit la problématique. Dans ce chapitre, notre intention était de recenser les principaux problèmes d'échec et d'abandon relevés en informatique au cégep de Saint-Hyacinthe et d'y suggérer des solutions. Le second chapitre consiste en une recension d'écrits permettant de renforcer notre réflexion à l'aide de références provenant de chercheurs renommés. Le troisième chapitre relate la méthodologie employée pour recueillir les données et propos des répondants à cette étude. Le quatrième chapitre fait état de la collecte de données effectuée à l'hiver 2005 et qui a consisté en des questionnaires et des entrevues dirigées; dans ce même chapitre, les données sont présentées, analysées et synthétisées à l'aide de graphiques et de tableaux. Tout près de 90 répondants ont été interrogés que ce soit en entrevue ou par questionnaire. De plus au-delà de 110 tableaux statistiques provenant du Service régional d'admission du Montréal métropolitain (SRAM) ont servi de base à cette étude. Finalement, en guise de conclusion, cette étude nous a permis de présenter une synthèse de l'ensemble du travail effectué au cours de la présente recherche. Voici en résumé les résultats de notre recherche. Notre analyse des données statistiques nous a permis d'établir un portrait de l'étudiant moyen en technique de l'informatique au cégep de Saint-Hyacinthe. C'est un garçon qui a environ 18 ans à son inscription au programme, il passe entre 5 et 7 heures à étudier, un peu moins en première mais un peu plus en troisième année. Il occupe un travail rémunéré environ 15 heures par semaine. Il faut préciser que la clientèle du programme est presque exclusivement de sexe masculin. Les professeurs interrogés du département d'informatique ont fait ressortir clairement que le choc du passage du secondaire au collégial est très présent. Les élèves arrivant du secondaire ont souvent l'habitude de réussir sans étudier. Ils vivent souvent leur premier échec scolaire au cégep et se sentent très désemparés face à cette situation. Ils ignorent les outils à leur disposition et n'osent pas demander de l'aide à leurs professeurs. Les différents intervenants consultés nous ont proposé les solutions tels que d'offrir des ateliers ou des cours de prise de notes, de gestion du temps, de gestion des priorités, et finalement de faire connaître les services déjà offerts aux étudiants pour les aider à réussir. Nous pouvons mentionner ici que les élèves du programme n'ont pratiquement pas consulté les services du centre d'aide à la réussite durant la dernière année. Ils attendent souvent trop longtemps avant de demander de l'aide et il ne leur reste souvent plus d'autre choix que d'abandonner le programme. Les professeurs ont aussi le devoir de détecter les étudiants nécessitant de l'aide. Ceux-ci se sentent démunis pour aider les étudiants et ont manifesté avoir besoin d'assistance en ce sens. Comme mentionné précédemment nous avions évalué le taux de diplomation du programme à environ 35 %. L'analyse des statistiques nous a révélé que ce taux affiche une légère progression depuis 1994. À notre surprise, par contre, nous avons constaté que ce taux est légèrement au-dessus du taux moyen des autres collèges de la province (SRAM) et même de celui d'autres programmes majoritairement composés de garçons du cégep de Saint-Hyacinthe (voir le graphique 2, p. 53). Nous avons voulu connaître ce que pensaient nos étudiants ayant abandonné le programme et à l'inverse ceux qui en étaient diplômés. Nos répondants diplômés avaient tous un emploi en informatique et avouaient avoir réussi à force de volonté. Leur principale motivation à terminer leurs études était d'obtenir un emploi intéressant et bien rémunéré. Ils ont fait les travaux demandés car ils les préparaient bien aux examens. Cependant, nos répondants qui ont abandonné le programme nous ont confié qu'un emploi rémunéré occupant trop de temps hebdomadaire et le trop peu de temps d'étude avait contribué à les faire abandonner. Nous avons observé que le temps passé à un travail rémunéré n'influence pas le temps passé à étudier. Par contre, le temps passé à étudier a une répercussion sur la réussite. Nous ajoutons ici que trop de temps passé au travail rémunéré et pas assez aux études favorise l'échec et l'abandon. En conclusion, l'élève qui croit en sa réussite prend les moyens pour l'obtenir. La théorie que nous avons énoncée au début de cet ouvrage spécifiant que seuls les élèves les mieux organisés réussissaient s'avère donc vérifiée, mais nous pouvons malheureusement constater aussi que les élèves les moins organisés abandonnent le programme. Les questionnaires remplis par tous les étudiants du programme nous ont révélé un net manque d'équilibre au niveau du travail exigé lors du passage de la première année à la seconde. Nos entrevues avec les professeurs du programme nous ont confirmé que les élèves trouvaient difficile le passage de la première à la deuxième année. Assiste-on à un report du choc du passage du secondaire au collégial vers le choc du passage de la première à la deuxième année? Aurait-on repoussé le problème en deuxième année en voulant faciliter le passage du secondaire au collégial? Il faudrait bien se garder maintenant de repousser le problème en troisième année, ce serait dommage que ce soit à l'arrivée sur le marché du travail que le choc se produise. Il est donc de première importance que les élèves soient bien préparés à la réalisation des étapes suivantes. Nous ne rendrions pas service à trop faciliter la réussite et que ce soit le marché du travail qui rejette nos étudiants. Enfin voilà pourquoi, après cette mise en garde, six projets seront mis en place afin de favoriser la réussite de nos étudiants tout en conservant une formation de grande qualité qui est la caractéristique du programme de technique de l'informatique du cégep de Saint-Hyacinthe. Voici la liste de ces projets dont vous trouverez une description en consultant la section 3.4 intitulée « Entrevues avec un cadre de la direction des études » : a) implantation du programme Alternance travail-études (ATE), b) la création d'une équipe d'intervention auprès des élèves de première année, c) la création d'un centre d'assistance en technologie de l'information et des communications (TIC), d) l'implantation du tutorat par les pairs, e) la promotion du programme d'informatique et finalement f) l'assistance d'un professeur aux services techniques du département afin de favoriser l'implantation des nouvelles technologies de pointe. Tous ces moyens mis de l'avant permettront, nous l'espérons, de faire en sorte que le programme d'informatique du cégep de Saint-Hyacinthe se démarque grâce à son innovation et à sa volonté de résoudre le faible taux de diplomation tout en offrant une formation de la plus haute qualité.
Resumo:
Ce projet porte, dans un souci d’efficacité énergétique, sur la récupération d’énergie des rejets thermiques à basse température. Une analyse d’optimisation des technologies dans le but d’obtenir un système de revalorisation de chaleur rentable fait objet de cette recherche. Le but sera de soutirer la chaleur des rejets thermiques et de la réappliquer à un procédé industriel. Réduire la consommation énergétique d’une usine entre habituellement en conflit avec l’investissement requis pour les équipements de revalorisation de chaleur. Ce projet de maitrise porte sur l’application d’optimisations multiobjectives par algorithme génétique (GA) pour faciliter le design en retrofit des systèmes de revalorisation de chaleur industrielle. L’originalité de cette approche consiste à l’emploi du «fast non-dominant sorting genetic algorithm» ou NSGA-II dans le but de trouver les solutions optimales entre la valeur capitale et les pertes exergétiques des réseaux d’échangeurs de chaleur et de pompes à chaleur. Identifier les solutions optimales entre le coût et l’efficacité exergétique peut ensuite aider dans le processus de sélection d’un design approprié en considérant les coûts énergétiques. Afin de tester cette approche, une étude de cas est proposée pour la récupération de chaleur dans une usine de pâte et papier. Ceci inclut l’intégration d’échangeur de chaleur Shell&tube, d’échangeur à contact direct et de pompe à chaleur au réseau thermique existant. Pour l’étude de cas, le projet en collaboration avec Cascades est constitué de deux étapes, soit de ciblage et d’optimisation de solutions de retrofit du réseau d’échangeur de chaleur de l’usine de tissus Cascades à Kinsley Falls. L’étape de ciblage, basée sur la méthode d’analyse du pincement, permet d’identifier et de sélectionner les modifications de topologie du réseau d’échangeurs existant en y ajoutant de nouveaux équipements. Les scénarios résultants passent ensuite à l’étape d’optimisation où les modèles mathématiques pour chaque nouvel équipement sont optimisés afin de produire une courbe d’échange optimal entre le critère économique et exergétique. Pourquoi doubler l’analyse économique d’un critère d’exergie? D’abord, parce que les modèles économiques sont par définition de nature imprécise. Coupler les résultats des modèles économiques avec un critère exergétique permet d’identifier des solutions de retrofit plus efficaces sans trop s’éloigner d’un optimum économique. Ensuite, le rendement exergétique permet d’identifier les designs utilisant l’énergie de haute qualité, telle que l’électricité ou la vapeur, de façon plus efficace lorsque des sources d’énergie de basse qualité, telles que les effluents thermiques, sont disponibles. Ainsi en choisissant un design qui détruit moins d’exergie, il demandera un coût énergétique moindre. Les résultats de l’étude de cas publiés dans l’article montrent une possibilité de réduction des coûts en demande de vapeur de 89% tout en réduisant la destruction d’exergie de 82%. Dans certains cas de retrofit, la solution la plus justifiable économiquement est également très proche de la solution à destruction d’exergie minimale. L’analyse du réseau d’échangeurs et l’amélioration de son rendement exergétique permettront de justifier l’intégration de ces systèmes dans l’usine. Les diverses options pourront ensuite être considérées par Cascades pour leurs faisabilités technologiques et économiques sachant qu’elles ont été optimisées.
Resumo:
Des sites de visionnement de contenu audio-vidéo en temps-réel comme YouTube sont devenus très populaires. Le téléchargement des fichiers audio/vidéo consomme une quantité importante de bande passante des réseaux Internet. L’utilisation de codecs à bas débit permet de compresser la taille des fichiers transmis afin de consommer moins de bande passante. La conséquence est une diminution de la qualité de ce qui est transmis. Une diminution de qualité mène à l’apparition de défauts perceptibles dans les fichiers. Ces défauts sont appelés des artifices de compression. L’utilisation d’un algorithme de post-traitement sur les fichiers sonores pourrait augmenter la qualité perçue de la musique transmise en corrigeant certains artifices à la réception, sans toutefois consommer davantage de bande passante. Pour rehausser la qualité subjective des fichiers sonores, il est d’abord nécessaire de déterminer quelles caractéristiques dégradent la qualité perceptuelle. Le présent projet a donc pour objectif le développement d’un algorithme capable de localiser et de corriger de façon non intrusive, un artifice provoqué par des discontinuités et des incohérences au niveau des harmoniques qui dégrade la qualité objective dans les signaux sonores compressés à bas débits (8 – 12 kilobits par seconde).