17 resultados para Haute technologie
em Savoirs UdeS : plateforme de diffusion de la production intellectuelle de l’Université de Sherbrooke - Canada
Resumo:
Nous avons élaboré comme objectif principal de cet essai la formalisation des connaissances lors du processus de développement de nouveaux produits qui pourra par la suite être intégrée dans un logiciel de système expert et implanté dans une entreprise de haute technologie. Suite à une revue de la littérature sur laquelle s'appuie le développement de cet essai, notre démarche pour formaliser les connaissances s'est effectuée par des entrevues semi-structurées pour étudier en détail le fonctionnement de l'entreprise lors du développement d'un nouveau produit. Après avoir identifier le modèle utilisé chez Systèmes d'Informatique Philips Ltée, nous avons déterminer les points précis dans le processus de développement d'un nouveau produit où sont prises les décisions, par qui ou par quel comité et à l'aide de quelles informations. Ceci a été suivi par l'identification de six phases dans leur modèle lors du développement de nouveaux produits. Nous avons par la suite formaliser les connaissances en des règles de production pour représenter ces six phases et tout ceci a été fait grâce à la collaboration des experts du département de marketing et de recherche et développement. Suite à ceci, nous avons étudiés divers projets de développement de nouveaux produits sur le marché (matériels et logiciels) afin d'ajouter d'autres règles à notre modèle. Pour mieux visualiser ces connaissances, nous avons développé un prototype de système expert avec le logiciel GURU, prototype qui représente les deux premières phases de notre modèle. Nous souhaitons que notre prototype de démonstration soit poursuivi jusqu'à l'implantation complète du système expert et ceci avec la possibilité de modifications liées à la vie de l'entreprise.
Resumo:
L'utilisation des nouvelles technologies de l'information et de la communication (NTIC) fait l'objet de discussions dans le domaine de l'éducation. La présente recherche a pour objectif principal d'identifier le profil des compétences informatiques et des attitudes du corps professoral d'une haute école de formation technologique du Cambodge au regard de l'utilisation des environnements informatiques dans sa pratique d'enseignement. Cette étude descriptive exploratoire aura comme principale retombée de contribuer au développement de l'intégration des NTIC en pédagogie universitaire au Cambodge. Nous tenterons éventuellement de mettre en lumière les besoins que cette intégration suscite. L'élaboration d'une stratégie de systématisation de l'implantation des NTIC en pédagogie universitaire pourrait être traitée dans une future étude. Le recueil de données a été réalisé à l'aide d'un questionnaire d'enquête ainsi que d'une série d'entrevues réalisées auprès du personnel enseignant de l'Institut de Technologie du Cambodge durant la session d'hiver 2001.
Resumo:
Résumé : Les photodiodes à avalanche monophotonique (SPAD) sont d'intérêts pour les applications requérant la détection de photons uniques avec une grande résolution temporelle, comme en physique des hautes énergies et en imagerie médicale. En fait, les matrices de SPAD, souvent appelés photomultiplicateurs sur silicium (SiPM), remplacent graduellement les tubes photomultiplicateurs (PMT) et les photodiodes à avalanche (APD). De plus, il y a une tendance à utiliser les matrices de SPAD en technologie CMOS afin d'obtenir des pixels intelligents optimisés pour la résolution temporelle. La fabrication de SPAD en technologie CMOS commerciale apporte plusieurs avantages par rapport aux procédés optoélectroniques comme le faible coût, la capacité de production, l'intégration d'électronique et la miniaturisation des systèmes. Cependant, le défaut principal du CMOS est le manque de flexibilité de conception au niveau de l'architecture du SPAD, causé par le caractère fixe et standardisé des étapes de fabrication en technologie CMOS. Un autre inconvénient des matrices de SPAD CMOS est la perte de surface photosensible amenée par la présence de circuits CMOS. Ce document présente la conception, la caractérisation et l'optimisation de SPAD fabriqués dans une technologie CMOS commerciale (Teledyne DALSA 0.8µm HV CMOS - TDSI CMOSP8G). Des modifications de procédé sur mesure ont été introduites en collaboration avec l'entreprise CMOS pour optimiser les SPAD tout en gardant la compatibilité CMOS. Les matrices de SPAD produites sont dédiées à être intégrées en 3D avec de l'électronique CMOS économique (TDSI) ou avec de l'électronique CMOS submicronique avancée, produisant ainsi un SiPM 3D numérique. Ce SiPM 3D innovateur vise à remplacer les PMT, les APD et les SiPM commerciaux dans les applications à haute résolution temporelle. L'objectif principal du groupe de recherche est de développer un SiPM 3D avec une résolution temporelle de 10 ps pour usage en physique des hautes énergies et en imagerie médicale. Ces applications demandent des procédés fiables avec une capacité de production certifiée, ce qui justifie la volonté de produire le SiPM 3D avec des technologies CMOS commerciales. Ce mémoire étudie la conception, la caractérisation et l'optimisation de SPAD fabriqués en technologie TDSI-CMOSP8G.
Resumo:
La reconnaissance vocale est une technologie sujette à amélioration. Malgré 40 ans de travaux, de nombreuses applications restent néanmoins hors de portée en raison d'une trop faible efficacité. De façon à pallier à ce problème, l'auteur propose une amélioration au cadre conceptuel classique. Plus précisément, une nouvelle méthode d'entraînement des modèles markoviens cachés est exposée de manière à augmenter la précision dynamique des classificateurs. Le présent document décrit en détail le résultat de trois ans de recherche et les contributions scientifiques qui en sont le produit. L'aboutissement final de cet effort est la production d'un article de journal proposant une nouvelle tentative d'approche à la communauté scientifique internationale. Dans cet article, les auteurs proposent que des topologies finement adaptées de modèles markoviens cachés (HMMs) soient essentielles à une modélisation temporelle de haute précision. Un cadre conceptuel pour l'apprentissage efficace de topologies par élagage de modèles génériques complexes est donc soumis. Des modèles HMM à topologie gauche-à-droite sont d'abord entraînés de façon classique. Des modèles complexes à topologie générique sont ensuite obtenus par écrasement des modèles gauche-à-droite. Finalement, un enchaînement successif d'élagages et d'entraînements Baum-Welch est fait de manière à augmenter la précision temporelle des modèles.
Resumo:
Cet essai vise la conception d'un examen clinique objectif structuré (ECOS) comme volet pratique à ajouter à l'épreuve synthèse de programme actuellement utilisée par les enseignantes et les enseignants du Département de radio-oncologie du Collège Ahunstic. L'épreuve synthèse de programme actuelle consiste à la production d'un travail de recherche sur une pathologie cancéreuse. Cette nouvelle épreuve s'inscrit dans une logique d'une plus grande cohérence avec l'approche par compétences (APC), les exigences légales, réglementaires et pédagogiques liées à cette approche. Une recension d'écrits pertinents en lien avec l'objectif visé par cet essai nous a permis de constater que l'ECOS est un type d'évaluation pratique et authentique qui permet l'évaluation des performances complexes, ce qui est tout à fait approprié avec l'APC. À travers cette recension, nous avons mis en lumière les caractéristiques de cette forme d'évaluation.
Resumo:
Résumé : Face à l’accroissement de la résolution spatiale des capteurs optiques satellitaires, de nouvelles stratégies doivent être développées pour classifier les images de télédétection. En effet, l’abondance de détails dans ces images diminue fortement l’efficacité des classifications spectrales; de nombreuses méthodes de classification texturale, notamment les approches statistiques, ne sont plus adaptées. À l’inverse, les approches structurelles offrent une ouverture intéressante : ces approches orientées objet consistent à étudier la structure de l’image pour en interpréter le sens. Un algorithme de ce type est proposé dans la première partie de cette thèse. Reposant sur la détection et l’analyse de points-clés (KPC : KeyPoint-based Classification), il offre une solution efficace au problème de la classification d’images à très haute résolution spatiale. Les classifications effectuées sur les données montrent en particulier sa capacité à différencier des textures visuellement similaires. Par ailleurs, il a été montré dans la littérature que la fusion évidentielle, reposant sur la théorie de Dempster-Shafer, est tout à fait adaptée aux images de télédétection en raison de son aptitude à intégrer des concepts tels que l’ambiguïté et l’incertitude. Peu d’études ont en revanche été menées sur l’application de cette théorie à des données texturales complexes telles que celles issues de classifications structurelles. La seconde partie de cette thèse vise à combler ce manque, en s’intéressant à la fusion de classifications KPC multi-échelle par la théorie de Dempster-Shafer. Les tests menés montrent que cette approche multi-échelle permet d’améliorer la classification finale dans le cas où l’image initiale est de faible qualité. De plus, l’étude effectuée met en évidence le potentiel d’amélioration apporté par l’estimation de la fiabilité des classifications intermédiaires, et fournit des pistes pour mener ces estimations.
Resumo:
Le marché des accumulateurs lithium-ion est en expansion. Cette croissance repose partiellement sur la multiplication des niches d’utilisation et l’amélioration constante de leurs performances. En raison de leur durabilité exceptionnelle, de leur faible coût, de leur haute densité de puissance et de leur fiabilité, les anodes basées sur les titanates de lithium, et plus particulièrement le spinelle Li4Ti5O12, présentent une alternative d’intérêt aux matériaux classiques d’anodes en carbone pour de multiples applications. Leur utilisation sous forme de nanomatériaux permet d’augmenter significativement la puissance disponible par unité de poids. Ces nanomatériaux ne sont typiquement pas contraints dans une direction particulière (nanofils, nanoplaquettes), car ces formes impliquent une tension de surface plus importante et requièrent donc généralement un mécanisme de synthèse dédié. Or, ces nanostructures permettent des réductions supplémentaires dans les dimensions caractéristiques de diffusion et de conduction, maximisant ainsi la puissance disponible, tout en affectant les propriétés habituellement intrinsèques des matériaux. Par ailleurs, les réacteurs continus reposant sur la technologie du plasma thermique inductif constituent une voie de synthèse démontrée afin de générer des volumes importants de matériaux nanostructurés. Il s’avère donc pertinent d’évaluer leur potentiel dans la production de titanates de lithium nanostructurés. La pureté des titanates de lithium est difficile à jauger. Les techniques de quantification habituelles reposent sur la fluorescence ou la diffraction en rayons X, auxquelles le lithium élémentaire se prête peu ou pas. Afin de quantifier les nombreuses phases (Li4Ti5O12, Li2Ti3O7, Li2TiO3, TiO2, Li2CO3) identifiées dans les échantillons produits par plasma, un raffinement de Rietveld fut développé et validé. La présence de γ-Li2TiO3 fut identifiée, et la calorimétrie en balayage différentiel fut explorée comme outil permettant d’identifier et de quantifier la présence de β-Li2TiO3. Différentes proportions entre les phases produites et différents types de morphologies furent observés en fonction des conditions d’opération du plasma. Ainsi, des conditions de trempe réductrice et d’ensemencement en Li4Ti5O12 nanométrique semblent favoriser l’émergence de nanomorphologies en nanofils (associés à Li4Ti5O12) et en nanoplaquette (associées à Li2TiO3). De plus, l’ensemencement et les recuits augmentèrent significativement le rendement en la phase spinelle Li4Ti5O12 recherchée. Les recuits sur les poudres synthétisées par plasma indiquèrent que la décomposition du Li2Ti3O7 produit du Li4Ti5O12, du Li2TiO3 et du TiO2 (rutile). Afin d’approfondir l’investigation de ces réactions de décomposition, les paramètres cristallins du Li2Ti3O7 et du γ-Li2TiO3 furent définis à haute température. Des mesures continues en diffraction en rayon X à haute température furent réalisées lors de recuits de poudres synthétisées par plasma, ainsi que sur des mélanges de TiO2 anatase et de Li2CO3. Celles-ci indiquent la production d’un intermédiaire Li2Ti3O7 à partir de l’anatase et du carbonate, sa décomposition en Li4Ti5O12 et TiO2 (rutile) sur toute la plage de température étudiée, et en Li2TiO3 et TiO2 (rutile) à des températures inférieures à 700°C.
Resumo:
Au Mali, le monde rural est un système complexe dont le développement implique son appréhension dans sa complexité. Cependant, la réalité malienne montre un manque de formation, d'organisation et une exploitation irrationnelle des ressources entravant les efforts du développement. Dans cette situation, il est difficile au crédit rural de jouer son rôle dans le développement. Les paysans du Mali, et plus précisément ceux dans la zone Office de la Haute Vallée du Niger (OHVN), tirent annuellement de leurs cultures, des revenus assez faibles. Malheureusement ces sommes ne restent pas dans le secteur rural pour faciliter la promotion de l'agriculture. Elles sont, pour la plupart, utilisées pour payer les arriérés de crédit. Ainsi, au cours d'un stage que nous avons eu à effectuer à Bancoumana (un secteur tabacole encadré par l'Office), il a été constaté que les paysans sont confrontés à plusieurs problèmes, qu'ils soient d'origine économique, sociologique ou autre. Entre autres problèmes: la faiblesse des revenus d'où incapacité d'investir et d'épargner; - l'insuffisance de sensibilisation sur le crédit rural; - l'insuffisance de formation en gestion et organisation. Dans cette problématique, nous soulevons des points d'ordre économique et social. En fait, dans la politique de crédit pratiquée par de nombreux organismes de développement (expérience vécue en Madagascar), on ne tient pas compte des habitudes et de la tradition en matière de crédit. Les politiques de crédit restent incomprises et inappliquées par les paysans. L'élaboration de ces politiques ne s'appuie pas solidement sur le vécu des participants et des bénéficiaires-cibles, encore moins sur les valeurs. En se basant sur nos investigations antérieures, nous avons jugé nécessaire de voir comment évolue la politique de crédit dans la zone de l'Office de la Haute Vallée du Niger. La présente étude a pour but de comprendre le fonctionnement du crédit rural dans notre zone d'étude, à l'aide d'une analyse descriptive. Nous proposons des recommandations et des suggestions s'il y a lieu.
Resumo:
Les applications de réfrigération sont aujourd’hui majoritairement réalisées par des machines à compression alimentées en électricité. Animées à partir d’une source chaude, l’utilisation de machines à absorption permet d’utiliser très peu d’électricité comparée à une machine à compression et d’utiliser des réfrigérants écologiques. Le faible coefficient de performance et le coût élevé de ces machines est compensé par l’utilisation de rejets thermiques industriels destinés à être rejeté dans l’environnement et donc considérés comme gratuits. Le but de cette étude est de modéliser une machine à absorption hybride, utilisant le couple de fluide eau et ammoniac, en y ajoutant un compresseur ou booster dans la zone haute pression du circuit et d’évaluer ses performances. Cette modification crée une pression intermédiaire au désorbeur permettant de diminuer la température des rejets thermiques exploitables. Une température de rejets réutilisable de 50°C, contre 80°C actuellement, ouvrirait alors la voie à de nouvelles sources communes d’énergie. Le logiciel ASPEN Plus de simulation des procédés a été choisi afin de modéliser en régime permanent le système. Le modèle est en partie validé par l’étude expérimentale d’une machine à absorption commerciale de 10kW pour des applications de climatisation. Cette machine est située au Laboratoire des Technologies de l’Énergie d’Hydro-Québec. Ensuite, une étude de design permet de montrer, à puissance de réfrigération constante, les impacts bénéfiques de la technologie hybride sur le rendement exergétique, mais également sur la taille globale des échangeurs nécessaires. La technologie hybride est alors analysée économiquement face à une machine à absorption chauffée au gaz pour montrer sa rentabilité.
Resumo:
This research was devoted to gaining information on teachers? use of technology, specifically SMARTBOARD technology, for teaching and promoting learning in the classroom. Research has suggested that use of technology can enhance learning and classroom practices. This has resulted in administrators encouraging the use of SMARTBOARDS, installing them in classrooms and providing training and support for teachers to use this technology. Adoption of new technology, however, is not simple. It is even more challenging because making the best use of new technologies requires more than training; it requires a paradigm shift in teachers? pedagogical approach. Thus, while it may be reasonable to believe that all we need to do is show teachers the benefits of using the SMARTBOARD; research tells us that changing paradigms is difficult for a variety of reasons. This research had two main objectives. First, to discover what factors might positively or negatively affect teachers? decisions to take up this technology. Second, to investigate how the SMARTBOARD is used by teachers who have embraced it and how this impacts participation in classrooms. The project was divided into two parts; the first was a survey research (Part 1), and the second was an ethnographic study (Part 2). A thirty-nine item questionnaire was designed to obtain information on teachers? use of technology and the SMARTBOARD. The questionnaire was distributed to fifty teachers at two EMSB schools: James Lyng Adult Centre (JLAC) and the High School of Montreal (HSM). Part 2 was an ethnographic qualitative study of two classes (Class A, Class B) at JLAC. Class A was taught by a male teacher, an early-adopter of technology and a high-level user of the SMARTBOARD; Class B was taught by a female teacher who was more traditional and a low-level user. These teachers were selected because they had similar years of experience and general competence in their subject matter but differed in their use of the technology. The enrollment in Class A and Class B were twenty-three and twenty-four adult students, respectively. Each class was observed for 90 minutes on three consecutive days in April 2010. Data collection consisted of videotapes of the entire period, and observational field notes with a graphical recording of participatory actions. Information from the graphical recording was converted to sociograms, a graphic representation of social links among individuals involved in joint action. The sociogram data was tabulated as quantified data. The survey results suggest that although most teachers are interested in and use some form of technology in their teaching, there is a tendency for factors of gender and years of experience to influence the use of and opinions on using technology. A Chi Square analysis of the data revealed (a) a significant difference (2 = 6.031, p < .049) for gender in that male teachers are more likely to be interested in the latest pedagogic innovation compared to female teachers; and, (b) a significant difference for years of experience (2 = 10.945, p < .004), showing that teachers with ?6 years experience were more likely to use the SMARTBOARD, compared to those with more experience (>6 years). All other items from the survey data produced no statistical difference. General trends show that (a) male teachers are more willing to say yes to using the SMARTBOARD compared to female teachers, and (b) teachers with less teaching experience were more likely to have positive opinions about using the SMARTBOARD compared to teachers with more experience. The ethnographic study results showed differences in students? response patterns in the two classrooms. Even though both teachers are experienced and competent, Teacher A elicited more participation from his students than Teacher B. This was so partly because he used the SMARTBOARD to present visual materials that the students could easily respond to. By comparison, Teacher B used traditional media or methods to present most of her course material. While these methods also used visual materials, students were not able to easily relate to these smaller, static images and did not readily engage with the material. This research demonstrates a generally positive attitude by teachers towards use of the SMARTBOARD and a generally positive role of this technology in enhancing students? learning and engagement in the classroom. However, there are many issues related to the SMARTBOARD use that still need to be examined. A particular point is whether teachers feel adequately trained to integrate SMARTBOARD technology into their curricula. And, whether the gender difference revealed is related to other factors like a need for more support, other responsibilities, or a general sense of anxiety when it comes to technology. Greater opportunity for training and ongoing support may be one way to increase teacher use of the SMARTBOARD; particularly for teachers with more experience (>6 years) and possibly also for female teachers.
Resumo:
Le but de cette recherche tente de trouver les causes au taux d'échec et d'abandon élevé en technique de l'informatique. Notre étude a été menée au cégep de Saint-Hyacinthe à l'hiver 2005. Nous avons également étendu notre réflexion à rechercher des solutions à cette problématique, lesquelles nous le croyons, pourraient être appliquées dans d'autres cégeps ou même d'autres techniques. Nous avons voulu proposer des solutions applicables plutôt que d'en faire une liste exhaustive. Pour y arriver, nous avons limité notre champ d'analyse aux domaines suivants: le temps d'étude, le travail rémunéré, la qualité de l'intervention pédagogique et le choc du passage du secondaire au collégial. Nous voulions aussi vérifier si le taux de diplomation en technique de l'informatique au cégep de Saint-Hyacinthe que nous évaluions à 35% a évolué depuis 1994 à aujourd'hui. Nous avons également cherché à établir un lien entre le temps d'étude et le temps occupé à un travail rémunéré. De là nous avons essayé de trouver la corrélation entre le temps d'étude et la réussite scolaire. Finalement, notre dernier objectif était d'interroger les intervenants des différents niveaux afin de recueillir les solutions qu'ils proposaient à la problématique soulevée. De plus, nous avons interrogé par questionnaire tous les étudiants du programme pour jauger leur niveau de satisfaction. Nous avons divisé cette étude en quatre chapitres dont le premier définit la problématique. Dans ce chapitre, notre intention était de recenser les principaux problèmes d'échec et d'abandon relevés en informatique au cégep de Saint-Hyacinthe et d'y suggérer des solutions. Le second chapitre consiste en une recension d'écrits permettant de renforcer notre réflexion à l'aide de références provenant de chercheurs renommés. Le troisième chapitre relate la méthodologie employée pour recueillir les données et propos des répondants à cette étude. Le quatrième chapitre fait état de la collecte de données effectuée à l'hiver 2005 et qui a consisté en des questionnaires et des entrevues dirigées; dans ce même chapitre, les données sont présentées, analysées et synthétisées à l'aide de graphiques et de tableaux. Tout près de 90 répondants ont été interrogés que ce soit en entrevue ou par questionnaire. De plus au-delà de 110 tableaux statistiques provenant du Service régional d'admission du Montréal métropolitain (SRAM) ont servi de base à cette étude. Finalement, en guise de conclusion, cette étude nous a permis de présenter une synthèse de l'ensemble du travail effectué au cours de la présente recherche. Voici en résumé les résultats de notre recherche. Notre analyse des données statistiques nous a permis d'établir un portrait de l'étudiant moyen en technique de l'informatique au cégep de Saint-Hyacinthe. C'est un garçon qui a environ 18 ans à son inscription au programme, il passe entre 5 et 7 heures à étudier, un peu moins en première mais un peu plus en troisième année. Il occupe un travail rémunéré environ 15 heures par semaine. Il faut préciser que la clientèle du programme est presque exclusivement de sexe masculin. Les professeurs interrogés du département d'informatique ont fait ressortir clairement que le choc du passage du secondaire au collégial est très présent. Les élèves arrivant du secondaire ont souvent l'habitude de réussir sans étudier. Ils vivent souvent leur premier échec scolaire au cégep et se sentent très désemparés face à cette situation. Ils ignorent les outils à leur disposition et n'osent pas demander de l'aide à leurs professeurs. Les différents intervenants consultés nous ont proposé les solutions tels que d'offrir des ateliers ou des cours de prise de notes, de gestion du temps, de gestion des priorités, et finalement de faire connaître les services déjà offerts aux étudiants pour les aider à réussir. Nous pouvons mentionner ici que les élèves du programme n'ont pratiquement pas consulté les services du centre d'aide à la réussite durant la dernière année. Ils attendent souvent trop longtemps avant de demander de l'aide et il ne leur reste souvent plus d'autre choix que d'abandonner le programme. Les professeurs ont aussi le devoir de détecter les étudiants nécessitant de l'aide. Ceux-ci se sentent démunis pour aider les étudiants et ont manifesté avoir besoin d'assistance en ce sens. Comme mentionné précédemment nous avions évalué le taux de diplomation du programme à environ 35 %. L'analyse des statistiques nous a révélé que ce taux affiche une légère progression depuis 1994. À notre surprise, par contre, nous avons constaté que ce taux est légèrement au-dessus du taux moyen des autres collèges de la province (SRAM) et même de celui d'autres programmes majoritairement composés de garçons du cégep de Saint-Hyacinthe (voir le graphique 2, p. 53). Nous avons voulu connaître ce que pensaient nos étudiants ayant abandonné le programme et à l'inverse ceux qui en étaient diplômés. Nos répondants diplômés avaient tous un emploi en informatique et avouaient avoir réussi à force de volonté. Leur principale motivation à terminer leurs études était d'obtenir un emploi intéressant et bien rémunéré. Ils ont fait les travaux demandés car ils les préparaient bien aux examens. Cependant, nos répondants qui ont abandonné le programme nous ont confié qu'un emploi rémunéré occupant trop de temps hebdomadaire et le trop peu de temps d'étude avait contribué à les faire abandonner. Nous avons observé que le temps passé à un travail rémunéré n'influence pas le temps passé à étudier. Par contre, le temps passé à étudier a une répercussion sur la réussite. Nous ajoutons ici que trop de temps passé au travail rémunéré et pas assez aux études favorise l'échec et l'abandon. En conclusion, l'élève qui croit en sa réussite prend les moyens pour l'obtenir. La théorie que nous avons énoncée au début de cet ouvrage spécifiant que seuls les élèves les mieux organisés réussissaient s'avère donc vérifiée, mais nous pouvons malheureusement constater aussi que les élèves les moins organisés abandonnent le programme. Les questionnaires remplis par tous les étudiants du programme nous ont révélé un net manque d'équilibre au niveau du travail exigé lors du passage de la première année à la seconde. Nos entrevues avec les professeurs du programme nous ont confirmé que les élèves trouvaient difficile le passage de la première à la deuxième année. Assiste-on à un report du choc du passage du secondaire au collégial vers le choc du passage de la première à la deuxième année? Aurait-on repoussé le problème en deuxième année en voulant faciliter le passage du secondaire au collégial? Il faudrait bien se garder maintenant de repousser le problème en troisième année, ce serait dommage que ce soit à l'arrivée sur le marché du travail que le choc se produise. Il est donc de première importance que les élèves soient bien préparés à la réalisation des étapes suivantes. Nous ne rendrions pas service à trop faciliter la réussite et que ce soit le marché du travail qui rejette nos étudiants. Enfin voilà pourquoi, après cette mise en garde, six projets seront mis en place afin de favoriser la réussite de nos étudiants tout en conservant une formation de grande qualité qui est la caractéristique du programme de technique de l'informatique du cégep de Saint-Hyacinthe. Voici la liste de ces projets dont vous trouverez une description en consultant la section 3.4 intitulée « Entrevues avec un cadre de la direction des études » : a) implantation du programme Alternance travail-études (ATE), b) la création d'une équipe d'intervention auprès des élèves de première année, c) la création d'un centre d'assistance en technologie de l'information et des communications (TIC), d) l'implantation du tutorat par les pairs, e) la promotion du programme d'informatique et finalement f) l'assistance d'un professeur aux services techniques du département afin de favoriser l'implantation des nouvelles technologies de pointe. Tous ces moyens mis de l'avant permettront, nous l'espérons, de faire en sorte que le programme d'informatique du cégep de Saint-Hyacinthe se démarque grâce à son innovation et à sa volonté de résoudre le faible taux de diplomation tout en offrant une formation de la plus haute qualité.
Resumo:
L'énergie solaire est une source d'énergie renouvelable et naturellement disponible partout sur terre. Elle est donc tout indiquée pour remplacer à long terme une part importante des combustibles fossiles dans le portrait énergétique mondial. Comme toutes les formes d'énergie utilisées par la société, l'énergie solaire n'échappe pas aux lois économiques et son adoption dépend directement du coût par unité d'énergie produite. Plusieurs recherches et développements technologiques cherchent à réduire ce coût par différents moyens. Une de ces pistes est l'intégration de deux technologies solaires, la technologie photovoltaïque et la technologie thermique, au sein d'un même système. La conception d'un tel système pose plusieurs défis technologiques, le plus important étant sans contredit la compétition entre la quantité d'électricité produite et la qualité de la chaleur. En effet, ces deux variables varient de manière opposée par rapport à la température~: le rendement des cellules photovoltaïques a tendance à diminuer à haute température alors que la valeur utile de l'énergie thermique tend à augmenter. Une conception judicieuse d'un système photovoltaïque/thermique (PV/T) devra donc prendre en compte et connaître précisément le comportement d'une cellule à haute température. Le présent projet propose de concevoir un système permettant la caractérisation de cellules photovoltaïques sur une large plage de température. Premièrement, une revue de littérature pose les bases nécessaires à la compréhension des phénomènes à l'origine de la variation de la performance en fonction de la température. On expose également différents concepts de système PV/T et leur fonctionnement, renforçant ainsi la raison d'être du projet. Deuxièmement, une modélisation théorique d'une cellule photovoltaïque permet de définir grossièrement le comportement attendu à haute température et d'étudier l'importance relative de la variation du courant photogénéré et de la tension en circuit ouvert. Ce modèle sera plus tard comparé à des résultats expérimentaux. Troisièmement, un banc d'essais est conçu et fabriqué d'après une liste de critères et de besoins. Ce banc permet d'illuminer une cellule, de faire varier sa température de -20 °C à 200 °C et de mesurer la courbe I-V associée. Le système est partiellement contrôlé par un PC et la température est asservie par un contrôleur de type PID. Le banc a été conçu de manière à ce que la source de lumière soit aisément échangeable si un spectre différent est désiré. Finalement, le comportement du montage est validé en caractérisant une cellule au silicium et une autre à base de InGaP. Les résultats sont comparés aux prédictions du modèle et aux données de la littérature. Une étude d'incertitude permet également de cibler la source principale de bruit dans le système et propose des pistes d'améliorations à ce propos.
Resumo:
En tant qu'enseignant dans le programme des Techniques du génie électrique (T.G.E, anciennement Électrotechnique) nous avons pu constater qu'en moins de 10 ans, le micro-ordinateur est devenu une réalité qui concerne pratiquement tous les cours des trois années de formation, alors qu'ils n'étaient utilisés dans aucun cours avant. Cet exemple est typique de la révolution informatique que nous vivons actuellement et qui pénètre tous les secteurs d'activités de notre société. Dans ce contexte de changements importants, les enseignants ont malgré eux un rôle de pionniers car ils n'ont que peu de ressources à leur disposition pour maîtriser cette technologie et l'intégrer dans leur enseignement. Ce virage informatique, s'il est à peine commencé dans l'enseignement général, pose de nombreux problèmes aux enseignants du secteur professionnel qui doivent trouver la place et déterminer le rôle que doit jouer cette nouvelle technologie dans l'enseignement. La majorité des recherches sur les didacticiels ont pour objet les logiciels qui cherchent à assurer des tâches d'enseignement, tels que les tests, exerciseurs ou tutoriels, et auxquels s'ajoutent maintenant les applications multimédia. Une étude menée dans les collèges (Mataigne, 1992) montre cependant que ce sont d'abord les logiciels de bureautique et ensuite les logiciels de programmation et de simulation-modélisation, qui sont de loin les plus utilisés dans l'enseignement. S'il n'existe pratiquement pas de logiciels de bureautique ou de programmation conçus pour l'enseignement, les logiciels de simulation et de modélisation constituent plus des deux tiers des développements de didacticiels de ces dix dernières années pour le réseau collégial. Ces logiciels, dont la forme et le contenu se rapprochent plus de logiciels conçus pour les entreprises que de logiciels pédagogiques traditionnels, appartiennent à une catégorie où il se fait très peu de recherche didactique et où il n'existe pas de modèle de développement spécifique. Par ailleurs, nous avons constaté que la grande majorité des auteurs de didacticiels sont des enseignants qui réalisent parfois leur logiciel eux-mêmes. La conception d'un didacticiel étant une tâche particulièrement complexe, il nous a semblé utile d'analyser les différences entre les didacticiels traditionnels et les logiciels de simulation-modélisation afin de dégager la problématique du développement de ces derniers. Après avoir analysé les différents modèles de développement proposés par la recherche ou par le génie informatique, nous nous proposons, dans cette recherche, de dégager et de justifier une méthodologie de développement spécifique aux logiciels de simulation-modélisation fondée sur des éléments empruntés aux modèles du génie logiciel et de la didactique, sur notre expérience de développement et sur celle d'experts dans le domaine.
Resumo:
Cette thèse traite des représentations construites par des artistes-enseignants du secondaire au sujet de la dialectique tradition/novation inhérente au processus d'intégration des TIC. Elle rend compte d'une recherche visant à mieux comprendre les disparités en matière d'intégration des technologies, dans les pratiques enseignantes en arts plastiques. L'auteure a observé ce problème dans son parcours professionnel, marqué par son passage du rôle de praticienne à celui de formatrice en enseignement des arts. Elle s'est demandée si cela tenait uniquement à la formation ou si des facteurs intrinsèques tels que les représentations pouvaient intervenir. Ce questionnement est à l'origine d'une étude dont les objectifs étaient d'identifier les représentations entourant la dialectique tradition/novation et de voir s'il existe des interrelations entre représentations et pratiques. Pour arriver à ses fins, l'auteure a utilisé les notions de représentation sociale et de poïétique comme leviers théoriques tout en s'inspirant de la démarche artistique, par souci de cohérence avec le domaine des arts. Le recueil de l'information s'est effectué à partir d'entretiens de type compréhensif, donnant lieu à des représentations discursives, métaphoriques et graphiques. L'analyse des représentations révèle que les artistes-enseignants interviewés voient la dialectique tradition/novation tantôt comme un duo, tantôt comme un duel ou même comme un deuil, et que ces représentations interagissent avec les pratiques. Ces conclusions traduisent l'importance de s'intéresser aux facteurs intrinsèques qui peuvent faire obstacle au changement. Si la rencontre art/technologie est assez bien documentée par les esthéticiens, les philosophes et les artistes, plus rares sont les contributions touchant le corollaire éducatif d'une telle alliance. En ce sens, cette recherche est tout à fait pertinente et originale. Elle l'est également au regard de la méthodologie proposée, qui s'ajuste à la démarche artistique. Bref, cette thèse parle d'art, parle par l'art et parle pour l'art.
Resumo:
Dans le cadre de ce mémoire, nous nous sommes intéressée au vocabulaire utilisé par la presse francophone, à savoir française et québécoise, lorsqu'elle traite d'un fait d'actualité internationale. L'objectif de la présente étude exploratoire est de vérifier si l'information diffusée par la presse écrite quotidienne au Québec, concernant le dossier nucléaire iranien, est différente de celle diffusée par la presse écrite quotidienne française. Cette vérification a été faite à partir d'un corpus de textes publiés par deux quotidiens québécois, La Presse et Le Devoir, et deux quotidiens français, Le Monde et Le Figaro. Le but de notre recherche était de procéder à l'analyse du vocabulaire employé par ces quatre quotidiens lorsqu'ils diffusent l'information touchant le dossier nucléaire iranien. Nous nous sommes intéressée à la sélection et à la distribution des mots-clés composant le discours de ces quotidiens diffusés au Québec et en France. Nous avions posé l'hypothèse suivante : l'information internationale diffusée au public québécois est différente de celle diffusée en France, et cette différence est perceptible par le vocabulaire employé. Pour considérer cette question de recherche, nous avons constitué un corpus composé de tous les articles publiés par deux quotidiens français, Le Figaro et Le Monde, et par deux quotidiens québécois, La Presse et Le Devoir traitant du dossier nucléaire iranien, entre le 14 et le 31 janvier 2006. Ces articles ont été soumis à une analyse statistique textuelle effectuée à l'aide du logiciel Alceste. Le vocabulaire employé pour la diffusion des informations touchant le dossier nucléaire iranien s'est avéré différent dans les quotidiens français et québécois. Ces différences sont effectivement perceptibles par le degré d'importance donnée aux mots constituant ce vocabulaire et par leur distribution dans les textes de chaque quotidien étudié. Notre étude se distingue des démarches d'analyse dans lesquelles la subjectivité du chercheur n'est pas suffisamment contrôlée aux endroits névralgiques du processus de recherche. Grâce à l'analyse statistique des données textuelles appliquée à notre corpus, nous sommes en mesure d'appuyer notre interprétation des textes sur des données factuelles. L'étude de la distribution des formes (mots) dans les textes nous a permis de retracer puis de décrire les différentes tendances inscrites dans un corpus traitant d'un même fait d'actualité. En d'autres termes, cette étude de la distribution des formes nous a permis de mettre en évidence des sous thèmes, des dimensions, des pôles du discours, des tendances préférentielles dans le traitement de la même information. Ainsi, Le Figaro s'est intéressé davantage au volet économique et militaire du dossier iranien; La Presse, à la proposition russe d'enrichir l'uranium iranien sur son propre sol et à l'aspect technique et scientifique de la technologie nucléaire; Le Devoir, aux efforts diplomatiques et à la technologie nucléaire, et enfin, Le Monde, qui s'est particulièrement intéressé au discours de Chirac et à l'inflexion de la doctrine de dissuasion française, a pu rendre compte de toutes les facettes du sujet. Notre hypothèse se confirme donc : l'information, concernant le dossier nucléaire iranien, diffusée au public québécois est différente de celle diffusée en France, et cette différence est perceptible par le vocabulaire employé.