28 resultados para Genie logiciel
Resumo:
Depuis les dernières années, on assiste à une croissance du taux de chômage. Le nombre de chercheurs d'emploi ne cesse d'augmenter et beaucoup d'entre eux sont confrontés à de longues périodes sans emploi. D'après un récent rapport publié par le Développement des ressources humaines Canada, le taux de chômage a affiché une moyenne de 12.2% au Québec en 1994. Le nombre de chercheurs d'emploi augmente considérablement et ceux-ci proviennent de différents domaines d'activités d'emploi. Plusieurs de ces personnes ont besoin de support pour réintégrer le marché du travail. Des organismes d'aide à l'employabilité permettent à cette clientèle d'identifier des objectifs pour faciliter leur insertion. Afin de bien répondre aux besoins des chercheurs d'emploi par des moyens rapides et utiles, un logiciel a été conçu par Dominique Clavier, chercheur et clinicien Français. Ce logiciel s'appelle le Copilote insertion. Il permet aux usagers d'avoir un diagnostic complet des difficultés à trouver un emploi. Ce diagnostic donne aussi des recommandations conformes à la situation de la personne. Étant donné que cet outil a été d'abord conçu pour les Européens, on peut s'attendre que les énoncés formulés dans le Copilote présentent des difficultés pour les québécois. L'objet de cet essai est de ressortir les problèmes de compréhension pour ensuite faire l'adaptation culturelle du Copilote insertion. Dans le premier chapitre de cet ouvrage, nous nous attarderons à définir les enjeux du travail et la notion de l'employabilité. Nous aborderons par la suite deux modèles qui traitent des stratégies d'insertion : celui de Dominique Clavier auteur du logiciel Copilote insertion et celui de Jacques Limoges auteur du Trèfle chanceux. Il sera question par la suite de l'intégration de ces deux approches et de l'adaptation culturelle de ce logiciel. Le deuxième chapitre présentera la méthodologie qui indiquera la conduite de l'expérimentation auprès d'un échantillon de chercheurs d'emploi québécois. Un dernier chapitre permettra, suite à l'analyse des données, de présenter les résultats et de proposer des correctifs pour la refonte des énoncés du Copilote insertion.
Resumo:
Le logiciel SysML (Système Mastery Learning) est le prototype d'un logiciel pour enseignants qui désirent implanter le Mastery Learning dans leurs cours. Appartenant à la famille des APO (Applications Pédagogiques de l'Ordinateur), ce logiciel de GPAQ (Génie Pédagogique Assisté par Ordinateur) vient répondre à des besoins d'encadrement et d'assistance formulés par les enseignants qui utilisent le Mastery Learning. Ce projet de recherche et de développement visait à produire un logiciel pour assister et encadrer les enseignants dans le processus de planification et de conception d'une stratégie instrumentée d'évaluation formative. Le but de SysML est de réduire la perte de temps lors de la conception des instruments et à rendre ces instruments de meilleure qualité. Le logiciel SysML a été développé suite à une analyse du problème et des besoins des enseignants et est basé sur des modèles pédagogiques éprouvés. Le logiciel est programmé dans l'environnement HyperCard sur ordinateur Macintosh . SysML a été expérimenté par une conseillère pédagogique et trois enseignants du réseau collégial. Les commentaires des expérimentateurs, recueillis lors des entrevues, sont positifs et nous indiquent qu'un tel logiciel serait bienvenu dans le monde de l'éducation. Par ailleurs, SysML ne serait pas limité aux utilisateurs du Mastery Learning mais serait ouvert aux enseignants qui veulent organiser, planifier un cours et une stratégie d'évaluation. L'essentiel du projet de recherche a été la production du logiciel. Tout le travail de recherche est dans le logiciel, ce document n'est que le rapport accompagnateur. On peut avoir une démonstration du fonctionnement du logiciel en s'adressant à l'auteur.
Resumo:
En 1983, un « nouveau » type de logiciels que nous avons appelé « idéateur » est apparu sur le marché de la micro-informatique. Ces logiciels combinent les facilités du traitement de textes avec l'utilisation particulière du « chaînage » de texte. Ce chaînage permet entre autre les manipulations suivantes du texte; classer, mettre en ordre prioritaire, sous-catégoriser des ensembles, lancer les items au hasard, effacer, déplacer ou copier un ou des items, etc. (Pour plus de détails, voir le chapitre 1.2 et les annexes 1 à 3). Après une étude pour situer le cadre de notre recherche (voir le chapitre II) et la traduction du logiciel MaxThink, nous avons introduit cet idéateur dans une classe de français correctif, de niveau collégial. Nous avons choisis ces sujets parce ces étudiant-e-s se servaient déjà de l'ordinateur à l'intérieur des cours et qu'ils (elles) avaient intérêt (pensions-nous) à utiliser l’idéateur pour améliorer leur français. Tous ces sujets ont eu à suivre le cours sur la manipulation de MaxThink. Un design expérimental de catégorie « semi-contrôlée » a été mis en place pour isoler l'influence des trois instruments servant à la composition ; l'idéateur (MaxThink), un traitement de texte traditionnel (Editexte) et le crayon/papier. Le pré-test et le post-test consistant à composer sur un thème déterminé était à chaque fois précédé d'un brainstorming afin de générer une liste d'idées". Par la suite, les textes ont été soumis à trois juges qui ont eu à coter la cohérence globale individuelle pré-test/post-test et la cohérence de groupe au pré-test ainsi qu'au post-test. Deux analyses statistiques non-paramétriques utiles pour un nombre restreint de sujets (trois sous-groupes de quatre sujets) ont été utilisées: analyse de variance (formule KRUSKAL-WALLIS) et analyse des probabilités d'occurrence des distributions (formule HODGES-LEHMANN). En conclusion, nos recommandations tiennent compte de l'analyse statistique des résultats et des commentaires des étudiant-e-s.
Resumo:
Comme en témoignent les publications et les préoccupations des acteurs éducatifs, la réussite scolaire est un enjeu social. Les facteurs individuels, familiaux, scolaires et sociaux de la réussite scolaire ont été abondamment étudiés. Toutefois, la recension des écrits permet de constater d’une part, qu’il y a encore peu d’écrits de manière générale sur les élèves qui réussissent à l’école en particulier les écrits sur leur expérience scolaire; d’autre part, il existe relativement peu d’écrits sur la réussite scolaire en milieu défavorisé en relation avec les activités et les discours des bons élèves du secondaire. Cette recherche vise à comprendre la réussite scolaire en milieu socioéconomique défavorisé par la description des actions et des discours des élèves qui réussissent en classe de 3e secondaire en contexte haïtien. L’ethnométhodologie, courant sociologique qui vise la compréhension des actions quotidiennes des individus et de leurs discours offre un autre regard dans l’étude du phénomène de la réussite scolaire. En effet, l’expérience scolaire au quotidien des élèves performants reste peu connue. Sur le plan méthodologique, cette recherche empirique menée dans un collège secondaire privé catholique au Nord-Ouest d’Haïti privilégie une approche exploratoire. Il s’agit d’une recherche qualitative qui repose sur des observations directes des élèves à l’école et en dehors de l’école, sur des entretiens semi-dirigés avec un échantillon de douze élèves inscrits en classe de 3e secondaire et sur leurs journaux individuels tenus lors de la collecte des données. L’analyse inductive générale des données et le logiciel NVivo 9.0 ont été retenus pour la stratégie d’analyse des données. Selon les données analysées, la réussite scolaire se construit seul et avec les autres. Les résultats mettent en évidence des liens entre les ressources externes utilisées par les participants, leurs attitudes et leurs processus mentaux et la réussite scolaire. La recherche permet d’identifier cinq facteurs de la réussite scolaire. Une vue d’ensemble des résultats est proposée et représente le modèle théorique de la réussite scolaire des élèves haïtiens étudiés. Par la suite, des apports généraux et des implications pratiques sont énoncés ; des questionnements et une hypothèse interprétative sont soulevés et des pistes pour d’autres recherches sont suggérées.
Resumo:
Une structure en béton armé est sujette à différents types de sollicitations. Les tremblements de terre font partie des événements exceptionnels qui induisent des sollicitations extrêmes aux ouvrages. Pour faire face à cette problématique, les codes de calcul des ponts routiers font appel à une approche basée sur des niveaux de performance qui sont rattachés à des états limites. Actuellement, les états limites d'une pile de ponts en béton armé (BA) confinée à l'aide de polymères renforcés de fibres de carbone (PRFC) proposés dans la littérature ne prennent pas en compte le confinement lié au chemisage de PRFC en combinaison avec celui des spirales d'acier. Ce projet de recherche était la suite du volet de contrôle non destructif d'une étude réalisée en 2012 qui comprenait un volet expérimental [Carvalho, 2012] et un volet numérique [Jean, 2012]. L'objectif principal était de compléter l'étude du comportement des poteaux en BA renforcés de PRFC soumis à un chargement cyclique avec les données acoustiques recueillies par St-Martin [2014]. Plus précisément, les objectifs spécifiques étaient de déterminer les états limites reliés aux niveaux de performance et de caractériser la signature acoustique de chaque état limite (p. ex. fissuration du béton, plastification de l'acier et rupture du PRFC). Une méthodologie d'analyse acoustique basée sur l'état de l'art de Behnia et al. [2014] a été utilisée pour quantifier la gravité, localiser et caractériser le type de dommages. Dans un premier temps, les données acoustiques provenant de poutres de 550 mm x 150 mm x 150 mm ont permis de caractériser la signature acoustique des états limites. Puis, des cinq spécimens d'essai construits en 2012, les données acoustiques de trois spécimens, soient des poteaux circulaires d'un diamètre de 305 mm et d'une hauteur de 2000 mm ont été utilisée pour déterminer les états limites. Lors de ces essais, les données acoustiques ont été recueillies avec 14 capteurs de résonances qui étaient reliés à un système multicanal et au logiciel AEwin SAMOS 5.23 de Physical Acoustics Corporation (PAC) [PAC, 2005] par St-Martin [2014]. Une analyse de la distribution des paramètres acoustiques (nbr. de comptes et énergie absolue) combiné à la localisation des événements et le regroupement statistique, communément appelé clustering, ont permis de déterminer les états limites et même, des signes précurseurs à l'atteinte de ces états limites (p. ex. l'initiation et la propagation des fissures, l'éclatement de l'enrobage, la fissuration parallèle aux fibres et l'éclatement du PRFC) qui sont rattachés aux niveaux de performances des poteaux conventionnels et confinés de PRFC. Cette étude a permis de caractériser la séquence d'endommagement d'un poteau en BA renforcé de PRFC tout en démontrant l'utilité de l'écoute acoustique pour évaluer l'endommagement interne des poteaux en temps réel. Ainsi, une meilleure connaissance des états limites est primordiale pour intégrer les PRFC dans la conception et la réhabilitation des ouvrages.
Resumo:
Le logiciel est devenu omniprésent dans nos vies de sorte qu'on le retrouve dans plusieurs domaines de la vie courante. Cependant cette omniprésence, n'est pas sans conséquences. Les bogues de logiciel peuvent causer de vrais désastres, économiques, écologiques voire sanitaires. Vu la forte omniprésente du logiciel dans nos vies, le fonctionnement de nos sociétés dépend fortement de sa qualité. La programmation par contrat a pour but de produire des logiciels fiables, c'est-à-dire corrects et robustes. En effet, ce paradigme de programmation vise à introduire des assertions qui sont des spécifications de services. Ces spécifications représentent une forme de contrat. Les contrats définissent les responsabilités entre le client et le fournisseur. Le respect des contrats permet de garantir que le logiciel ne fait ni plus ni moins que ce que l'on attend de lui qu'il fasse. Le test unitaire est un test qui permet de s'assurer du bon fonctionnement d'une partie précise d'un logiciel. C'est un test dont la vérification se fait en exécutant une petite unité de code. En somme, un test unitaire est un code qui exécute de manière indirecte le code d'une classe pour vérifier que le code fonctionne bien. L'outil Génération de Squelettes des Contrats de classes et des tests unitaires (GACTUS) permet la génération automatique de squelettes de contrats de classes et celles des classes des tests unitaires d'un projet Java. La génération automatique du code source permet d'obtenir un code uniforme. GACTUS est un plug-in pour l'environnement de développement Eclipse écrit en Java. L'objectif principal de GACTUS est de faciliter la réalisation de logiciel de qualité grâce à la génération automatique des squelettes de contrats de classe et celui des tests unitaires et aussi d'accroître la productivité des développeurs. Pour faciliter son utilisation, GACTUS dispose d'une interface graphique permettant de guider l'utilisateur.
Resumo:
Les applications de réfrigération sont aujourd’hui majoritairement réalisées par des machines à compression alimentées en électricité. Animées à partir d’une source chaude, l’utilisation de machines à absorption permet d’utiliser très peu d’électricité comparée à une machine à compression et d’utiliser des réfrigérants écologiques. Le faible coefficient de performance et le coût élevé de ces machines est compensé par l’utilisation de rejets thermiques industriels destinés à être rejeté dans l’environnement et donc considérés comme gratuits. Le but de cette étude est de modéliser une machine à absorption hybride, utilisant le couple de fluide eau et ammoniac, en y ajoutant un compresseur ou booster dans la zone haute pression du circuit et d’évaluer ses performances. Cette modification crée une pression intermédiaire au désorbeur permettant de diminuer la température des rejets thermiques exploitables. Une température de rejets réutilisable de 50°C, contre 80°C actuellement, ouvrirait alors la voie à de nouvelles sources communes d’énergie. Le logiciel ASPEN Plus de simulation des procédés a été choisi afin de modéliser en régime permanent le système. Le modèle est en partie validé par l’étude expérimentale d’une machine à absorption commerciale de 10kW pour des applications de climatisation. Cette machine est située au Laboratoire des Technologies de l’Énergie d’Hydro-Québec. Ensuite, une étude de design permet de montrer, à puissance de réfrigération constante, les impacts bénéfiques de la technologie hybride sur le rendement exergétique, mais également sur la taille globale des échangeurs nécessaires. La technologie hybride est alors analysée économiquement face à une machine à absorption chauffée au gaz pour montrer sa rentabilité.
Resumo:
(POO) est l’utilisation de patrons de conception (PC). Un PC est un arrangement caractéristique de classes permettant d’offrir une solution éprouvée, tout en obtenant un code réutilisable et compréhensible. Plusieurs PC sont définis, dont 24 par la GoF [12] et plusieurs autres sont apparus par la suite. Le concept de PC est abstrait ce qui peut amener différentes interprétations. Ces différences peuvent aussi causer une mauvaise implémentation qui peut réduire les avantages d’utiliser ce patron. Ce projet consiste à concevoir un outil facilitant l’utilisation des PC. L’outil Génération et Restructuration de Patrons de Conception(GRPC) permet la génération automatique du squelette d’un patron de conception ainsi que la restructuration d’un code en le transformant structure respectant un PC. La génération et la restructuration automatique permettent d’obtenir un code uniforme et de qualité tout en respectant le patron de conception. La compréhension et la maintenance du code sont ainsi améliorées. GRPC est module d’extension pour l’environnement de développement Eclipse écrit en Java. Le code est conçu pour être facilement compréhensible et extensible. Les deux principaux objectifs de GRPC sont de restructurer (refactoring) une section de code vers l’architecture d’un patron de conception et de générer des squelettes de patrons de conception. Une interface graphique permet de guider l’utilisateur et d’aller chercher toutes les informations importantes pour le fonctionnement du logiciel. Elle permet aussi de configurer les éléments du patron de conception. Pour s’assurer de la possibilité d’effectuer une restructuration, chaque patron est associé avec une ou plusieurs règles qui analysent le code pour détecter la présence d’une structure particulière. Des procédures aident les développeurs à ajouter de nouveaux PC dans GRPC. GRPC fournit des fonctionnalités permettant d’implémenter quelques patrons de conception de la POO définis dans le livre Design Patterns : Elements of Reusable Object-Oriented Software.
Resumo:
Le Spyder conçu par BRP est un véhicule complexe, original et peu connu du grand public à travers le monde. Par conséquent, on souhaite développer un outil facile d’accès pour la découverte, la formation au pilotage et l’aide à la conception du roadster. Le sujet de ce projet de maîtrise est le développement du modèle dynamique du véhicule et l’intégration à une plateforme de simulation existante. Pour y parvenir, on élabore un modèle réaliste du véhicule sous deux versions, sport et tourisme. Après avoir recherché les différents paramètres et caractéristiques du véhicule, on se concentre d’abord sur un modèle simple puis sur un modèle plus complexe comportant différents modules, comme la motorisation et les aides à la conduite. En vue de valider le modèle, on utilisera les résultats de tests et des mesures expérimentales. Après validation, le modèle doit être intégré à la nouvelle plateforme de simulation. Le logiciel, développé en langage C++, est élaboré à partir de la plateforme de base. Des modèles 3D détaillés du Spyder offrent un rendu graphique réaliste pour une meilleure immersion. Le modèle est capable de répondre en temps réel et de manière réaliste et précise sous le contrôle de l’utilisateur. On a donc un outil polyvalent à objectifs multiples : faire connaître le véhicule, aider l’ingénieur dans l’étude du véhicule et former les futurs pilotes de manière plus efficace et moins coûteuse. L’outil de simulation peut être également un moyen d’évaluer facilement des paramètres dont l’appréciation est subjective comme la signature sonore du véhicule.
Resumo:
Cette recherche s’intéresse à l’évolution de la conception des stratégies d’apprentissage d’étudiants ou d’étudiantes de niveau collégial présentant un trouble du spectre de l’autisme (TSA). Nous souhaitons analyser la perception que ces étudiants ont de ces stratégies avant notre intervention proprement dite et à la suite de celle-ci, c’est-à-dire de suivre son évolution. Si notre hypothèse de travail se vérifie, l’étudiant ou l’étudiante aux prises avec cette condition devrait se responsabiliser et modifier ses stratégies en fonction des informations que nous lui fournirons. C’est dans le cadre d’interventions éducatives formelles avec l’étudiante ou l’étudiant que nous agirons sur la prise de conscience d’abord, puis sur la modification de ses habitudes et de ses croyances en matière d’apprentissage. Nos interventions prendront la forme d’ateliers individualisés basés sur certains concepts béhavioraux et des théories du courant constructiviste qui tiendront compte, bien entendu, des caractéristiques de la personne ayant un TSA. Dans la présente étude, nous explorerons les stratégies que les étudiants ou les étudiantes présentant un TSA utilisent lors des rédactions dans leurs cours de français, langue d’enseignement et littérature. Nous avons recensé des auteurs pour qui les stratégies d’apprentissage prennent la forme d’actions que l’étudiant ou l’étudiante autiste sera capable de reconnaitre. Nous aimerions savoir si une intervention sur la métacognition auprès d’étudiants ou d’étudiantes ayant un TSA favoriserait chez eux la mise en place de stratégies d’apprentissage efficaces pour la rédaction de l’analyse littéraire, la compétence demandée au terme du premier cours de la séquence des cours de français, langue d’enseignement et littérature. Afin de répondre à cette interrogation, notre recherche vise les objectifs suivants: 1) inventorier les stratégies d’apprentissage utilisées lors de la phase du travail individuel; 2) informer l’étudiant ou l’étudiante du profil d’apprentissage élaboré pour lui ou pour elle par le logiciel Étudiant Plus et ainsi l’aider à prendre conscience de ses stratégies; 3) selon les stratégies identifiées par le questionnaire Étudiant Plus, élaborer deux ou trois ateliers qui tiennent compte des pratiques à modifier lors du travail individuel; 4) appliquer le processus d’encadrement auprès de tous lors de la phase du travail individuel; 5) évaluer les effets de l’expérimentation du processus d’encadrement sur les stratégies d’apprentissage en fonction des changements apportés. Cette recherche est réalisée auprès de trois étudiants. Elle propose une approche méthodologique qui réunit le rôle de la chercheuse et des participants ou des participantes à la recherche. L’analyse des données met en valeur les stratégies d’apprentissage communes utilisées par les étudiants et les étudiantes présentant un TSA. Cette recherche soutient l'adoption d’un processus d’encadrement auprès des étudiants ou des étudiantes ayant un TSA. Notre étude ne vise pas à généraliser les résultats, mais elle favorise une approche éducative centrée sur les besoins d’apprentissage des étudiants ou des étudiantes présentant un TSA.
Resumo:
Le dimensionnement des ponts et viaducs au Canada se base sur la norme CAN/CSA S6-14. Pour le calcul de ces structures sous des charges extrêmes, des cartes d'aléa sismique sont produites par la Commission géologique du Canada selon un taux d'amortissement de 5 %. La norme propose des taux d'amortissement visqueux élastique de 2 % pour le béton et de 1 % pour l'acier. Un nouveau facteur de correction selon l'amortissement est mentionné dans cette norme pour modifier les spectres de réponse provenant des cartes sismiques. Plusieurs études sur des ouvrages d'art quantifient les taux d'amortissement visqueux élastique entre 1 % et 2 %, confirmant ainsi qu'il est nécessaire d'utiliser un facteur de correction des spectres pour éviter une sous-évaluation des déplacements au niveau du tablier. Le projet de recherche consiste à quantifier le taux d'amortissement visqueux élastique des ponts routiers grâce à des essais in situ sur des ouvrages du Québec. Les essais débutent avec l'acquisition de données à l'aide d'accéléromètres alors que le pont est sous vibrations ambiantes. Une fois les propriétés modales extraites, un essai sous vibrations forcées par balayage des fréquences est effectué, en ciblant les fréquences propres. L'interprétation de la réponse de la structure à ce dernier essai permet de trouver précisément l'amortissement. Une étude paramétrique sur le logiciel OpenSees est aussi effectuée pour évaluer l'impact de la variation du taux d'amortissement utilisé sur les déplacements du tablier lors d'un séisme. Les résultats démontrent que le taux d'amortissement visqueux élastique peut être aussi bas que 1 %, ce qui peut doubler la réponse en déplacements aux joints d'un pont par rapport à une analyse avec 5 % d'amortissement. Le mémoire cherche à clarifier l'utilisation de la norme S6-14, à démontrer l'importance d'utiliser un bon taux d'amortissement et à encourager l'utilisation d'un facteur de correction des spectres adéquat pour calculer la réponse sismique des ponts routiers québécois et canadiens. Des recommandations sont proposées dans ce sens.
Resumo:
L’échocardiographie et l’imagerie par résonance magnétique sont toutes deux des techniques non invasives utilisées en clinique afin de diagnostiquer ou faire le suivi de maladies cardiaques. La première mesure un délai entre l’émission et la réception d’ultrasons traversant le corps, tandis que l’autre mesure un signal électromagnétique généré par des protons d’hydrogène présents dans le corps humain. Les résultats des acquisitions de ces deux modalités d’imagerie sont fondamentalement différents, mais contiennent dans les deux cas de l’information sur les structures du coeur humain. La segmentation du ventricule gauche consiste à délimiter les parois internes du muscle cardiaque, le myocarde, afin d’en calculer différentes métriques cliniques utiles au diagnostic et au suivi de différentes maladies cardiaques, telle la quantité de sang qui circule à chaque battement de coeur. Suite à un infarctus ou autre condition, les performances ainsi que la forme du coeur en sont affectées. L’imagerie du ventricule gauche est utilisée afin d’aider les cardiologues à poser les bons diagnostics. Cependant, dessiner les tracés manuels du ventricule gauche requiert un temps non négligeable aux cardiologues experts, d’où l’intérêt pour une méthode de segmentation automatisée fiable et rapide. Ce mémoire porte sur la segmentation du ventricule gauche. La plupart des méthodes existantes sont spécifiques à une seule modalité d’imagerie. Celle proposée dans ce document permet de traiter rapidement des acquisitions provenant de deux modalités avec une précision de segmentation équivalente au tracé manuel d’un expert. Pour y parvenir, elle opère dans un espace anatomique, induisant ainsi une forme a priori implicite. L’algorithme de Graph Cut, combiné avec des stratégies telles les cartes probabilistes et les enveloppes convexes régionales, parvient à générer des résultats qui équivalent (ou qui, pour la majorité des cas, surpassent) l’état de l’art ii Sommaire au moment de la rédaction de ce mémoire. La performance de la méthode proposée, quant à l’état de l’art, a été démontrée lors d’un concours international. Elle est également validée exhaustivement via trois bases de données complètes en se comparant aux tracés manuels de deux experts et des tracés automatisés du logiciel Syngovia. Cette recherche est un projet collaboratif avec l’Université de Bourgogne, en France.
Resumo:
Au Québec, l’épandage des sels de déglaçage pendant l’entretien hivernal des routes est l’une des causes de la corrosion des armatures en acier dans les ouvrages routiers en béton armé. La corrosion de l’acier crée des tensions internes dans le béton, ce qui entraine l’éclatement du béton qui enrobe l’armature d’acier. La durée de vie des infrastructures routières est par conséquent réduite et les coûts d’entretien sont augmentés. Le présent projet de recherche est né d’une collaboration entre le ministère des Transports, de la Mobilité durable et de l’Électrification des Transports (MTMDET) et l’Université de Sherbrooke. Il vise à étudier l’utilisation des barres en polymères renforcés de fibres de verre (PRFV), non sujettes à la corrosion dans les dalles en béton armé continu (BAC). Dans cette étude, une section de chaussée de 300 mètres de long a été instrumentée pendant la reconstruction de l’autoroute 40 Ouest à Montréal, pour caractériser le comportement à court et à long terme des dalles en BAC avec des armatures en PRFV. Les résultats expérimentaux montrent que les conditions climatiques affectent considérablement le comportement à la fissuration des dalles en BAC de PRFV et d’acier. Une analyse par éléments finis d’une section de la chaussée a été également réalisée avec le logiciel Abaqus en vue d’étudier l’influence de plusieurs paramètres tels que le taux d’armature longitudinale, les propriétés des barres de PRFV et leur profondeur, l’épaisseur de la dalle, le coefficient de dilatation thermique du béton et l’espacement des armatures transversales sur le comportement de la dalle en BAC de PRFV. Le modèle par éléments finis a été validé avec les résultats expérimentaux obtenus en chantier. Les résultats numériques montrent que le coefficient de dilatation thermique du béton, le taux d’armature longitudinale, les propriétés des barres de PRFV et leur positionnement dans la dalle, l’épaisseur de la dalle constituent les paramètres qui influencent le plus le comportement des dalles en BAC. Pour le dimensionnement des dalles en BAC de PRFV, des taux d’armature ainsi que des propriétés de barres de PRFV ont été proposés en tenant compte des résultats expérimentaux ainsi que de l’analyse par éléments finis.