585 resultados para l’approche phénomique
Resumo:
Récemment, beaucoup d’efforts ont été investis afin de développer des modulateurs sur silicium pour les télécommunications optiques et leurs domaines d’applications. Ces modulateurs sont utiles pour les centres de données à courte portée et à haut débit. Ainsi, ce travail porte sur la caractérisation de deux types de modulateurs à réseau de Bragg intégré sur silicium comportant une jonction PN entrelacée dont le but est de réaliser une modulation de la longueur d’onde de Bragg par le biais de l’application d’un tension de polarisation inverse réalisant une déplétion des porteurs au sein du guide d’onde. Pour le premier modulateur à réseau de Bragg, la période de la jonction PN est différente de celle du réseau de Bragg tandis que le deuxième modulateur à réseau de Bragg a la période de sa jonction PN en accord avec celle du réseau de Bragg. Ces différences apporteront un comportement différent du modulateur impliquant donc une transmission de données de qualité différente et c’est ce que nous cherchons à caractériser. L’avantage de ce modulateur à réseau de Bragg est qu’il est relativement simple à designer et possède un réseau de Bragg uniforme dont on connaît déjà très bien les caractéristiques. La première étape dans la caractérisation de ces modulateurs fut de réaliser des mesures optiques, uniquement, afin de constater la réponse spectrale en réflexion et en transmission. Par la suite, nous sommes passé par l’approche usuelle, c’est à dire en réalisant des mesures DC sur les modulateurs. Ce mémoire montre également les résultats pratiques sur le comportement des électrodes et de la jonction PN. Mais il rend compte également des résultats de la transmission de données de ces modulateurs par l’utilisation d’une modulation OOK et PAM-4 et permet de mettre en évidence les différences en terme d’efficacité de modulation de ces deux modulateurs. Nous discutons alors de la pertinence de ce choix de design par rapport à ce que l’on peut trouver actuellement dans la littérature.
Resumo:
La Formule SAE (Society of Automotive Engineers) est une compétition étudiante consistant en la conception et la fabrication d’une voiture de course monoplace. De nombreux événements sont organisés à chaque année au cours desquels plusieurs universités rivalisent entre elles lors d’épreuves dynamiques et statiques. Celles-ci comprennent l’évaluation de la conception, l’évaluation des coûts de fabrication, l’accélération de la voiture, etc. Avec plus de 500 universités participantes et des événements annuels sur tous les continents, il s’agit de la plus importante compétition d’ingénierie étudiante au monde. L’équipe ULaval Racing a participé pendant plus de 20 ans aux compétitions annuelles réservées aux voitures à combustion. Afin de s’adapter à l’électrification des transports et aux nouvelles compétitions destinées aux voitures électriques, l’équipe a conçu et fabriqué une chaîne de traction électrique haute performance destinée à leur voiture 2015. L’approche traditionnelle employée pour concevoir une motorisation électrique consiste à imposer les performances désirées. Ces critères comprennent l’inclinaison maximale que la voiture doit pouvoir gravir, l’autonomie désirée ainsi qu’un profil de vitesse en fonction du temps, ou tout simplement un cycle routier. Cette approche n’est malheureusement pas appropriée pour la conception d’une traction électrique pour une voiture de type Formule SAE. Ce véhicule n’étant pas destiné à la conduite urbaine ou à la conduite sur autoroute, les cycles routiers existants ne sont pas représentatifs des conditions d’opération du bolide à concevoir. Ainsi, la réalisation de ce projet a nécessité l’identification du cycle d’opération routier sur lequel le véhicule doit opérer. Il sert de point de départ à la conception de la chaîne de traction composée des moteurs, de la batterie ainsi que des onduleurs de tension. L’utilisation d’une méthode de dimensionnement du système basée sur un algorithme d’optimisation génétique, suivie d’une optimisation locale couplée à une analyse par éléments-finis a permis l’obtention d’une solution optimale pour les circuits de type Formule SAE. La chaîne de traction conçue a été fabriquée et intégrée dans un prototype de voiture de l’équipe ULaval Racing lors de la saison 2015 afin de participer à diverses compétitions de voitures électriques.
Resumo:
Cette thèse examine les pratiques architecturales et les dynamiques identitaires chez les Podokwo, Muktele et Mura des monts Mandara (Cameroun). Elle s’organise autour de l’hypothèse-cadre selon laquelle la logique pratique et fonctionnelle de la construction, de l’extension et de la transformation d’une maison évolue en tandem avec des considérations d’ordre symbolique, notamment la production des sentiments ethniques (Hodder, 1982) et la quête du prestige social à l’intérieur de la communauté (Duncan, 1982 ; Roux, 1976). En partant de l’approche développée par des auteurs comme Ian Hodder (2012, 2006, 1999, 1982), Daniel Miller (2010, 2007, 2005, 2001, 1987), et Christophey Tilley (2010, 2006, 2004, 2002, 1999), je montre comment la maison, à travers ses multiples usages, devient porteuse de plusieurs appartenances identitaires à un niveau sociétal et individuel (Bromberger, 1980). Pour cela, j’ai porté mon attention, non seulement sur ce que les individus font avec la maison, mais aussi sur la manière dont celle-ci construit à son tour l’identité des individus (Miller, 2001 : 119). J’ai par ailleurs centrée mon analyse autour de quelques évènements clés survenus dans l’histoire des Podokwo, des Muktele et des Mura, en particulier la descente en plaine (1963), l’exode rural et le fonctionnariat (1980) et la transition démocratique (1990). Ces évènements influent sur les pratiques architecturales et sur les discours identitaires qui en sont les corolaires.
Resumo:
Cette recherche vise à décrire et à évaluer les effets perçus - par les aidantes et les aidants principaux de personnes âgées en perte sévère d'autonomie - d'une approche communautaire en maintien à domicile sur la situation d'assistance. Il s'agit d'une étude de nature qualitative, basée sur des entrevues individuelles semi-dirigées auprès de sept personnes aidantes. Le schéma d'entrevue a été élaboré à partir des éléments contenus dans le cadre théorique présentant un modèle dynamique du phénomène de l'assistance. Le matériel recueilli a donné lieu à une analyse de contenu qui respecte rigoureusement la méthodologie suggérée par L'Écuyer (1990). Les résultats révèlent que les aidantes et les aidants sont grandement préoccupés par la situation de la personne aidée, qu'ils possèdent un certain nombre de ressources pour assumer adéquatement leur rôle et que ces ressources font davantage appel à une richesse intérieure qu'à des moyens externes. De même, le soutien social semble davantage tributaire de la dynamique familiale que de l'approche communautaire bien que celle-ci en favorise la présence. Ce n'est pas le cas pour la mise à contribution des ressources de la communauté pour laquelle l'intervention selon l'approche communautaire est perçue comme étant déterminante. Les résultats de la présente recherche suggèrent, qu'en agissant positivement sur les médiateurs que sont le réseau social et les ressources, l’approche communautaire influence la perception subjective qu'ont les aidantes et les aidants des exigences de l'assistance, contribuant ainsi à diminuer leur sentiment de fardeau et à augmenter leur sentiment de satisfaction.
Resumo:
L’objectif principal de cette recherche était d’examiner l’interaction entre élèves d’ALS et de FLS de sixième année du primaire du Québec et de l’Ontario communicant par clavardage et utilisant l’approche en Tandem. Plus spécifiquement, elle visait à vérifier si ces apprenants offraient de la rétroaction corrective et, le cas échéant, si cette dernière suscitait de la réparation. L’opinion des participants par rapport à leur expérience de communication en Tandem a été examinée. Les sessions de clavardage ont eu lieu sur une période de quatre mois produisant 16 séances de clavardage (8 en anglais et 8 en français). Les résultats montrent que des apprenants de langue seconde ont offert de la rétroaction corrective à 370 occasions. L’examen des données révèle que les sujets ont utilisé les trois types de rétroaction: la rétroaction explicite, la reformulation et la négociation de la forme. Contrairement à ce qui a pu être observé dans d’autres études antérieures impliquant de jeunes apprenants, une des découvertes majeures de cette recherche fut l’utilisation, par les participants, de la rétroaction explicite plutôt que la reformulation. Par contraste avec la recherche de Morris (2005) qui impliquait également de jeunes apprenants de niveau primaire utilisant le clavardage, le taux de réparation a été plutôt bas. La grande majorité des élèves d’ALS ont aimé utiliser l’ordinateur comme moyen d’apprentissage de leur L2 et de leur L1 contrairement aux élèves de FLS. Les implications pédagogiques des résultats de cette recherche ainsi que des suggestions pour de futures recherches sont également discutées.
Resumo:
Les enjeux hydrologiques modernes, de prévisions ou liés aux changements climatiques, forcent l’exploration de nouvelles approches en modélisation afin de combler les lacunes actuelles et d’améliorer l’évaluation des incertitudes. L’approche abordée dans ce mémoire est celle du multimodèle (MM). L’innovation se trouve dans la construction du multimodèle présenté dans cette étude : plutôt que de caler individuellement des modèles et d’utiliser leur combinaison, un calage collectif est réalisé sur la moyenne des 12 modèles globaux conceptuels sélectionnés. Un des défis soulevés par cette approche novatrice est le grand nombre de paramètres (82) qui complexifie le calage et l’utilisation, en plus d’entraîner des problèmes potentiels d’équifinalité. La solution proposée dans ce mémoire est une analyse de sensibilité qui permettra de fixer les paramètres peu influents et d’ainsi réduire le nombre de paramètres total à caler. Une procédure d’optimisation avec calage et validation permet ensuite d’évaluer les performances du multimodèle et de sa version réduite en plus d’en améliorer la compréhension. L’analyse de sensibilité est réalisée avec la méthode de Morris, qui permet de présenter une version du MM à 51 paramètres (MM51) tout aussi performante que le MM original à 82 paramètres et présentant une diminution des problèmes potentiels d’équifinalité. Les résultats du calage et de la validation avec le « Split-Sample Test » (SST) du MM sont comparés avec les 12 modèles calés individuellement. Il ressort de cette analyse que les modèles individuels, composant le MM, présentent de moins bonnes performances que ceux calés indépendamment. Cette baisse de performances individuelles, nécessaire pour obtenir de bonnes performances globales du MM, s’accompagne d’une hausse de la diversité des sorties des modèles du MM. Cette dernière est particulièrement requise pour les applications hydrologiques nécessitant une évaluation des incertitudes. Tous ces résultats mènent à une amélioration de la compréhension du multimodèle et à son optimisation, ce qui facilite non seulement son calage, mais également son utilisation potentielle en contexte opérationnel.
Resumo:
Le caribou de Peary, désigné en voie de disparition, n’est pas épargné par les changements climatiques. Par le passé, des hivers successifs caractérisés par des conditions météorologiques extrêmes ont entrainé des déclins importants de population en quelques années, pouvant aller jusqu’à 98 %. L’augmentation des épisodes de redoux hivernaux et de pluies sur neige réduit les conditions d’accès à la nourriture de cette sous-espèce. Ces conditions ont pour conséquence d’augmenter la densité des couches de neige dans le manteau neigeux, ce qui empêche le caribou d’avoir accès au fourrage couvrant le sol en hiver. Dans cet esprit, l’outil de spatialisation de SNOWPACK dans l’Arctique (OSSA) développé dans Ouellet et al. (2016) permet la spatialisation des conditions d’accès à la nourriture du caribou de Peary en utilisant le modèle de simulation du couvert nival SNOWPACK. Le paramètre du couvert nival utilisé est l’épaisseur cumulée au-delà d’un seuil fixe de densité durant la saison hivernale (ECD). L'OSSA fournit un résultat d’une résolution spatiale de 32 km puisque les données météorologiques utilisées sont les données de réanalyses du North American Regional Reanalysis (NARR) qui possède une résolution de 32 km. Cette résolution grossière ne permet pas de documenter et prédire la migration locale des différentes populations sur les îles de l'archipel arctique canadien. L’objectif principal de ce projet est donc d’évaluer le potentiel d'une approche de raffinement spatial de l'OSSA à une résolution de 1 km. Afin d’affiner la résolution spatiale de la simulation de l’ECD, des données de pente et de l’albédo du sol à une résolution de 1 km ont été utilisées. Avant d’effectuer les simulations à haute résolution, la sensibilité de l’ECD à ces deux paramètres du terrain a été testée. Les simulations préliminaires ont permis de démontrer que plus la pente est élevée, plus l’ECD sera faible. Également, il a été identifié que la pente va affecter l’ECD à partir d’un seuil de 3 degré. L’albédo du sol a aussi un impact significatif sur l’ECD, mais à un niveau moins important que la pente. Finalement, la comparaison des résultats à faible et haute résolution a pu démontrer que l’approche de raffinement spatial appliquée permet d’obtenir une information plus détaillée des conditions d’accès à la nourriture du caribou de Peary. Les résultats d’ECD obtenus à 1 km de résolution montrent des écarts avec l’ECD à 32 km de résolution pouvant dépasser les 2000 cm. Finalement, cette étude montre l’intérêt d’automatiser cette approche afin de pouvoir spatialiser les conditions d’accès à la nourriture à une résolution de 1 km et de prédire certaines micro-variabilités dans les déplacements futurs des caribous de Peary en fonction des changements climatiques.
Resumo:
Cette thèse traite de la modélisation numérique de la réponse vibro-acoustique de structures sandwiches-composites avec matériaux viscoélastiques intégrés soumises à différents types d’excitations mécaniques et acoustiques. Dans une première phase, nous avons utilisé une approche de synthèse modale pour calculer les principaux indicateurs vibro-acoustiques de la structure : la vitesse quadratique, la puissance rayonnée, la perte par transmission…Ensuite, l’intégrale de Rayleigh a été exploitée pour calculer la puissance rayonnée de chaque structure. L’obstacle majeur que nous avons alors surmonté, était de gérer efficacement la dépendance en fréquence des propriétés de la couche viscoélastique dans l’approche de synthèse modale. Dans une second phase, en partant du champ vibratoire calculé dans la première étape, nous avons développé une méthode hybride FEM-TMM (méthode des éléments finis – méthode de matrices de transfert) pour prédire avec précision et en un temps de calcul acceptable, et jusqu’en hautes fréquences, les principaux paramètres de conception vibro-acoustique de ces structures, notamment l’amortissement équivalent et les nombres d’ondes suivant les deux directions spatiales x et y de propagation de l’onde acoustique. Les validations numériques que nous avons effectuées, montrent bien la robustesse de l'algorithme que nous avons développé. Ce dernier reste toutefois limité à des structures planes. Dans une troisième phase de ce travail, une étude paramétrique sur l’effet de l’emplacement et de la forme de la couche viscoélastique a été réalisée. Cette étude a été faite en se servant de la méthode hybride FEM-TMM pour calculer la réponse acoustique (puissance transmise et perte par transmission).
Resumo:
Pour assurer une gestion adéquate des écosystèmes nordiques à l’approche du développement de nouvelles activités économiques, le Centre d’expertise en analyse environnementale du Québec a pris l’initiative d’adapter certains de ses outils, plus particulièrement sa Procédure d’évaluation du risque écotoxicologique. En effet, bien que l’outil soit applicable au Québec méridional, des recommandations pour adapter la méthodologie au Nord en permettraient une utilisation plus judicieuse pour les divers intervenants utilisant cet outil de gestion de l’environnement. L’objectif de cet essai est d’identifier les aspects de l’outil devant être adaptés pour son application dans le Nord québécois et de proposer des recommandations pour y arriver. Ainsi, une première analyse des activités économiques en essor sur le territoire a permis d’identifier les substances qui pourraient être problématiques et pour lesquelles aucun critère de gestion ou de valeur toxicologique de référence n’est disponible au Québec, comme les métaux des terres rares, l’uranium et les fractions des hydrocarbures pétroliers. Une recherche approfondie sur les particularités du territoire à l’étude a permis, pour sa part, d’identifier des espèces écologiques représentatives et qui pourraient être utilisées comme récepteurs potentiels. À la suite de l’analyse de l’outil de gestion d’évaluation du risque écotoxicologique, trois recommandations principales ont pu être émises dans le but de l’adapter à ce territoire unique : 1) établir des critères de sols pour les contaminants susceptibles d’être émis dans le Nord québécois, 2) développer des valeurs toxicologiques de références pour le plus haut niveau de sensibilités pour ces mêmes substances et 3) recueillir les informations nécessaires sur des récepteurs nordiques clés pour pouvoir évaluer le risque écotoxicologique qu’ils courent. Finalement, un exemple d’application des recommandations, notamment l’utilisation de nouveaux récepteurs, tels que le caribou migrateur et le lièvre arctique, ainsi que l’utilisation de critères génériques et de valeurs toxicologiques de référence d’autres juridictions, a permis d’évaluer le risque pour un cas fictif en milieu nordique. Bien que le besoin d’investir des efforts de recherches pour pallier certaines lacunes ait été identifié, les recommandations proposées permettront de cibler ces efforts sur les éléments les plus problématiques pour permettre, finalement, d’adapter l’outil aux réalités des écosystèmes fragiles et uniques de ce territoire particulier.
Resumo:
Pour être performant au plus haut niveau, les athlètes doivent posséder une capacité perceptivo-cognitive supérieure à la moyenne. Cette faculté, reflétée sur le terrain par la vision et l’intelligence de jeu des sportifs, permet d’extraire l’information clé de la scène visuelle. La science du sport a depuis longtemps observé l’expertise perceptivo-cognitive au sein de l’environnement sportif propre aux athlètes. Récemment, des études ont rapporté que l’expertise pouvait également se refléter hors de ce contexte, lors d’activités du quotidien par exemple. De plus, les récentes théories entourant la capacité plastique du cerveau ont amené les chercheurs à développer des outils pour entraîner les capacités perceptivo-cognitives des athlètes afin de les rendre plus performants sur le terrain. Ces méthodes sont la plupart du temps contextuelles à la discipline visée. Cependant, un nouvel outil d’entraînement perceptivo-cognitif, nommé 3-Dimensional Multiple Object Tracking (3D-MOT) et dénué de contexte sportif, a récemment vu le jour et a fait l’objet de nos recherches. Un de nos objectifs visait à mettre en évidence l’expertise perceptivo-cognitive spécifique et non-spécifique chez des athlètes lors d’une même étude. Nous avons évalué la perception du mouvement biologique chez des joueurs de soccer et des non-athlètes dans une salle de réalité virtuelle. Les sportifs étaient systématiquement plus performants en termes d’efficacité et de temps de réaction que les novices pour discriminer la direction du mouvement biologique lors d’un exercice spécifique de soccer (tir) mais également lors d’une action issue du quotidien (marche). Ces résultats signifient que les athlètes possèdent une meilleure capacité à percevoir les mouvements biologiques humains effectués par les autres. La pratique du soccer semble donc conférer un avantage fondamental qui va au-delà des fonctions spécifiques à la pratique d’un sport. Ces découvertes sont à mettre en parallèle avec la performance exceptionnelle des athlètes dans le traitement de scènes visuelles dynamiques et également dénuées de contexte sportif. Des joueurs de soccer ont surpassé des novices dans le test de 3D-MOT qui consiste à suivre des cibles en mouvement et stimule les capacités perceptivo-cognitives. Leur vitesse de suivi visuel ainsi que leur faculté d’apprentissage étaient supérieures. Ces résultats confirmaient des données obtenues précédemment chez des sportifs. Le 3D-MOT est un test de poursuite attentionnelle qui stimule le traitement actif de l’information visuelle dynamique. En particulier, l’attention sélective, dynamique et soutenue ainsi que la mémoire de travail. Cet outil peut être utilisé pour entraîner les fonctions perceptivo-cognitives des athlètes. Des joueurs de soccer entraînés au 3D-MOT durant 30 sessions ont montré une amélioration de la prise de décision dans les passes de 15% sur le terrain comparés à des joueurs de groupes contrôles. Ces données démontrent pour la première fois un transfert perceptivo-cognitif du laboratoire au terrain suivant un entraînement perceptivo-cognitif non-contextuel au sport de l’athlète ciblé. Nos recherches aident à comprendre l’expertise des athlètes par l’approche spécifique et non-spécifique et présentent également les outils d’entraînements perceptivo-cognitifs, en particulier le 3D-MOT, pour améliorer la performance dans le sport de haut-niveau.
Resumo:
International audience
Resumo:
Les protéines MCM (minichromosome maintenance) forment un complexe hétérohexamérique composé des protéines MCM2 à MCM7 qui possède une activité hélicase nécessaire lors de la réplication de l’ADN. Ce complexe est la cible des protéines ATM et ATR, kinases responsables de l’initiation de la réponse cellulaires aux dommages à l’ADN, pour permettre l’arrêt de la réplication lors de la détection de cassure double brin. De plus, les MCM permettent le remodelage de la chromatine par leur activité hélicase mais aussi par leur association avec une chaperone d’histone la protéine ASF1. Toutefois, la majorité des complexes MCM ne co-localisent pas avec les origines de réplication. De plus, la quantité des protéines MCM dans la cellule est nettement supérieure à la quantité requise lors de la réplication. Ces deux faits laissent présager que ce complexe hélicase pourrait jouer un second rôle. Des études effectuées au laboratoire ont démontré une augmentation de la fixation à la chromatine des protéines MCM suite au traitement avec l’étoposide, un inhibiteur de la topoisomérase II qui cause des cassures double brin. L’étude des interactions de la protéine MCM2 par spectrométrie de masse ainsi que par immunobuvardage ont démontré une augmentation de l’interaction entre la protéine MCM2 et ASF1 suite aux dommages. Ceci suggère que les protéines MCM pourraient être impliquées dans les mécanismes de réparation de l’ADN. La nature de l’interaction entre la protéine MCM2 et ASF1 a été déterminée in vitro par des immunobuvardages de type Far western et des Dot blot avec des mutants de la protéine MCM2. Des cellules U2OS-Flp-in ont été utilisées pour générer des lignées stables exprimants les protéines MCM2 à MCM7 avec une étiquette GFP ou fusionnées avec une biotine-ligase (BirA). Les cellules ont été cultivées dans du milieu SILAC et des immunoprécipitations ont été effectuées sur des cellules contrôles (R0K0), des cellules qui expriment MCM-GFP ou BirA (R6K4) non-traitées et des cellules qui expriment MCM-GFP ou BirA traitées à l’étoposide (R10K8). Les immunoprécipitations ont été analysés au spectromètre de masse pour déterminer la modulation des interactions avant et après dommages à l’ADN. Les études d’interactions in vitro ont permis d’identifier que l’interaction entre la protéine MCM2 et ASF1 se situe entre les acides aminés 81-162 sur la protéine MCM2. L’approche de spectrométrie de masse a permis d’identifier plusieurs protéines liant le complexe MCM qui sont impliquées non seulement dans la réplication de l’ADN mais aussi dans le remodelage de la chromatine. De plus, certains de ces nouveaux partenaires augmentent leur interaction avec le complexe suite à l’induction de dommages. Ces résultats suggèrent que les protéines MCM jouent un rôle dans la réorganisation de la chromatine dans les mécanismes de réparation de l’ADN.
Resumo:
Dans la dernière décennie, la robotique souple a connu un gain de popularité considérable. Elle est, de façon inhérente, sécuritaire pour les humains et l’environnement qui l’entourent. Grâce à sa faible rigidité, la robotique souple est idéale pour manipuler des objets fragiles et elle est en mesure de s’adapter à son environnement. Les caractéristiques uniques de la robotique souple font de cette technologie un tremplin vers la conception d’appareils médicaux novateurs, plus particulièrement pour des outils permettant le positionnement d’aiguilles dans le but de faire des interventions percutanées, notamment au niveau du foie. Toutefois, la souplesse de cette technologie induit, du même coup, quelques désagréments. Elle procure un comportement sécuritaire, mais entraîne aussi un manque de rigidité limitant les applications de la robotique souple. Sans une rigidité minimale, il est impossible d’accomplir des opérations repérables et précises. La robotique souple a en fait un compromis majeur entre la capacité de chargement et la plage d’utilisation. Pour utiliser cette technologie dans le domaine médical, il est primordial d’ajouter un système permettant de moduler la rigidité du système pour inhiber ce compromis. Couplée avec un système de freinage granulaire, la robotique souple semble comporter l’ensemble des caractéristiques permettant d’accomplir des interventions au foie. Cette étude tend à démontrer que couplée à un système modulant la rigidité, la robotique souple peut être utilisée pour accomplir des opérations d’une façon précise et repérable, tout en demeurant sécuritaire. Le positionneur d’aiguilles développé est 100 % compatible avec l’Imagerie à Résonance Magnétique (IRM). La plage d’insertion du système permet de rejoindre l’entièreté du foie (1500 cm³), tout en maintenant une rigidité suffisante (3 N/mm) et en étant aussi précis que l’outil d’imagerie utilisée (1 mm). L’approche hybride consistant à développer un système activé de façon souple couplée à un module régulant sa rigidité permet d’obtenir à la fois les avantages d’une robotique compliante (souple) et conventionnelle (dure).
Écologie industrielle et territoriale : un outil pour favoriser le développement durable au Viêt Nam
Resumo:
L’écologie industrielle et territoriale constituant un pilier de l’économie circulaire est de plus en plus déployée dans le monde pour prévenir les pollutions industrielles et éradiquer la raréfaction des ressources. L’objectif de l’essai est de trouver des solutions possibles pour promouvoir ce concept au Viêt Nam afin de relever les défis environnementaux pour aboutir aux objectifs de la croissance verte d’ici 2035. Pour l’atteindre, les trois objectifs secondaires sont la justification de l’applicabilité du concept proposé dans les pays en développement, le diagnostic des barrières de déploiement de ce concept au Viêt Nam et l’analyse des bonnes pratiques réalisées au Québec et en Chine. Un changement de paradigme dans les politiques publiques qui touchent la rationalité économique est incontournable pour faciliter la mise en œuvre de l’écologie industrielle. Les pays en développement ont entrepris certaines démarches de développement durable comme la responsabilité sociale des organisations selon ISO 26 000, l’Agenda 21 local et, très timidement, l’approche de The Natural Step. Le Viêt Nam connaît, depuis les trente dernières années, une industrialisation rapide. La croissance économique est un avantage mobilisant, pourtant les externalités industrielles représentent une des menaces importantes pour ce pays du Sud. Le secteur industriel a contribué au tiers du revenu de ce pays. Les 299 zones industrielles ont été mises en service pour accroître les valeurs ajoutées industrielles. Ce pays de l’Asie du Sud-Est fait face à des risques environnementaux comme l’augmentation des déchets industriels, le doublement de consommation d’énergie et l’augmentation d’un facteur six des émissions de CO2. Le diagnostic sur les sept barrières de création d’une symbiose industrielle démontre la maturité du Viêt Nam au deuxième niveau de déploiement de l’écologie industrielle. Cela signifie que les efforts initiaux ont été bien mobilisés. Cependant, les incitatives économiques et la participation publique sont plus préoccupantes. La méthodologie de création d’une symbiose industrielle au Québec se caractérise par une approche volontaire ainsi que l’acceptabilité sociale. À l’opposé, les outils juridiques constituent un des principaux facteurs de succès de la mise en œuvre de l’économie circulaire en Chine. Les recommandations pour l’implantation de l’écologie industrielle au Viêt Nam sont formulées en compilant les deux approches réglementaires et volontaires. L’adoption de la pensée écosystémique dans les politiques de développement durable, le renforcement de l’information, sensibilisation et éducation, la communication sur les bénéfices de l’écologie industrielle et territoriale auprès des intervenants, la création d’un centre de recherche et développement, la restructuration législative, l’adoption de la gouvernance participative et l’internalisation des externalités par l’écofiscalité doivent se combiner pour faciliter la transformation des zones industrielles vers les parcs éco-industriels au Viêt Nam.
Resumo:
L’enseignement de l’anglais, langue seconde a connu de nombreux changements au courant des 20 dernières années, du primaire au collégial, afin d’assurer une meilleure maîtrise de cette langue par les élèves au Québec. Ainsi, à la fin du parcours secondaire, le niveau visé par le Programme de formation de l’école québécoise et sanctionné par le ministère à l’épreuve unique de secondaire cinq à l’égard de la connaissance de l’anglais, langue seconde se compare au niveau intermédiaire (Intermediate Mid ou High) de l’échelle de l’American Council on the Teaching of Foreign Languages. En somme, l’élève qui possède son diplôme d’études secondaires a normalement une connaissance de niveau intermédiaire de l’ALS lorsqu’il s’inscrit dans un collège d’enseignement général et professionnel (cégep). Or, 20 ans après l’instauration des cours obligatoires d’ALS, les cégeps accueillent toujours 30 à 40 % des étudiants en 604-100 Anglais de base alors que ce cours n’était que temporaire au départ (Commission d’évaluation de l’enseignement collégial, 2001; Fournier 2007). Cet état de fait nous a amenée à proposer une recherche ayant pour objet les caractéristiques des étudiants des cours 604-100 Anglais de base et 604-101 Langue anglaise et communication du Cégep de St-Hyacinthe dans le but de comprendre l’écart entre les deux niveaux quant à leur maîtrise de la langue anglaise. Notre recherche est descriptive avec un volet comparatif afin d’atteindre les deux objectifs suivants: (1) identifier les caractéristiques des étudiants inscrits dans les cours collégiaux de niveau 604-100 Anglais de base et 604-101 Langue anglaise et communication du Cégep de St-Hyacinthe; (2) comparer les réponses des étudiants des deux niveaux pour voir quelles caractéristiques se distinguent et pourraient expliquer l’écart de maîtrise de la langue anglaise entre les étudiants classés au niveau attendu (604-101 Langue anglaise et communication) et ceux du niveau de base (604-100 Anglais de base). Nous avons construit un questionnaire électronique spécifiquement pour cette étude, composé de questions fermées comprenant cinq sections (profil scolaire, attitude et intérêt envers l’ALS, la motivation, l’anxiété linguistique et l’utilisation de stratégies d’apprentissage) que nous avons envoyé à 907 répondants potentiels du Cégep de St-Hyacinthe à l’automne 2015. Nous n’avons retenu que les étudiants qui satisfaisaient à nos trois critères de sélection, soit (1) être inscrit dans le niveau 604-100 Anglais de base ou 604-101 Langue anglaise et communication, (2) avoir fait toutes ses études primaires et secondaires en français au Québec, et (3) être en continuité de formation (sans interruption entre la fin du secondaire et l’entrée au cégep). Au final, notre recherche compte 294 sujets, 108 étudiants de niveau 604-100 et 186 étudiants de niveau 604-101. Nous avons utilisé l’approche quantitative et réalisé des statistiques descriptives et inférentielles pour analyser nos données. Les analyses ont révélé une différence significative entre les deux niveaux sur plusieurs points, que nous avons regroupés en quatre caractéristiques principales qui peuvent expliquer l’écart quant à leur maîtrise de la langue anglaise. La première est d’avoir un intérêt intégratif et instrumental à apprendre l’anglais, car celui-ci supporte les efforts pour atteindre une maîtrise satisfaisante de la langue. La deuxième est le développement d’une confiance en ses capacités à communiquer dans la langue puisque cette confiance réduit l’anxiété linguistique qui gêne l’apprentissage. La troisième est une préparation adéquate aux études supérieures, tant au niveau des compétences spécifiques (moyenne générale, programmes enrichis) que transversales (comme l’utilisation des stratégies d’apprentissage) au secondaire, car elle offre un bagage de connaissances nécessaires à la maîtrise d’une langue. Finalement, la présence de difficultés liées à l’apprentissage comme les troubles d’apprentissage et des faiblesses dans la langue maternelle est un frein au développement d’une compétence en langue seconde puisqu’elles touchent précisément des compétences essentielles à l’apprentissage soit la lecture et l’écriture. Outre la recherche de Fournier (2007) sur les prédicteurs de réussite, peu ou pas d’études ont porté sur les étudiants collégiaux par rapport à leur profil d’apprenant d’une L2. Nos résultats contribuent donc à documenter une situation peu étudiée, et permettent de quantifier ce que les enseignants constatent sur le terrain depuis des années. Ce faisant, nos données sont utiles tant au niveau de l’organisation scolaire des collèges que des départements de langue et de l’enseignement, car elles permettent l’amélioration du contexte dans lequel ces cours sont offerts et du coup, d’avoir des retombées sur la réussite des étudiants.