18 resultados para modélisation théorique
Resumo:
L'énergie solaire est une source d'énergie renouvelable et naturellement disponible partout sur terre. Elle est donc tout indiquée pour remplacer à long terme une part importante des combustibles fossiles dans le portrait énergétique mondial. Comme toutes les formes d'énergie utilisées par la société, l'énergie solaire n'échappe pas aux lois économiques et son adoption dépend directement du coût par unité d'énergie produite. Plusieurs recherches et développements technologiques cherchent à réduire ce coût par différents moyens. Une de ces pistes est l'intégration de deux technologies solaires, la technologie photovoltaïque et la technologie thermique, au sein d'un même système. La conception d'un tel système pose plusieurs défis technologiques, le plus important étant sans contredit la compétition entre la quantité d'électricité produite et la qualité de la chaleur. En effet, ces deux variables varient de manière opposée par rapport à la température~: le rendement des cellules photovoltaïques a tendance à diminuer à haute température alors que la valeur utile de l'énergie thermique tend à augmenter. Une conception judicieuse d'un système photovoltaïque/thermique (PV/T) devra donc prendre en compte et connaître précisément le comportement d'une cellule à haute température. Le présent projet propose de concevoir un système permettant la caractérisation de cellules photovoltaïques sur une large plage de température. Premièrement, une revue de littérature pose les bases nécessaires à la compréhension des phénomènes à l'origine de la variation de la performance en fonction de la température. On expose également différents concepts de système PV/T et leur fonctionnement, renforçant ainsi la raison d'être du projet. Deuxièmement, une modélisation théorique d'une cellule photovoltaïque permet de définir grossièrement le comportement attendu à haute température et d'étudier l'importance relative de la variation du courant photogénéré et de la tension en circuit ouvert. Ce modèle sera plus tard comparé à des résultats expérimentaux. Troisièmement, un banc d'essais est conçu et fabriqué d'après une liste de critères et de besoins. Ce banc permet d'illuminer une cellule, de faire varier sa température de -20 °C à 200 °C et de mesurer la courbe I-V associée. Le système est partiellement contrôlé par un PC et la température est asservie par un contrôleur de type PID. Le banc a été conçu de manière à ce que la source de lumière soit aisément échangeable si un spectre différent est désiré. Finalement, le comportement du montage est validé en caractérisant une cellule au silicium et une autre à base de InGaP. Les résultats sont comparés aux prédictions du modèle et aux données de la littérature. Une étude d'incertitude permet également de cibler la source principale de bruit dans le système et propose des pistes d'améliorations à ce propos.
Resumo:
Face à l’augmentation observée des accidents de régénération en forêt boréale et leur impact sur la productivité et la résilience des peuplements denses d’épinette noire, une meilleure compréhension des mécanismes de résilience et une surveillance des risques d’accident de régénération sont nécessaires. L’objectif principal de cette étude visait donc le développement de modèles prédictifs et spatialement explicites de la régénération de l’épinette noire. Plus particulièrement, deux modèles ont été développés soit (1) un modèle théorique, développé à l’aide de données in situ et de données spatiales et (2) un modèle cartographique, utilisant uniquement des données spatiales accessibles telles que les inventaires forestiers provinciaux et l’indice spectral de sévérité des feux « differenced Normalized Burn Ratio » (dNBR). Les résultats obtenus ont permis de constater que la succession rapprochée (< 55 ans) d’une coupe et d’un feu n’entraîne pas automatiquement une ouverture des peuplements d’épinette noire. Tout d’abord, les peuplements affectés par la coupe de récupération de brûlis (1963), immatures lors du feu de 2005, sont caractérisés par une faible régénération. En contrepartie, la régénération à la suite du feu de 2005, observé dans les peuplements coupés entre 1948 et 1967, est similaire à celle observée dans les peuplements non perturbés dans les 60 années précédant le feu. Le modèle théorique sélectionné à l’aide des critères d’information d’Akaike a, quant à lui, permis d'identifier trois variables déterminantes dans le succès ou l’échec de la régénération de l’épinette noire soit (1) la végétation potentielle, (2) le pourcentage de recouvrement du sol par les sphaignes et (3) la sévérité du feu évaluée à l’aide du dNBR. Des validations bootstrap et croisée ont permis de mettre en évidence qu’un modèle utilisant ces trois variables explique 59 % de la variabilité de la régénération observée dans le territoire d’étude., Quant à lui, le modèle cartographique qui utilise uniquement les variables végétation potentielle et dNBR explique 32 % de la variabilité. Finalement ce modèle a permis la création d’une carte de risque d’accident de régénération. Basée sur la précision du modèle, cette carte offre un potentiel intéressant afin de cibler les secteurs les plus à risque et ainsi appuyer les décisions relatives aux reboisements dans les zones incendiées.
Resumo:
Parmi les méthodes les plus utilisées en inspection embarquée des structures (Structural Health Monitoring ou SHM), les techniques d’imagerie basées sur un modèle de propagation sont de plus en plus répandues. Pour les techniques d'imagerie basées sur un modèle de propagation, bien que ces techniques montent en popularité, la complexité des matériaux composites réduit grandement leur performance en détection d'endommagements comparativement aux démonstrations précédentes de leur potentiel sur des matériaux isotropes. Cette limitation dépend entre autres des hypothèses simplificatrices souvent posées dans les modèles utilisés et peut entraîner une augmentation des faux positifs et une réduction de la capacité de ces techniques à détecter des endommagements. Afin de permettre aux techniques d'imagerie basées sur un modèle d'offrir une performance équivalente à celle obtenue précédemment sur les structures métalliques, il est nécessaire d'exploiter des modèles de propagation considérant la dynamique complexe des ondes dans ce type de structures. Cette thèse présente les travaux effectués sur la modélisation de la propagation des ondes guidées dans les matériaux composites. En première partie, une amélioration simple des modèles de génération et de propagation est proposée afin de permettre de mieux reconstruire les signaux générés et propagés sur une structure composite. Par la suite, le potentiel de la technique « Excitelet » à détecter et positionner adéquatement un ou plusieurs endommagements sur un matériau, peu importe son empilement (d’un composite unidirectionnel à un matériau isotrope), est démontré tant pour le mode A[indice inférieur 0] que le mode S[indice inférieur 0]. Les résultats obtenus numériquement et expérimentalement démontrent une corrélation directe entre l'amélioration des modèles mathématiques derrière les techniques d'imagerie et la robustesse des techniques pour ce qui est de la précision sur le positionnement du dommage et du niveau de corrélation obtenu. Parmi les améliorations à la technique d'imagerie « Excitelet » proposées, une amélioration significative des résultats en imagerie est démontrée en considérant la distribution de cisaillement plan sous l’émetteur, ce qui est une nouveauté par rapport aux travaux de recherche précédents en imagerie. La performance de la technique d'imagerie via la modélisation de la propagation d'ondes guidées dans les laminés multicouches transverses isotropes est par la suite démontrée. Les équations de l'élasticité en 3D sont utilisées pour bien modéliser le comportement dispersif des ondes dans les composites, et cette formulation est par la suite implantée dans la technique d'imagerie « Excitelet ». Les résultats démontrent que l'utilisation d'une formulation mathématique plus avancée permet d'augmenter la précision quant au positionnement des dommages et à l'amplitude de la corrélation obtenue lors de la détection d'un dommage. Une analyse exhaustive de la sensibilité de la technique d’imagerie et de la propagation d’ondes aux conditions environnementales et à la présence de revêtement sur la structure est présentée en dernière partie. Les résultats obtenus montrent que la considération de la propagation complexe dans la formulation d’imagerie ainsi que la caractérisation des propriétés mécaniques « a priori » de l’imagerie améliorent la robustesse de la technique et confèrent à la technique « Excitelet » la capacité de détecter et positionner précisément un endommagement, peu importe le type de structure.
Resumo:
L’interaction physique humain-robot est un domaine d’étude qui s’est vu porter beaucoup d’intérêt ces dernières années. Une optique de coopération entre les deux entités entrevoit le potentiel d’associer les forces de l’humain (comme son intelligence et son adaptabilité) à celle du robot (comme sa puissance et sa précision). Toutefois, la mise en service des applications développées reste une opération délicate tant les problèmes liés à la sécurité demeurent importants. Les robots constituent généralement de lourdes machines capables de déplacements très rapides qui peuvent blesser gravement un individu situé à proximité. Ce projet de recherche aborde le problème de sécurité en amont avec le développement d’une stratégie dite "pré-collision". Celle-ci se caractérise par la conception d’un système de planification de mouvements visant à optimiser la sécurité de l’individu lors de tâches d’interaction humain-robot dans un contexte industriel. Pour ce faire, un algorithme basé sur l’échantillonnage a été employé et adapté aux contraintes de l’application visée. Dans un premier temps, l’intégration d’une méthode exacte de détection de collision certifie que le chemin trouvé ne présente, a priori, aucun contact indésirable. Ensuite, l’évaluation de paramètres pertinents introduit notre notion de sécurité et définit un ensemble d’objectifs à optimiser. Ces critères prennent en compte la proximité par rapport aux obstacles, l’état de conscience des êtres humains inclus dans l’espace de travail ainsi que le potentiel de réaction du robot en cas d'évènement imprévu. Un système inédit de combinaison d’objectifs guide la recherche et mène à l’obtention du chemin jugé comme étant le plus sûr, pour une connaissance donnée de l’environnement. Le processus de contrôle se base sur une acquisition minimale de données environnementales (dispositif de surveillance visuelle) dans le but de nécessiter une installation matérielle qui se veut la plus simple possible. Le fonctionnement du système a été validé sur le robot industriel Baxter.
Resumo:
La compréhension et la modélisation de l’interaction de l’onde électromagnétique avec la neige sont très importantes pour l’application des technologies radars à des domaines tels que l’hydrologie et la climatologie. En plus de dépendre des propriétés de la neige, le signal radar mesuré dépendra aussi des caractéristiques du capteur et du sol. La compréhension et la quantification des différents processus de diffusion du signal dans un couvert nival s’effectuent à travers les théories de diffusions de l’onde électromagnétique. La neige, dans certaines conditions, peut être considérée comme un milieu dense lorsque les particules de glace qui la composent y occupent une fraction volumique considérable. Dans un tel milieu, les processus de diffusion par les particules ne se font plus de façon indépendante, mais de façon cohérente. L’approximation quasi-cristalline pour les milieux denses est une des théories élaborées afin de prendre en compte ces processus de diffusions cohérents. Son apport a été démontré dans de nombreuses études pour des fréquences > 10 GHz où l’épaisseur optique de la neige est importante et où la diffusion de volume est prédominante. Par contre, les capteurs satellitaires radar présentement disponibles utilisent les bandes L (1-2GHz), C (4-8GHz) et X (8-12GHz), à des fréquences principalement en deçà des 10 GHz. L’objectif de la présente étude est d’évaluer l’apport du modèle de diffusion issu de l’approximation quasi-cristalline pour les milieux denses (QCA/DMRT) dans la modélisation de couverts de neige sèches en bandes C et X. L’approche utilisée consiste à comparer la modélisation de couverts de neige sèches sous QCA/DMRT à la modélisation indépendante sous l’approximation de Rayleigh. La zone d’étude consiste en deux sites localisés sur des milieux agricoles, près de Lévis au Québec. Au total 9 champs sont échantillonnés sur les deux sites afin d’effectuer la modélisation. Dans un premier temps, une analyse comparative des paramètres du transfert radiatif entre les deux modèles de diffusion a été effectuée. Pour des paramètres de cohésion inférieurs à 0,15 à des fractions volumiques entre 0,1 et 0,3, le modèle QCA/DMRT présentait des différences par rapport à Rayleigh. Un coefficient de cohésion optimal a ensuite été déterminé pour la modélisation d’un couvert nival en bandes C et X. L’optimisation de ce paramètre a permis de conclure qu’un paramètre de cohésion de 0,1 était optimal pour notre jeu de données. Cette très faible valeur de paramètre de cohésion entraîne une augmentation des coefficients de diffusion et d’extinction pour QCA/DMRT ainsi que des différences avec les paramètres de Rayleigh. Puis, une analyse de l’influence des caractéristiques du couvert nival sur les différentes contributions du signal est réalisée pour les 2 bandes C et X. En bande C, le modèle de Rayleigh permettait de considérer la neige comme étant transparente au signal à des angles d’incidence inférieurs à 35°. Vu l’augmentation de l’extinction du signal sous QCA/DMRT, le signal en provenance du sol est atténué d’au moins 5% sur l’ensemble des angles d’incidence, à de faibles fractions volumiques et fortes tailles de grains de neige, nous empêchant ainsi de considérer la transparence de la neige au signal micro-onde sous QCA/DMRT en bande C. En bande X, l’augmentation significative des coefficients de diffusion par rapport à la bande C, ne nous permet plus d’ignorer l’extinction du signal. La part occupée par la rétrodiffusion de volume peut dans certaines conditions, devenir la part prépondérante dans la rétrodiffusion totale. Pour terminer, les résultats de la modélisation de couverts de neige sous QCA/DMRT sont validés à l’aide de données RADARSAT-2 et TerraSAR-X. Les deux modèles présentaient des rétrodiffusions totales semblables qui concordaient bien avec les données RADARSAT-2 et TerraSAR-X. Pour RADARSAT-2, le RMSE du modèle QCA/DMRT est de 2,52 dB en HH et 2,92 dB en VV et pour Rayleigh il est de 2,64 dB en HH et 3,01 dB en VV. Pour ce qui est de TerraSAR-X, le RMSE du modèle QCA/DMRT allait de 1,88 dB en HH à 2,32 dB en VV et de 2,20 dB en HH à 2,71 dB en VV pour Rayleigh. Les valeurs de rétrodiffusion totales des deux modèles sont assez similaires. Par contre, les principales différences entre les deux modèles sont bien évidentes dans la répartition des différentes contributions de cette rétrodiffusion totale.
Resumo:
Résumé: L’Institut pour l'étude de la neige et des avalanches en Suisse (SLF) a développé SNOWPACK, un modèle thermodynamique multi-couches de neige permettant de simuler les propriétés géophysiques du manteau neigeux (densité, température, taille de grain, teneur en eau, etc.) à partir desquelles un indice de stabilité est calculé. Il a été démontré qu’un ajustement de la microstructure serait nécessaire pour une implantation au Canada. L'objectif principal de la présente étude est de permettre au modèle SNOWPACK de modéliser de manière plus réaliste la taille de grain de neige et ainsi obtenir une prédiction plus précise de la stabilité du manteau neigeux à l’aide de l’indice basé sur la taille de grain, le Structural Stability Index (SSI). Pour ce faire, l’erreur modélisée (biais) par le modèle a été analysée à l’aide de données précises sur le terrain de la taille de grain à l’aide de l’instrument IRIS (InfraRed Integrated Sphere). Les données ont été recueillies durant l’hiver 2014 à deux sites différents au Canada : parc National des Glaciers, en Colombie-Britannique ainsi qu’au parc National de Jasper. Le site de Fidelity était généralement soumis à un métamorphisme à l'équilibre tandis que celui de Jasper à un métamorphisme cinétique plus prononcé. Sur chacun des sites, la stratigraphie des profils de densités ainsi des profils de taille de grain (IRIS) ont été complétés. Les profils de Fidelity ont été complétés avec des mesures de micropénétromètre (SMP). L’analyse des profils de densité a démontré une bonne concordance avec les densités modélisées (R[indice supérieur 2]=0.76) et donc la résistance simulée pour le SSI a été jugée adéquate. Les couches d’instabilités prédites par SNOWPACK ont été identifiées à l’aide de la variation de la résistance dans les mesures de SMP. L’analyse de la taille de grain optique a révélé une surestimation systématique du modèle ce qui est en accord avec la littérature. L’erreur de taille de grain optique dans un environnement à l’équilibre était assez constante tandis que l’erreur en milieux cinétique était plus variable. Finalement, une approche orientée sur le type de climat représenterait le meilleur moyen pour effectuer une correction de la taille de grain pour une évaluation de la stabilité au Canada.
Resumo:
La population dont il est question ici, soit celle des personnes aveugles devenues-sourdes a perdu, tardivement, un sens essentiel à la communication; sans l'ouïe, elle est confinée à un monde de silence et d'isolement auquel elle n'est pas préparée. Elle se trouve dépourvue de moyens de communication, d'où l'urgence de mettre en oeuvre un programme pour rétablir une communication fonctionnelle dans ses activités de la vie quotidienne. La langue des signes québécoise (LSQ) constituant pour ces personnes une langue seconde, son apprentissage se révèle complexe, aussi, notre mobile est clair et délimité : restaurer une communication déficiente à l'aide d'un code de signes fonctionnels tout en favorisant la possibilité ultérieure d'acquérir la LSQ, s'il y a lieu. Pour cette raison, les signes sont choisis à même le répertoire de la LSQ et ils le sont selon des critères d'utilité, d'iconicité et d'ergonomie. Suite à l'étude de ces critères, des constituants andragogiques seront analysés, ce qui permettra l'élaboration d'un code de communication fonctionnelle.
Resumo:
Tout le monde convient aisément que la société actuelle exige d'un diplômé du collégial qu'il sache lire: les besoins de sa vie personnelle et sociale tout comme ses études ultérieures et sa vie professionnelle l'exigent. De plus, on reconnaît volontiers que développer ses habiletés en lecture permet à l'individu d'augmenter son autonomie dans l'apprentissage. Malheureusement, des indices nous incitent à croire que beaucoup de cégépiens rencontrent des difficultés importantes en lecture et que ces difficultés menacent leurs succès scolaires. Nous interrogeant sur les moyens appropriés à développer le goût et l'habileté à lire, nous examinons les pratiques pédagogiques et les recherches en français au collégial. Nous n'y trouvons malheureusement ni les outils théoriques ni les instruments d'évaluation qui nous permettraient d'établir les caractéristiques réelles des cégépiens en lecture et d'orienter leur formation en tenant compte des besoins identifiés. Cependant, un examen des théories cognitivistes en lecture, des théories en linguistique, des théories de la motivation et de l'engagement cognitif, des travaux de didacticiens nous permet de découvrir de nombreux modèles théoriques et de nombreuses applications pédagogiques intéressantes de ces propositions théoriques. Pourtant, aucun des théoriciens ou chercheurs consultés ne propose un modèle centré sur le lecteur et immédiatement applicable à l'interprétation des caractéristiques du lecteur cégépien. C'est pourquoi, nous mettons de l'avant nos propres propositions pour définir un cadre théorique de la lecture et un modèle du lecteur qui s'appuient sur les théories linguistiques et cognitivistes étudiées. Le cadre théorique propose une définition de la lecture, identifie les trois facteurs fondamentaux de l'activité de lire, et expose un ensemble de principes regroupant les éléments essentiels pour caractériser la lecture. Ce cadre théorique donne une place centrale au lecteur dans un ensemble d'interactions mettant en cause également le texte et le contexte. Le modèle de lecteur se conforme au cadre théorique et présente les quatre composantes retenues pour représenter le lecteur : ses compétences langagières et cognitives, ses processus métacognitifs et ses traits affectifs. Pour chacune de ces composantes, le modèle propose des listes de descripteurs précis qui devraient permettre de planifier une évaluation diagnostique adéquate. Le modèle est complété par une réflexion sur les variables à retenir dans l'évaluation du lecteur cégépien et par quelques descriptions de certains types de lecteur chez qui le cégépien trouve probablement ses propres traits: le lecteur de plus grande maturité, le lecteur moins habile, le lecteur expert. Ce cadre et ce modèle théoriques ont subi deux épreuves de validation: l'une concerne sa validité interne d'un point de vue théorique et fut effectuée auprès de spécialistes en lecture, en linguistique, en psychologie cognitive. L'autre concerne sa validité interne vue sous un angle écologique et fut effectuée auprès de pro fesseurs experts de l'enseignement collégial. À la suite de ces opérations, nous avons apporté quelques corrections à nos propositions théoriques qui nous semblent en augmenter et la validité interne et la validité écologique. Néanmoins, d'autres changements importants pourront être intégrés, lors de travaux ultérieurs, pour augmenter la cohérence interne du modèle et son adéquation aux objectifs d'évaluation. À plus long terme, nos propositions théoriques permettront de concevoir un dispositif d'évaluation diagnostique. Les données obtenues grâce à ce dispositif pourront alors être analysées pour établir des profils de lecteurs cégépiens et pour développer un plan de formation qui réponde aux besoins mis en évidence par ces profils.
Resumo:
Cette recherche de type pré-expérimental a pour objectif de comparer les perceptions d’auto-efficacité chez des étudiants d'ordre collégial qui ont assisté à un cours théorique sur un problème prioritaire de santé, d'une part, en utilisant un enseignement théorique magistral (ETM), et d'autre part, en utilisant un enseignement assisté par ordinateur (EAO). L'hypothèse de recherche suggère une augmentation significative des perceptions d'auto-efficacité chez les étudiants ayant reçu un EAO comparativement aux étudiants qui ont reçu un ETM. Dans cette étude, la théorie de l'apprentissage social et des perceptions d'auto-efficacité de Bandura (1971,1986), est utilisée comme cadre de référence. L'échantillonnage des sujets de cette recherche est composé d'étudiants de deuxième année inscrits au programme de soins infirmiers du Collège de Sherbrooke. Les données ont été recueillies à l'aide d'un instrument de mesure élaboré selon le Task-Associated Self-Perception Charting et développé par Kingery, Ballard, Pruitt et Hurley (1992). Les résultats ont démontré qu'il existait une différence significative entre les perceptions d'autoefficacité suite à un ETM et un EAO chez les mêmes sujets. Contrairement à l'hypothèse de cette étude, les étudiants ont exprimé qu'ils considéraient avoir une meilleure perception de leur auto-efficacité suite à un ETM. Par contre, l'analyse des résultats de cette recherche nous fournit les éléments qui laissent présager la pertinence de l'utilisation de l'EAO comme stratégie d'enseignement dans le but de motiver les étudiants en regard de leurs apprentissages.
Resumo:
Le présent essai dépeint un exercice de modélisation d'un programme de promotion de la relation parents-enseignants d'enfants du premier cycle du primaire. Nous nous sommes questionnés, au cours de l'étude de ce programme, sur les quatre (4) facteurs suivants : (1) le mandat de l'intervention ; (2) l'environnement dans lequel il doit être implanté ; (3) le professionnel responsable de la mise en oeuvre ; (4) la stratégie d'intervention à privilégier pour l'atteinte des buts et des objectifs. Une recherche théorique, auprès d'auteurs ayant exploré le domaine, permet tout d'abord l'approfondissement de ces quatre (4) enjeux. Elle permet, en ce sens, de déterminer un noyau conducteur, qui facilitera le transfert du programme de relation parents-enseignants d'enfants du premier cycle du primaire à d'autres milieux et face à d'autres problématiques. Ces facteurs, constituant la base d'un nouveau programme, sont : (1) promotion ; (2) milieu scolaire urbain ; (3) service social ; (4) conscientisation. Nous avons démontré que l'école et la famille sont deux (2) institutions de notre société qui se sont développées parallèlement et de façon hermétique, accentuant ainsi l'inaccessibilité de part et d'autre. L'analyse théorique nous a permis d'harmoniser les quatre (4) facteurs de notre premier programme dont nous questionnions les possibilités d'interaction. Afin de mettre en oeuvre un nouveau programme plus général appliqué au monde scolaire et à d'autres milieux, nous devions valider ce dernier programme pour appuyer et justifier notre intervention. Pour ce faire, des rencontres avec des acteurs particulièrement susceptibles d'être impliqués dans l'élaboration ou la mise en oeuvre du second programme ont eu lieu. Ces rencontres ont constitué l'analyse pratique de ce deuxième programme et ont permis de le redéfinir afin qu'il réponde davantage aux besoins de modélisation du présent essai. L'analyse théorique et pratique faite au cours de l'essai démontre que la collaboration entre la famille et l'école est difficile parce que l'objet qui unit ces deux (2) groupes constitue la spécificité de l'un ou de l'autre. En effet, l'éducation scolaire est l'objet qui unit parents et enseignants et actuellement, les enseignants sont les professionnels de l'éducation scolaire des enfants. Cela accentue l'écart entre les pouvoirs d'intervention des parents et des enseignants. Finalement, les exercices effectués au cours du présent essai nous ont permis de généraliser notre intervention non seulement au lien parents-enseignants mais également à la relation existant entre tout système ayant des possibilités inégales d'intervention.
Resumo:
Le service social d'aujourd'hui est confronté à de nouvelles réalités. Nous devons faire face quotidiennement à de nouvelles valeurs qui se heurtent à notre fonctionnement individuel et social. Il faut en arriver à pouvoir composer avec ces nouveaux éléments. Citons par exemple le rôle de la femme qui prend de plus en plus d'importance dans la structure sociale, les étudiants, les travailleurs et les assistés sociaux qui revendiquent leurs droits par des moyens de pressions de plus en plus convaincants, le couple qui ne vit plus exclusivement pour la procréation, l'avortement qui fait l'objet de prises de positions très controversées et enfin le système dans son entier qui est remis en question par certains. Le service social personnel qui agit à un niveau individuel d'intervention se doit de faire face à ces nouvelles réalités et de découvrir des méthodes de travail qui conviennent à cette situation. C'est dans ce contexte que nous entreprenons cette étude. Au Québec, le service social, comme la plupart des sciences sociales, possède un passé qui date de moins d'un siècle. Et dans ces différents domaines comme dans d'autres, nous subissons l'influence de nos voisins du sud. Depuis quelques années, on a tendance à identifier globalement le service social personnel à deux types d'approches: une première communément appelée l'approche traditionnelle à long terme et la seconde appelée l'approche court terme. Ces deux méthodes d'intervention constituaient le guide de référence de ce qu'on appelait le casework. Celui-ci est identifié au Québec par divers termes, soient ceux d'intervention clinique, d'intervention sociale individuelle ou encore de service social personnel. Ces différentes terminologies désignent l'activité du service social auprès des individus et des petits groupes. Si l'on considère le domaine de l'intervention clinique d'une façon plus approfondie, on constate que depuis quelques années, sous l'influence des sciences du comportement et des sciences sociales ainsi qu'à partir de l'expérience de la pratique du service social personnel, se sont développés de nouveaux modèles de pratique. Nous constatons que ces modèles sont peu connus au Québec. Les milieux universitaires commencent à s'y intéresser et les milieux de la pratique en subiront l'influence dans quelques années. Nous croyons qu'un approfondissement de ces modèles pourra vraisemblablement améliorer les méthodes d'action et par conséquent la qualité des services rendus s'y verra peut-être augmentée. Cette étude découle d'un besoin d'explorer le champ des connaissances de l'intervention clinique. Cette exploration pourra conséquemment être utile à ceux qui voudront bien s'en servir. Ce besoin d'améliorer l'état de nos connaissances en service social personnel ressort de certaines observations qui démontrent que plusieurs approches en intervention clinique sont peu connues. Afin de clarifier et d'améliorer notre connaissance théorique des modèles d'intervention clinique, nous procéderons à l'exploration de neuf de ceux-ci. Pour orienter notre observation, nous partirons de variables que nous définirons ultérieurement. Ces variables vont nous guider dans la cueillette des données et dans la présentation de modèles. Avant de présenter systématiquement les modèles, il y aura un chapitre sur la position du problème et un second sur la méthodologie employée. La partie centrale qui traite des approches sera suivie d'une étude comparative.
Resumo:
Depuis le milieu des années 2000, une nouvelle approche en apprentissage automatique, l'apprentissage de réseaux profonds (deep learning), gagne en popularité. En effet, cette approche a démontré son efficacité pour résoudre divers problèmes en améliorant les résultats obtenus par d'autres techniques qui étaient considérées alors comme étant l'état de l'art. C'est le cas pour le domaine de la reconnaissance d'objets ainsi que pour la reconnaissance de la parole. Sachant cela, l’utilisation des réseaux profonds dans le domaine du Traitement Automatique du Langage Naturel (TALN, Natural Language Processing) est donc une étape logique à suivre. Cette thèse explore différentes structures de réseaux de neurones dans le but de modéliser le texte écrit, se concentrant sur des modèles simples, puissants et rapides à entraîner.
Resumo:
Les applications de réfrigération sont aujourd’hui majoritairement réalisées par des machines à compression alimentées en électricité. Animées à partir d’une source chaude, l’utilisation de machines à absorption permet d’utiliser très peu d’électricité comparée à une machine à compression et d’utiliser des réfrigérants écologiques. Le faible coefficient de performance et le coût élevé de ces machines est compensé par l’utilisation de rejets thermiques industriels destinés à être rejeté dans l’environnement et donc considérés comme gratuits. Le but de cette étude est de modéliser une machine à absorption hybride, utilisant le couple de fluide eau et ammoniac, en y ajoutant un compresseur ou booster dans la zone haute pression du circuit et d’évaluer ses performances. Cette modification crée une pression intermédiaire au désorbeur permettant de diminuer la température des rejets thermiques exploitables. Une température de rejets réutilisable de 50°C, contre 80°C actuellement, ouvrirait alors la voie à de nouvelles sources communes d’énergie. Le logiciel ASPEN Plus de simulation des procédés a été choisi afin de modéliser en régime permanent le système. Le modèle est en partie validé par l’étude expérimentale d’une machine à absorption commerciale de 10kW pour des applications de climatisation. Cette machine est située au Laboratoire des Technologies de l’Énergie d’Hydro-Québec. Ensuite, une étude de design permet de montrer, à puissance de réfrigération constante, les impacts bénéfiques de la technologie hybride sur le rendement exergétique, mais également sur la taille globale des échangeurs nécessaires. La technologie hybride est alors analysée économiquement face à une machine à absorption chauffée au gaz pour montrer sa rentabilité.
Resumo:
Cette thèse traite de la modélisation numérique de la réponse vibro-acoustique de structures sandwiches-composites avec matériaux viscoélastiques intégrés soumises à différents types d’excitations mécaniques et acoustiques. Dans une première phase, nous avons utilisé une approche de synthèse modale pour calculer les principaux indicateurs vibro-acoustiques de la structure : la vitesse quadratique, la puissance rayonnée, la perte par transmission…Ensuite, l’intégrale de Rayleigh a été exploitée pour calculer la puissance rayonnée de chaque structure. L’obstacle majeur que nous avons alors surmonté, était de gérer efficacement la dépendance en fréquence des propriétés de la couche viscoélastique dans l’approche de synthèse modale. Dans une second phase, en partant du champ vibratoire calculé dans la première étape, nous avons développé une méthode hybride FEM-TMM (méthode des éléments finis – méthode de matrices de transfert) pour prédire avec précision et en un temps de calcul acceptable, et jusqu’en hautes fréquences, les principaux paramètres de conception vibro-acoustique de ces structures, notamment l’amortissement équivalent et les nombres d’ondes suivant les deux directions spatiales x et y de propagation de l’onde acoustique. Les validations numériques que nous avons effectuées, montrent bien la robustesse de l'algorithme que nous avons développé. Ce dernier reste toutefois limité à des structures planes. Dans une troisième phase de ce travail, une étude paramétrique sur l’effet de l’emplacement et de la forme de la couche viscoélastique a été réalisée. Cette étude a été faite en se servant de la méthode hybride FEM-TMM pour calculer la réponse acoustique (puissance transmise et perte par transmission).
Resumo:
La pollution diffuse provenant des milieux agricoles a une influence majeure sur la qualité de l’eau. Le transport de sédiments et de nutriments, tels que le phosphore et l’azote, est particulièrement préoccupant. Les changements climatiques anticipés modifieront le régime hydrologique des rivières, ce qui entraînera des conséquences difficiles à anticiper, notamment sur la qualité de l’eau. Le site à l’étude est le bassin versant de la rivière Tomifobia, situé au sud-ouest du Québec, qui possède une superficie de 436 km² et qui comporte une forte activité agricole. Il a un impact important sur la qualité de l’eau du lac Massawippi puisqu’il draine 70% de son bassin versant. Le modèle hydrologique spatialisé Soil and Water Assessment Tool (SWAT) a été utilisé pour effectuer l’évaluation quantitative et qualitative de l’apport en eau à la rivière. Les activités agricoles ont été représentées dans le modèle selon un calendrier typique pour chacune des différentes cultures. Le calage et la validation du modèle pour le débit de la rivière Tomifobia ont été effectués à l’aide de la reconstitution des apports au lac Massawippi. Pour la qualité de l’eau, les données provenant de l’Institut de recherche et de développement en agroenvironnement (IRDA), du Comité de gestion du bassin versant de la rivière Saint-François (COGESAF) et la campagne d’échantillonnage du Groupe de recherche sur l’eau de l’Université de Sherbrooke (GREAUS) ont été utilisées. Les éléments analysés par rapport à la qualité de l’eau sont les sédiments, le phosphore et les nitrates. Différentes projections climatiques ont été entrées dans le modèle dans le but de déterminer les tendances hydrologiques futures. L’impact des changements climatiques sur le régime hydrologique se traduit principalement par une augmentation des débits hivernaux et une diminution des débits printaniers. Aucune tendance statistiquement significative n’a été observée pour la période estivale et automnale. L’effet des changements climatiques sur les exportations de nitrates est similaire à celui sur le débit. Pour les exportations de sédiments et de phosphore, on note une hausse à l’hiver, une baisse au printemps et une hausse pour l’été et l’automne.