967 resultados para Portlet-based application
Resumo:
Cette thése a été réalisée dans le cadre d'une cotutelle avec l'Institut National Polytechnique de Grenoble (France). La recherche a été effectuée au sein des laboratoires de vision 3D (DIRO, UdM) et PERCEPTION-INRIA (Grenoble).
Resumo:
La formation des sociétés fondées sur la connaissance, le progrès de la technologie de communications et un meilleur échange d'informations au niveau mondial permet une meilleure utilisation des connaissances produites lors des décisions prises dans le système de santé. Dans des pays en voie de développement, quelques études sont menées sur des obstacles qui empêchent la prise des décisions fondées sur des preuves (PDFDP) alors que des études similaires dans le monde développé sont vraiment rares. L'Iran est le pays qui a connu la plus forte croissance dans les publications scientifiques au cours de ces dernières années, mais la question qui se pose est la suivante : quels sont les obstacles qui empêchent l'utilisation de ces connaissances de même que celle des données mondiales? Cette étude embrasse trois articles consécutifs. Le but du premier article a été de trouver un modèle pour évaluer l'état de l'utilisation des connaissances dans ces circonstances en Iran à l’aide d'un examen vaste et systématique des sources suivie par une étude qualitative basée sur la méthode de la Grounded Theory. Ensuite au cours du deuxième et troisième article, les obstacles aux décisions fondées sur des preuves en Iran, sont étudiés en interrogeant les directeurs, les décideurs du secteur de la santé et les chercheurs qui travaillent à produire des preuves scientifiques pour la PDFDP en Iran. Après avoir examiné les modèles disponibles existants et la réalisation d'une étude qualitative, le premier article est sorti sous le titre de «Conception d'un modèle d'application des connaissances». Ce premier article sert de cadre pour les deux autres articles qui évaluent les obstacles à «pull» et «push» pour des PDFDP dans le pays. En Iran, en tant que pays en développement, les problèmes se situent dans toutes les étapes du processus de production, de partage et d’utilisation de la preuve dans la prise de décision du système de santé. Les obstacles qui existent à la prise de décision fondée sur des preuves sont divers et cela aux différents niveaux; les solutions multi-dimensionnelles sont nécessaires pour renforcer l'impact de preuves scientifiques sur les prises de décision. Ces solutions devraient entraîner des changements dans la culture et le milieu de la prise de décision afin de valoriser la prise de décisions fondées sur des preuves. Les critères de sélection des gestionnaires et leur nomination inappropriée ainsi que leurs remplaçants rapides et les différences de paiement dans les secteurs public et privé peuvent affaiblir la PDFDP de deux façons : d’une part en influant sur la motivation des décideurs et d'autre part en détruisant la continuité du programme. De même, tandis que la sélection et le remplacement des chercheurs n'est pas comme ceux des gestionnaires, il n'y a aucun critère pour encourager ces deux groupes à soutenir le processus décisionnel fondés sur des preuves dans le secteur de la santé et les changements ultérieurs. La sélection et la promotion des décideurs politiques devraient être basées sur leur performance en matière de la PDFDP et les efforts des universitaires doivent être comptés lors de leurs promotions personnelles et celles du rang de leur institution. Les attitudes et les capacités des décideurs et des chercheurs devraient être encouragés en leur donnant assez de pouvoir et d’habiliter dans les différentes étapes du cycle de décision. Cette étude a révélé que les gestionnaires n'ont pas suffisamment accès à la fois aux preuves nationales et internationales. Réduire l’écart qui sépare les chercheurs des décideurs est une étape cruciale qui doit être réalisée en favorisant la communication réciproque. Cette question est très importante étant donné que l'utilisation des connaissances ne peut être renforcée que par l'étroite collaboration entre les décideurs politiques et le secteur de la recherche. Dans ce but des programmes à long terme doivent être conçus ; la création des réseaux de chercheurs et de décideurs pour le choix du sujet de recherche, le classement des priorités, et le fait de renforcer la confiance réciproque entre les chercheurs et les décideurs politiques semblent être efficace.
Resumo:
La spectroscopie Raman est un outil non destructif fort utile lors de la caractérisation de matériau. Cette technique consiste essentiellement à faire l’analyse de la diffusion inélastique de lumière par un matériau. Les performances d’un système de spectroscopie Raman proviennent en majeure partie de deux filtres ; l’un pour purifier la raie incidente (habituellement un laser) et l’autre pour atténuer la raie élastique du faisceau de signal. En spectroscopie Raman résonante (SRR), l’énergie (la longueur d’onde) d’excitation est accordée de façon à être voisine d’une transition électronique permise dans le matériau à l’étude. La section efficace d’un processus Raman peut alors être augmentée d’un facteur allant jusqu’à 106. La technologie actuelle est limitée au niveau des filtres accordables en longueur d’onde. La SRR est donc une technique complexe et pour l’instant fastidieuse à mettre en œuvre. Ce mémoire présente la conception et la construction d’un système de spectroscopie Raman accordable en longueur d’onde basé sur des filtres à réseaux de Bragg en volume. Ce système vise une utilisation dans le proche infrarouge afin d’étudier les résonances de nanotubes de carbone. Les étapes menant à la mise en fonction du système sont décrites. Elles couvrent les aspects de conceptualisation, de fabrication, de caractérisation ainsi que de l’optimisation du système. Ce projet fut réalisé en étroite collaboration avec une petite entreprise d’ici, Photon etc. De cette coopération sont nés les filtres accordables permettant avec facilité de changer la longueur d’onde d’excitation. Ces filtres ont été combinés à un laser titane : saphir accordable de 700 à 1100 nm, à un microscope «maison» ainsi qu’à un système de détection utilisant une caméra CCD et un spectromètre à réseau. Sont d’abord présentés les aspects théoriques entourant la SRR. Par la suite, les nanotubes de carbone (NTC) sont décrits et utilisés pour montrer la pertinence d’une telle technique. Ensuite, le principe de fonctionnement des filtres est décrit pour être suivi de l’article où sont parus les principaux résultats de ce travail. On y trouvera entre autres la caractérisation optique des filtres. Les limites de basses fréquences du système sont démontrées en effectuant des mesures sur un échantillon de soufre dont la raie à 27 cm-1 est clairement résolue. La simplicité d’accordabilité est quant à elle démontrée par l’utilisation d’un échantillon de NTC en poudre. En variant la longueur d’onde (l’énergie d’excitation), différentes chiralités sont observées et par le fait même, différentes raies sont présentes dans les spectres. Finalement, des précisions sur l’alignement, l’optimisation et l’opération du système sont décrites. La faible acceptance angulaire est l’inconvénient majeur de l’utilisation de ce type de filtre. Elle se répercute en problème d’atténuation ce qui est critique plus particulièrement pour le filtre coupe-bande. Des améliorations possibles face à cette limitation sont étudiées.
Resumo:
Avec la complexité croissante des systèmes sur puce, de nouveaux défis ne cessent d’émerger dans la conception de ces systèmes en matière de vérification formelle et de synthèse de haut niveau. Plusieurs travaux autour de SystemC, considéré comme la norme pour la conception au niveau système, sont en cours afin de relever ces nouveaux défis. Cependant, à cause du modèle de concurrence complexe de SystemC, relever ces défis reste toujours une tâche difficile. Ainsi, nous pensons qu’il est primordial de partir sur de meilleures bases en utilisant un modèle de concurrence plus efficace. Par conséquent, dans cette thèse, nous étudions une méthodologie de conception qui offre une meilleure abstraction pour modéliser des composants parallèles en se basant sur le concept de transaction. Nous montrons comment, grâce au raisonnement simple que procure le concept de transaction, il devient plus facile d’appliquer la vérification formelle, le raffinement incrémental et la synthèse de haut niveau. Dans le but d’évaluer l’efficacité de cette méthodologie, nous avons fixé l’objectif d’optimiser la vitesse de simulation d’un modèle transactionnel en profitant d’une machine multicoeur. Nous présentons ainsi l’environnement de modélisation et de simulation parallèle que nous avons développé. Nous étudions différentes stratégies d’ordonnancement en matière de parallélisme et de surcoût de synchronisation. Une expérimentation faite sur un modèle du transmetteur Wi-Fi 802.11a a permis d’atteindre une accélération d’environ 1.8 en utilisant deux threads. Avec 8 threads, bien que la charge de travail des différentes transactions n’était pas importante, nous avons pu atteindre une accélération d’environ 4.6, ce qui est un résultat très prometteur.
Resumo:
À cause de la nature complexe et non linéaire de leurs opérations, les salles d’urgence (SU) constituent des entités organisationnelles uniques dans le domaine de la santé. Les SU subissent des pressions accrues résultant des dynamiques des sociétés contemporaines et de leurs systèmes de santé, et font face ainsi à des défis uniques comme l’engorgement. Contrairement aux croyances dominantes sur le phénomène, le présent travail de recherche établit que ce problème est en réalité une manifestation de pauvre performance systémique plutôt qu’une faillite opérationnelle. Alors, pour les SU, la performance organisationnelle relève une importance incontestable. En effet, l’étude de la performance organisationnelle est un sujet de recherche qui intéresse de nombreux chercheurs des services de santé. Il s’agit, néanmoins, d’un concept historiquement difficile à définir à cause de son caractère complexe, multidimensionnel et paradoxal. Le modèle EGIPSS, basé sur la théorie de l’action sociale de Parsons, est capable de saisir cette complexité et constitue un cadre conceptuel robuste et exhaustif, pouvant s’adapter à des contextes divers. Ce mémoire adopte le modèle EGIPSS pour présenter un outil global et intégré d’évaluation de la performance organisationnelle de la salle d’urgences de l’Hôpital Général Régional 46 à Guadalajara, au Mexique. Cet instrument est conçu pour prendre en compte spécifiquement les particularités propres des SU, ainsi que les caractéristiques organisationnelles uniques de l'Hôpital Général Régional 46. Enfin, le développement de ce projet de mémoire contribue aux efforts d’amélioration continue de la performance de cet établissement, et enrichit les connaissances sur les urgences en tant qu’unités organisationnelles.
Criteria for the validation of specialized verb equivalents : application in bilingual terminography
Resumo:
Multilingual terminological resources do not always include valid equivalents of legal terms for two main reasons. Firstly, legal systems can differ from one language community to another and even from one country to another because each has its own history and traditions. As a result, the non-isomorphism between legal and linguistic systems may render the identification of equivalents a particularly challenging task. Secondly, by focusing primarily on the definition of equivalence, a notion widely discussed in translation but not in terminology, the literature does not offer solid and systematic methodologies for assigning terminological equivalents. As a result, there is a lack of criteria to guide both terminologists and translators in the search and validation of equivalent terms. This problem is even more evident in the case of predicative units, such as verbs. Although some terminologists (L‘Homme 1998; Lerat 2002; Lorente 2007) have worked on specialized verbs, terminological equivalence between units that belong to this part of speech would benefit from a thorough study. By proposing a novel methodology to assign the equivalents of specialized verbs, this research aims at defining validation criteria for this kind of predicative units, so as to contribute to a better understanding of the phenomenon of terminological equivalence as well as to the development of multilingual terminography in general, and to the development of legal terminography, in particular. The study uses a Portuguese-English comparable corpus that consists of a single genre of texts, i.e. Supreme Court judgments, from which 100 Portuguese and 100 English specialized verbs were selected. The description of the verbs is based on the theory of Frame Semantics (Fillmore 1976, 1977, 1982, 1985; Fillmore and Atkins 1992), on the FrameNet methodology (Ruppenhofer et al. 2010), as well as on the methodology for compiling specialized lexical resources, such as DiCoInfo (L‘Homme 2008), developed in the Observatoire de linguistique Sens-Texte at the Université de Montréal. The research reviews contributions that have adopted the same theoretical and methodological framework to the compilation of lexical resources and proposes adaptations to the specific objectives of the project. In contrast to the top-down approach adopted by FrameNet lexicographers, the approach described here is bottom-up, i.e. verbs are first analyzed and then grouped into frames for each language separately. Specialized verbs are said to evoke a semantic frame, a sort of conceptual scenario in which a number of mandatory elements (core Frame Elements) play specific roles (e.g. ARGUER, JUDGE, LAW), but specialized verbs are often accompanied by other optional information (non-core Frame Elements), such as the criteria and reasons used by the judge to reach a decision (statutes, codes, previous decisions). The information concerning the semantic frame that each verb evokes was encoded in an xml editor and about twenty contexts illustrating the specific way each specialized verb evokes a given frame were semantically and syntactically annotated. The labels attributed to each semantic frame (e.g. [Compliance], [Verdict]) were used to group together certain synonyms, antonyms as well as equivalent terms. The research identified 165 pairs of candidate equivalents among the 200 Portuguese and English terms that were grouped together into 76 frames. 71% of the pairs of equivalents were considered full equivalents because not only do the verbs evoke the same conceptual scenario but their actantial structures, the linguistic realizations of the actants and their syntactic patterns were similar. 29% of the pairs of equivalents did not entirely meet these criteria and were considered partial equivalents. Reasons for partial equivalence are provided along with illustrative examples. Finally, the study describes the semasiological and onomasiological entry points that JuriDiCo, the bilingual lexical resource compiled during the project, offers to future users.
Resumo:
Les azapeptides sont des mimes peptidiques où le carbone alpha d’un ou de plusieurs acides aminés est remplacé par un atome d’azote. Cette modification tend à stabiliser une conformation en repliement beta en raison de la répulsion électronique entre les paires d’électrons libres des atomes d’azote adjacents et de la géométrie plane de l’urée. De plus, le résidu semicarbazide a une meilleure résistance face aux protéases en plus d’être chimiquement plus stable qu’une liaison amide. Bien que les propriétés des azapeptides en fassent des mimes peptidiques intéressants, leurs méthodes de synthèses font appel à la synthèse laborieuse d’hydrazines substituées en solution. Le peptide sécréteur d’hormone de croissance 6 (GHRP-6, His-D-Trp-Ala-Trp-D-Phe-Lys-NH2) est un hexapeptide synthétique qui possède une affinité pour deux récepteurs distincts: les récepteurs GHS-R1a et CD36. Les travaux effectués au cours de mon doctorat qui seront détaillés dans cet ouvrage visent à atteindre deux objectifs: (1) le développement d’analogues du peptide GHRP-6 sélectif à un seul récepteur et (2) la mise au point d’une nouvelle méthodologie pour la synthèse combinatoire d’azapeptides. En réponse au premier objectif, la synthèse parallèle de 49 analogues aza-GHRP-6 a été effectuée et certains candidats sélectifs au récepteur CD36 ont été identifiés. L’étude de leurs propriétés anti-angiogéniques, effectuée par nos collaborateurs, a également permis d’identifier des candidats intéressants pour le traitement potentiel de la dégénérescence maculaire liée à l’âge. Une nouvelle approche pour la synthèse combinatoire d’azapeptides, faisant appel à l’alkylation et la déprotection chimiosélective d’une sous-unité semicarbazone ancrée sur support solide, a ensuite été développée. La portée de cette méthodologie a été augmentée par la découverte de conditions permettant l’arylation régiosélective de cette sous-unité semicarbazone, donnant accès à treize nouveaux dérivés aza-GHRP-6 possédant des résidus aza-arylglycines aux positions D-Trp2 et Trp4. L’élaboration de conditions propices à l’alkylation et la déprotection chimiosélective de la semicarbazone a donné accès à une variété de chaînes latérales sur l’acide aminé « aza » préalablement inaccessibles. Nous avons, entre autres, démontré qu’une chaîne latérale propargyl pouvait être incorporée sur l’acide aminé « aza ». Tenant compte de la réactivité des alcynes, nous avons ensuite élaboré des conditions réactionnelles permettant la formation in situ d’azotures aromatiques, suivie d’une réaction de cycloaddition 1,3-dipolaire sur support solide, dans le but d’obtenir des mimes de tryptophane. Sept analogues du GHRP-6 ont été synthétisés et testés pour affinité au récepteur CD36 par nos collaborateurs. De plus, nous avons effectué une réaction de couplage en solution entre un dipeptide possédant un résidu aza-propargylglycine, du paraformaldehyde et une variété d’amines secondaires (couplage A3) afin d’accéder à des mimes rigides d’aza-lysine. Ces sous-unités ont ensuite été incorporées sur support solide afin de générer sept nouveaux azapeptides avec des dérivés aza-lysine à la position Trp4 du GHRP-6. Enfin, une réaction de cyclisation 5-exo-dig a été développée pour la synthèse de N-amino imidazolin-2-ones en tant que nouveaux mimes peptidiques. Leur fonctionnalisation par une série de groupements benzyliques à la position 4 de l’hétérocycle a été rendue possible grâce à un couplage Sonogashira précédant la réaction de cyclisation. Les propriétés conformationnelles de cette nouvelle famille de composés ont été étudiées par cristallographie aux rayons X et spectroscopie RMN d’un tétrapeptide modèle. L’activité biologique de deux mimes peptidiques, possédant un résidu N-amino-4-méthyl- et 4-benzyl-imidazolin-2-one à la position Trp4 du GHRP-6, a aussi été examinée. L’ensemble de ces travaux devrait contribuer à l’avancement des connaissances au niveau des facteurs structurels et conformationnels requis pour le développement d’azapeptides en tant que ligands du récepteur CD36. De plus, les résultats obtenus devraient encourager davantage l’utilisation d’azapeptides comme peptidomimétiques grâce à leur nouvelle facilité de synthèse et la diversité grandissante au niveau de la chaîne latérale des acides aminés « aza ».
Resumo:
Les travaux entrepris dans le cadre de la présente thèse portent sur l’analyse de l’équivalence terminologique en corpus parallèle et en corpus comparable. Plus spécifiquement, nous nous intéressons aux corpus de textes spécialisés appartenant au domaine du changement climatique. Une des originalités de cette étude réside dans l’analyse des équivalents de termes simples. Les bases théoriques sur lesquelles nous nous appuyons sont la terminologie textuelle (Bourigault et Slodzian 1999) et l’approche lexico-sémantique (L’Homme 2005). Cette étude poursuit deux objectifs. Le premier est d’effectuer une analyse comparative de l’équivalence dans les deux types de corpus afin de vérifier si l’équivalence terminologique observable dans les corpus parallèles se distingue de celle que l’on trouve dans les corpus comparables. Le deuxième consiste à comparer dans le détail les équivalents associés à un même terme anglais, afin de les décrire et de les répertorier pour en dégager une typologie. L’analyse détaillée des équivalents français de 343 termes anglais est menée à bien grâce à l’exploitation d’outils informatiques (extracteur de termes, aligneur de textes, etc.) et à la mise en place d’une méthodologie rigoureuse divisée en trois parties. La première partie qui est commune aux deux objectifs de la recherche concerne l’élaboration des corpus, la validation des termes anglais et le repérage des équivalents français dans les deux corpus. La deuxième partie décrit les critères sur lesquels nous nous appuyons pour comparer les équivalents des deux types de corpus. La troisième partie met en place la typologie des équivalents associés à un même terme anglais. Les résultats pour le premier objectif montrent que sur les 343 termes anglais analysés, les termes présentant des équivalents critiquables dans les deux corpus sont relativement peu élevés (12), tandis que le nombre de termes présentant des similitudes d’équivalence entre les corpus est très élevé (272 équivalents identiques et 55 équivalents non critiquables). L’analyse comparative décrite dans ce chapitre confirme notre hypothèse selon laquelle la terminologie employée dans les corpus parallèles ne se démarque pas de celle des corpus comparables. Les résultats pour le deuxième objectif montrent que de nombreux termes anglais sont rendus par plusieurs équivalents (70 % des termes analysés). Il est aussi constaté que ce ne sont pas les synonymes qui forment le groupe le plus important des équivalents, mais les quasi-synonymes. En outre, les équivalents appartenant à une autre partie du discours constituent une part importante des équivalents. Ainsi, la typologie élaborée dans cette thèse présente des mécanismes de l’équivalence terminologique peu décrits aussi systématiquement dans les travaux antérieurs.
Resumo:
La version intégrale de ce mémoire [ou de cette thèse] est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
Contexte: La cardiopathie ischémique (IHD) reste une cause majeure de mortalité en Amérique du Nord. La thérapie cellulaire cardiaque (CCT) a émergé comme une thérapie prometteuse pour aider à guérir certaines malades cardiaques. Parmi les cellulaires avec propriétés pluripotentes, les cellules stromales mésenchymateuses (MSC) sont prometteuses. Cependant, plusieurs questions demeurent non résolues et certaines défis empêchent l'application clinique de la CCT se dans l'IHD, tels que le faible taux de rétention cellulaire in situ, le suivi des cellules in vivo post-implantation et post-acheminements et l`apoptose. Ici, le traitement préliminaire des MSC avec des facteurs de croissance et leur couplage avec des nanoparticules (NP) seront étudiés comme des méthodes pour optimiser MSC. Méthodes: Des MSCs provenant du rat (rMSC) et du cochon (pMSC) ont été isolés à partir de moelle osseuse. Les rMSC ont été préconditionnées avec SDF-1a, TSG-6 et PDGF-BB, et ensuite soumises à une hypoxie, une privation de sérum et a un stress oxydatif. Des études de cicatrisation ont également été effectués avec rMSCs préconditionnées. En parallèle, de nouvelles NP ferromagnétiques liées aux silicones ont été synthétisées. Les NPs ont été couplées aux pMSCs suivant leur fonctionnalisation avec l`anticorps, CD44, un antigène de surface du MSC bien connu. Par la suite, les études de biocompatibilité ont été réalisées sur pMSC-NP et en incluant des tests des processus cellulaires tels que la migration, l'adhésion, la prolifération et les propriétés de la différenciation. Résultats: Parmi toutes les cytokines testées, PDGF-BB a démontré la plus grande capacité à améliorer la survie de MSC dans des conditions d'hypoxie, de privation de sérum et en reponse au stress oxydatif. La conjugaison de NP a atténué la migration et la prolifération des pMSCs, mais n`a pas changé leur capacité de différenciation. Enfin, la complexe du MSC-NP est détectable par IRM. Conclusion: Nos données suggèrent que de nouvelles stratégies, telles que traitement préliminaire de PDGF-BB et le couplage des nanoparticules ferromagnétiques, peuvent être considérés comme des avenues prometteuse pour optimiser les MSCs pour la CCT.
Resumo:
Le parasite Varroa destructor provoque depuis plus de 30 ans la perte de nombreuses colonies à travers le monde. L’utilisation d’acaricides de synthèse s’est avérée inefficace au Canada et ailleurs dans le monde à la suite de la sélection de varroas résistants. Dans ce contexte, il est devenu impératif de trouver de nouveaux moyens pour contrôler cette peste apicole. Ce travail original de recherche a pour but de déterminer les paramètres fondamentaux d’une lutte intégrée contre la varroase fondée sur l’utilisation périodique de différents pesticides organiques (l’acide oxalique, l’acide formique et le thymol) associée à des seuils d’interventions. Les seuils d’intervention ont été déterminés à l’aide de régressions linéaires entre les taux de parasitisme par V. destructor et la formance zootechnique des colonies d’abeilles mellifères (production de miel et force des colonies). Un total de 154 colonies d’abeilles du Centre de recherche en sciences animales de Deschambault (CRSAD) ont été suivies de septembre 2005 à septembre 2006. Les seuils calculés et proposés à la suite de cette recherche sont de 2 varroas par jour (chute naturelle) au début mai, 10 varroas par jour à la fin juillet et de 9 varroas par jour au début septembre. L’efficacité des traitements organiques avec l’acide oxalique (AO), l’acide formique (AF) et le thymol a été vérifiée en mai (avant la première miellée) en juillet (entre deux miellées), en septembre (après la miellée et pendant le nourrissage des colonies) et en novembre (avant l’hivernage). L’acide oxalique a été appliqué en utilisant la méthode d’égouttement (4% d’AO p/v dans un sirop de sucrose 1 :1 p/v). L’acide formique a été appliquée sous forme de MiteAwayII™ (tampon commercial imbibé d’AF 65% v/v placé sur le dessus des cadres à couvain), Mitewipe (tampons Dri-Loc™ 10/15cm imbibés de 35 mL d’AF 65% v/v placés sur le dessus des cadres à couvain) ou Flash (AF 65% coulé directement sur le plateau inférieur d’une colonie, 2 mL par cadre avec abeilles). Le thymol a été appliqué sous forme d’Apiguard™ (gélose contenant 25% de thymol p/v placée sur le dessus des cadres à couvain). Les essais d’efficacité ont été réalisés de 2006 à 2008 sur un total de 170 colonies (98 appartenant au CRSAD et 72 appartenant au privé). Les résultats montrent que les traitements de printemps testés ont une faible efficacité pour le contrôle des varroas qui sont en pleine croissance durant cette période. Un traitement avec l’AF à la mi-été permet de réduire les taux de parasites sous le seuil en septembre mais il y a risque de contaminer la récolte de miel avec des résidus d’AF. Les traitements en septembre avec le MiteAwayII™ suivis par un traitement à l’acide oxalique en novembre (5 mL par égouttement entre chaque cadre avec abeilles, 4% d’AO p/v dans un sirop de sucrose 1 :1 p/v) sont les plus efficaces : ils réduisent les niveaux de varroase sous le seuil de 2 varroas par jour au printemps. Nos résultats montrent également que les traitements réalisés tôt en septembre sont plus efficaces et produisent des colonies plus fortes au printemps comparativement à un traitement réalisé un mois plus tard en octobre. En conclusion, ce travail de recherche démontre qu’il est possible de contenir le développement de la varroase dans les ruchers au Québec en utilisant une méthode de lutte intégrée basée sur une combinaison d’applications d’acaricides organiques associée à des seuils d’intervention.
Resumo:
La présente recherche porte sur l’existence d’un décalage entre la création artistique dans l’art contemporain et l’enseignement des arts plastiques au primaire au Québec. Plus précisément, après avoir observée l’importance de l’intention artistique dans les mécanismes de création des artistes en art contemporain, cette recherche étudie la place que les enseignants spécialisés en arts plastiques lui accordent dans leur enseignement. En partant de la question de recherche, « Au Québec, les enseignants spécialisés en arts plastiques au primaire entretiennent-ils ou non le décalage entre la création artistique contemporaine et l’enseignement des arts, en prenant ou non en compte le développement d’intention artistique chez les élèves lorsque ceux-ci réalisent des créations personnelles dans les cours d’arts plastiques? », ce mémoire est constitué de plusieurs ensembles d’analyses. La distinction des principaux paradigmes artistiques dans cette recherche définit des attributs pour comprendre respectivement leurs impacts sur l’enseignement des arts et pour saisir les différentes représentations que les enseignants spécialisés en arts plastiques au primaire ont de la création artistique, et plus particulièrement dans le paradigme artistique contemporain. Cette distinction permet de confronter deux représentations de la dynamique de création : celle présente dans la notion de processus de création et celle présente dans la notion d’intention artistique. Ainsi, les entretiens semi-dirigés de douze enseignants spécialistes en arts plastiques dans des écoles primaires au Québec renforcent l’existence du décalage, mais aussi nous renseigne sur la faiblesse des acteurs à définir les enjeux actuels de la création artistique. De plus, cette recherche démontre une absence dans le Programme de formation de l’école québécoise (PFEQ) des mécanismes de pensée de la création observée dans le paradigme artistique contemporain.
Resumo:
De nombreux problèmes pratiques qui se posent dans dans le domaine de la logistique, peuvent être modélisés comme des problèmes de tournées de véhicules. De façon générale, cette famille de problèmes implique la conception de routes, débutant et se terminant à un dépôt, qui sont utilisées pour distribuer des biens à un nombre de clients géographiquement dispersé dans un contexte où les coûts associés aux routes sont minimisés. Selon le type de problème, un ou plusieurs dépôts peuvent-être présents. Les problèmes de tournées de véhicules sont parmi les problèmes combinatoires les plus difficiles à résoudre. Dans cette thèse, nous étudions un problème d’optimisation combinatoire, appartenant aux classes des problèmes de tournées de véhicules, qui est liée au contexte des réseaux de transport. Nous introduisons un nouveau problème qui est principalement inspiré des activités de collecte de lait des fermes de production, et de la redistribution du produit collecté aux usines de transformation, pour la province de Québec. Deux variantes de ce problème sont considérées. La première, vise la conception d’un plan tactique de routage pour le problème de la collecte-redistribution de lait sur un horizon donné, en supposant que le niveau de la production au cours de l’horizon est fixé. La deuxième variante, vise à fournir un plan plus précis en tenant compte de la variation potentielle de niveau de production pouvant survenir au cours de l’horizon considéré. Dans la première partie de cette thèse, nous décrivons un algorithme exact pour la première variante du problème qui se caractérise par la présence de fenêtres de temps, plusieurs dépôts, et une flotte hétérogène de véhicules, et dont l’objectif est de minimiser le coût de routage. À cette fin, le problème est modélisé comme un problème multi-attributs de tournées de véhicules. L’algorithme exact est basé sur la génération de colonnes impliquant un algorithme de plus court chemin élémentaire avec contraintes de ressources. Dans la deuxième partie, nous concevons un algorithme exact pour résoudre la deuxième variante du problème. À cette fin, le problème est modélisé comme un problème de tournées de véhicules multi-périodes prenant en compte explicitement les variations potentielles du niveau de production sur un horizon donné. De nouvelles stratégies sont proposées pour résoudre le problème de plus court chemin élémentaire avec contraintes de ressources, impliquant dans ce cas une structure particulière étant donné la caractéristique multi-périodes du problème général. Pour résoudre des instances de taille réaliste dans des temps de calcul raisonnables, une approche de résolution de nature heuristique est requise. La troisième partie propose un algorithme de recherche adaptative à grands voisinages où de nombreuses nouvelles stratégies d’exploration et d’exploitation sont proposées pour améliorer la performances de l’algorithme proposé en termes de la qualité de la solution obtenue et du temps de calcul nécessaire.
Resumo:
L’objectif de ce mémoire de maîtrise est de caractériser la distribution axiale des plasmas tubulaires à la pression atmosphérique créés et entretenus par une onde électromagnétique de surface ainsi que d’explorer le potentiel de ces sources pour la synthèse de matériaux et de nanomatériaux. Un précédent travail de thèse, qui avait pour objectif de déterminer les mécanismes à l’origine de la contraction radiale du plasma créé dans des gaz rares, a mis en lumière un phénomène jusque-là inconnu dans les plasmas d’onde de surface (POS). En effet, la distribution axiale varie différemment selon la puissance incidente ce qui constitue une différence majeure par rapport aux plasmas à pression réduite. Dans ce contexte, nous avons réalisé une étude paramétrique des POS à la pression atmosphérique dans l’Ar. À partir de nos mesures de densité électronique, de température d’excitation et de densité d’atomes d’Ar dans un niveau métastable (Ar 3P2), résolues axialement, nous avons conclu que le comportement axial de l’intensité lumineuse avec la puissance n’est pas lié à un changement de la cinétique de la décharge (qui est dépendante de la température des électrons et de la densité d’atomes d’Ar métastables), mais plutôt à une distribution anormale de dissipation de puissance dans le plasma (reliée à la densité d’électrons). Plus précisément, nos résultats suggèrent que ce dépôt anormal de puissance provient d’une réflexion de l’onde dans le fort gradient de densité de charges en fin de colonne, un effet plus marqué pour de faibles longueurs de colonnes à plasma. Ensuite, nous avons effectué une étude spectroscopique du plasma en présence de précurseurs organiques, en particulier le HMDSO pour la synthèse de matériaux organosiliciés et l’IPT pour la synthèse de matériaux organotitaniques. Les POS à la PA sont caractérisés par des densités de charges très élevées (>10^13 cm^-3), permettant ainsi d’atteindre des degrés de dissociation des précurseurs nettement plus élevés que ceux d'autres plasmas froids à la pression atmosphérique comme les décharges à barrière diélectrique. Dans de tels cas, les matériaux synthétisés prennent la forme de nanopoudres organiques de taille inférieure à 100 nm. En présence de faibles quantités d’oxygène dans le plasma, nous obtenons plutôt des nanopoudres à base d’oxyde de silicium (HMDSO) ou à base de titanate de silicium (IPT), avec très peu de carbone.
Resumo:
Les analyses effectuées dans le cadre de ce mémoire ont été réalisées à l'aide du module MatchIt disponible sous l’environnent d'analyse statistique R. / Statistical analyzes of this thesis were performed using the MatchIt package available in the statistical analysis environment R.