61 resultados para Portlet-based application


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les propriétés des matériaux moléculaires proviennent à la fois de la structure des composantes individuelles et de la façon dont elles s’associent. Ce dernier aspect reste difficile à contrôler, malgré de grandes avancées en science des matériaux. Pour mieux comprendre la relation structure-propriétés, nous avons entrepris une étude systématique de l'hexaphénylbenzène et de ses dérivés, qui offrent une charpente symétrique et rigide. En premier lieu, nous avons attaché six groupements diaminotriazinyles sur l’hexaphénylbenzène afin de produire des réseaux tridimensionnels hautement poreux maintenus par des ponts hydrogène. En modifiant systématiquement le coeur moléculaire, nous avons excisé près du tiers de la molécule-mère, générant des réseaux supramoléculaires dont la porosité s’est élevée graduellement jusqu’à 75%, équivalant ainsi le record pour ce type de matériaux. Ensuite, nous avons étudié le comportement de l’hexakis(4-nitrophényl)benzène. Dans les structures cristallines obtenues, des interactions non-covalentes entre groupements nitro démontrent leur potentiel en chimie supramoléculaire. Le coeur moléculaire ne joue qu’un rôle secondaire dans l’empilement des molécules : seules quelques interactions C-H•••π impliquant le cycle aromatique central de l’hexaphénylbenzène sont évidentes. Cette dernière observation nous a poussés à étudier le comportement à l’état cristallin de l’hexaphénylbenzène et ses dérivés. En scrutant attentivement neuf structures cristallines de ces composés, nous avons décerné la présence récurrente d’interactions C-H•••π impliquant le cycle aromatique central. Cette association caractéristique a été exploitée pour créer des réseaux supramoléculaires maintenus par des interactions C-H•••π sélectives entre un groupement éthynyle et le cycle aromatique central de l’hexaphénylbenzène. Finalement, nous avons joint le côté sombre de l’ingénierie cristalline en utilisant nos connaissances dans le but d’empêcher la formation d’interactions directionnelles. En protégeant le cycle aromatique central de l’hexaphénylbenzène à l’aide de groupements alkyles, les interactions C-H•••π ont été pratiquement éliminées. Ces résultats offrent la possibilité de créer de nouveaux matériaux amorphes. Dans ces études, focalisées sur le système hexaphénylbenzène, nous avons mis en relief des phénomènes qui sont obscurcis dans d'autres familles de molécules. De plus, ce système a grandement facilité l’utilisation d’une approche méthodique pour explorer la relation structure-propriétés. Nos travaux nous ont amenés à des conclusions de valeur universelle en science des matériaux moléculaires.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Placer une charge au niveau du membre inférieur est une approche sans fondement scientifique, utilisée par les cliniciens, pour renforcer certains muscles clés de la marche. Cette étude a déterminé les modifications du patron de marche lors de l’ajout d’une charge à la cheville parétique ou non parétique chez des personnes ayant une hémiparésie suite à un accident vasculaire cérébral et a comparé les résultats à ceux d’un groupe témoin. Il est supposé qu’une charge placée à la jambe parétique/non dominante (charge ipsilatérale) augmenterait les efforts (moments et puissance) à la hanche parétique/non dominante lors de l’oscillation et qu’une charge placée controlatéralement augmenterait les efforts lors de la phase d’appui principalement pour les abducteurs de hanche stabilisant le bassin dans le plan frontal. La marche avec et sans charge de cinq individus hémiparétiques chroniques et 5 personnes en santé a été analysée en laboratoire par l’enregistrement des forces de réaction du sol et des mouvements des membres inférieurs. Ces informations ont permis de calculer les paramètres temps-distance, les angles à la hanche parétique/non dominante et au tronc, les moments nets, les puissances et le travail mécanique à la hanche parétique/non dominante. Des tests statistiques non-paramétriques ont servi à déterminer l’effet de la condition, avec charge (ipsi- et controlatérale) ou sans charge et à comparer les résultats entre les deux groupes. L’ajout d’une charge n’a pas modifié la vitesse de marche des sujets. Les phases d’appui et d’oscillation étaient rendus plus symétriques par la charge, même si peu de différences apparaissaient dans le plan sagittal avec ou sans la charge. Dans le plan frontal, le moment abducteur de hanche des sujets hémiparétiques a diminué avec la charge controlatérale, tandis qu'il a augmenté chez les sujets en santé. L’utilisation d’une stratégie posturale ou dynamique au tronc pourrait expliquer la différence de l’effet de la charge sur le moment abducteur à la hanche. Au vu de ces résultats, il est nécessaire de poursuivre l’évaluation de cette approche de renforcement musculaire spécifique à la tâche avant d’en recommander son utilisation.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il est connu que les problèmes d'ambiguïté de la langue ont un effet néfaste sur les résultats des systèmes de Recherche d'Information (RI). Toutefois, les efforts de recherche visant à intégrer des techniques de Désambiguisation de Sens (DS) à la RI n'ont pas porté fruit. La plupart des études sur le sujet obtiennent effectivement des résultats négatifs ou peu convaincants. De plus, des investigations basées sur l'ajout d'ambiguïté artificielle concluent qu'il faudrait une très haute précision de désambiguation pour arriver à un effet positif. Ce mémoire vise à développer de nouvelles approches plus performantes et efficaces, se concentrant sur l'utilisation de statistiques de cooccurrence afin de construire des modèles de contexte. Ces modèles pourront ensuite servir à effectuer une discrimination de sens entre une requête et les documents d'une collection. Dans ce mémoire à deux parties, nous ferons tout d'abord une investigation de la force de la relation entre un mot et les mots présents dans son contexte, proposant une méthode d'apprentissage du poids d'un mot de contexte en fonction de sa distance du mot modélisé dans le document. Cette méthode repose sur l'idée que des modèles de contextes faits à partir d'échantillons aléatoires de mots en contexte devraient être similaires. Des expériences en anglais et en japonais montrent que la force de relation en fonction de la distance suit généralement une loi de puissance négative. Les poids résultant des expériences sont ensuite utilisés dans la construction de systèmes de DS Bayes Naïfs. Des évaluations de ces systèmes sur les données de l'atelier Semeval en anglais pour la tâche Semeval-2007 English Lexical Sample, puis en japonais pour la tâche Semeval-2010 Japanese WSD, montrent que les systèmes ont des résultats comparables à l'état de l'art, bien qu'ils soient bien plus légers, et ne dépendent pas d'outils ou de ressources linguistiques. La deuxième partie de ce mémoire vise à adapter les méthodes développées à des applications de Recherche d'Information. Ces applications ont la difficulté additionnelle de ne pas pouvoir dépendre de données créées manuellement. Nous proposons donc des modèles de contextes à variables latentes basés sur l'Allocation Dirichlet Latente (LDA). Ceux-ci seront combinés à la méthodes de vraisemblance de requête par modèles de langue. En évaluant le système résultant sur trois collections de la conférence TREC (Text REtrieval Conference), nous observons une amélioration proportionnelle moyenne de 12% du MAP et 23% du GMAP. Les gains se font surtout sur les requêtes difficiles, augmentant la stabilité des résultats. Ces expériences seraient la première application positive de techniques de DS sur des tâches de RI standard.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thése a été réalisée dans le cadre d'une cotutelle avec l'Institut National Polytechnique de Grenoble (France). La recherche a été effectuée au sein des laboratoires de vision 3D (DIRO, UdM) et PERCEPTION-INRIA (Grenoble).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La formation des sociétés fondées sur la connaissance, le progrès de la technologie de communications et un meilleur échange d'informations au niveau mondial permet une meilleure utilisation des connaissances produites lors des décisions prises dans le système de santé. Dans des pays en voie de développement, quelques études sont menées sur des obstacles qui empêchent la prise des décisions fondées sur des preuves (PDFDP) alors que des études similaires dans le monde développé sont vraiment rares. L'Iran est le pays qui a connu la plus forte croissance dans les publications scientifiques au cours de ces dernières années, mais la question qui se pose est la suivante : quels sont les obstacles qui empêchent l'utilisation de ces connaissances de même que celle des données mondiales? Cette étude embrasse trois articles consécutifs. Le but du premier article a été de trouver un modèle pour évaluer l'état de l'utilisation des connaissances dans ces circonstances en Iran à l’aide d'un examen vaste et systématique des sources suivie par une étude qualitative basée sur la méthode de la Grounded Theory. Ensuite au cours du deuxième et troisième article, les obstacles aux décisions fondées sur des preuves en Iran, sont étudiés en interrogeant les directeurs, les décideurs du secteur de la santé et les chercheurs qui travaillent à produire des preuves scientifiques pour la PDFDP en Iran. Après avoir examiné les modèles disponibles existants et la réalisation d'une étude qualitative, le premier article est sorti sous le titre de «Conception d'un modèle d'application des connaissances». Ce premier article sert de cadre pour les deux autres articles qui évaluent les obstacles à «pull» et «push» pour des PDFDP dans le pays. En Iran, en tant que pays en développement, les problèmes se situent dans toutes les étapes du processus de production, de partage et d’utilisation de la preuve dans la prise de décision du système de santé. Les obstacles qui existent à la prise de décision fondée sur des preuves sont divers et cela aux différents niveaux; les solutions multi-dimensionnelles sont nécessaires pour renforcer l'impact de preuves scientifiques sur les prises de décision. Ces solutions devraient entraîner des changements dans la culture et le milieu de la prise de décision afin de valoriser la prise de décisions fondées sur des preuves. Les critères de sélection des gestionnaires et leur nomination inappropriée ainsi que leurs remplaçants rapides et les différences de paiement dans les secteurs public et privé peuvent affaiblir la PDFDP de deux façons : d’une part en influant sur la motivation des décideurs et d'autre part en détruisant la continuité du programme. De même, tandis que la sélection et le remplacement des chercheurs n'est pas comme ceux des gestionnaires, il n'y a aucun critère pour encourager ces deux groupes à soutenir le processus décisionnel fondés sur des preuves dans le secteur de la santé et les changements ultérieurs. La sélection et la promotion des décideurs politiques devraient être basées sur leur performance en matière de la PDFDP et les efforts des universitaires doivent être comptés lors de leurs promotions personnelles et celles du rang de leur institution. Les attitudes et les capacités des décideurs et des chercheurs devraient être encouragés en leur donnant assez de pouvoir et d’habiliter dans les différentes étapes du cycle de décision. Cette étude a révélé que les gestionnaires n'ont pas suffisamment accès à la fois aux preuves nationales et internationales. Réduire l’écart qui sépare les chercheurs des décideurs est une étape cruciale qui doit être réalisée en favorisant la communication réciproque. Cette question est très importante étant donné que l'utilisation des connaissances ne peut être renforcée que par l'étroite collaboration entre les décideurs politiques et le secteur de la recherche. Dans ce but des programmes à long terme doivent être conçus ; la création des réseaux de chercheurs et de décideurs pour le choix du sujet de recherche, le classement des priorités, et le fait de renforcer la confiance réciproque entre les chercheurs et les décideurs politiques semblent être efficace.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La spectroscopie Raman est un outil non destructif fort utile lors de la caractérisation de matériau. Cette technique consiste essentiellement à faire l’analyse de la diffusion inélastique de lumière par un matériau. Les performances d’un système de spectroscopie Raman proviennent en majeure partie de deux filtres ; l’un pour purifier la raie incidente (habituellement un laser) et l’autre pour atténuer la raie élastique du faisceau de signal. En spectroscopie Raman résonante (SRR), l’énergie (la longueur d’onde) d’excitation est accordée de façon à être voisine d’une transition électronique permise dans le matériau à l’étude. La section efficace d’un processus Raman peut alors être augmentée d’un facteur allant jusqu’à 106. La technologie actuelle est limitée au niveau des filtres accordables en longueur d’onde. La SRR est donc une technique complexe et pour l’instant fastidieuse à mettre en œuvre. Ce mémoire présente la conception et la construction d’un système de spectroscopie Raman accordable en longueur d’onde basé sur des filtres à réseaux de Bragg en volume. Ce système vise une utilisation dans le proche infrarouge afin d’étudier les résonances de nanotubes de carbone. Les étapes menant à la mise en fonction du système sont décrites. Elles couvrent les aspects de conceptualisation, de fabrication, de caractérisation ainsi que de l’optimisation du système. Ce projet fut réalisé en étroite collaboration avec une petite entreprise d’ici, Photon etc. De cette coopération sont nés les filtres accordables permettant avec facilité de changer la longueur d’onde d’excitation. Ces filtres ont été combinés à un laser titane : saphir accordable de 700 à 1100 nm, à un microscope «maison» ainsi qu’à un système de détection utilisant une caméra CCD et un spectromètre à réseau. Sont d’abord présentés les aspects théoriques entourant la SRR. Par la suite, les nanotubes de carbone (NTC) sont décrits et utilisés pour montrer la pertinence d’une telle technique. Ensuite, le principe de fonctionnement des filtres est décrit pour être suivi de l’article où sont parus les principaux résultats de ce travail. On y trouvera entre autres la caractérisation optique des filtres. Les limites de basses fréquences du système sont démontrées en effectuant des mesures sur un échantillon de soufre dont la raie à 27 cm-1 est clairement résolue. La simplicité d’accordabilité est quant à elle démontrée par l’utilisation d’un échantillon de NTC en poudre. En variant la longueur d’onde (l’énergie d’excitation), différentes chiralités sont observées et par le fait même, différentes raies sont présentes dans les spectres. Finalement, des précisions sur l’alignement, l’optimisation et l’opération du système sont décrites. La faible acceptance angulaire est l’inconvénient majeur de l’utilisation de ce type de filtre. Elle se répercute en problème d’atténuation ce qui est critique plus particulièrement pour le filtre coupe-bande. Des améliorations possibles face à cette limitation sont étudiées.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Avec la complexité croissante des systèmes sur puce, de nouveaux défis ne cessent d’émerger dans la conception de ces systèmes en matière de vérification formelle et de synthèse de haut niveau. Plusieurs travaux autour de SystemC, considéré comme la norme pour la conception au niveau système, sont en cours afin de relever ces nouveaux défis. Cependant, à cause du modèle de concurrence complexe de SystemC, relever ces défis reste toujours une tâche difficile. Ainsi, nous pensons qu’il est primordial de partir sur de meilleures bases en utilisant un modèle de concurrence plus efficace. Par conséquent, dans cette thèse, nous étudions une méthodologie de conception qui offre une meilleure abstraction pour modéliser des composants parallèles en se basant sur le concept de transaction. Nous montrons comment, grâce au raisonnement simple que procure le concept de transaction, il devient plus facile d’appliquer la vérification formelle, le raffinement incrémental et la synthèse de haut niveau. Dans le but d’évaluer l’efficacité de cette méthodologie, nous avons fixé l’objectif d’optimiser la vitesse de simulation d’un modèle transactionnel en profitant d’une machine multicoeur. Nous présentons ainsi l’environnement de modélisation et de simulation parallèle que nous avons développé. Nous étudions différentes stratégies d’ordonnancement en matière de parallélisme et de surcoût de synchronisation. Une expérimentation faite sur un modèle du transmetteur Wi-Fi 802.11a a permis d’atteindre une accélération d’environ 1.8 en utilisant deux threads. Avec 8 threads, bien que la charge de travail des différentes transactions n’était pas importante, nous avons pu atteindre une accélération d’environ 4.6, ce qui est un résultat très prometteur.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

À cause de la nature complexe et non linéaire de leurs opérations, les salles d’urgence (SU) constituent des entités organisationnelles uniques dans le domaine de la santé. Les SU subissent des pressions accrues résultant des dynamiques des sociétés contemporaines et de leurs systèmes de santé, et font face ainsi à des défis uniques comme l’engorgement. Contrairement aux croyances dominantes sur le phénomène, le présent travail de recherche établit que ce problème est en réalité une manifestation de pauvre performance systémique plutôt qu’une faillite opérationnelle. Alors, pour les SU, la performance organisationnelle relève une importance incontestable. En effet, l’étude de la performance organisationnelle est un sujet de recherche qui intéresse de nombreux chercheurs des services de santé. Il s’agit, néanmoins, d’un concept historiquement difficile à définir à cause de son caractère complexe, multidimensionnel et paradoxal. Le modèle EGIPSS, basé sur la théorie de l’action sociale de Parsons, est capable de saisir cette complexité et constitue un cadre conceptuel robuste et exhaustif, pouvant s’adapter à des contextes divers. Ce mémoire adopte le modèle EGIPSS pour présenter un outil global et intégré d’évaluation de la performance organisationnelle de la salle d’urgences de l’Hôpital Général Régional 46 à Guadalajara, au Mexique. Cet instrument est conçu pour prendre en compte spécifiquement les particularités propres des SU, ainsi que les caractéristiques organisationnelles uniques de l'Hôpital Général Régional 46. Enfin, le développement de ce projet de mémoire contribue aux efforts d’amélioration continue de la performance de cet établissement, et enrichit les connaissances sur les urgences en tant qu’unités organisationnelles.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Multilingual terminological resources do not always include valid equivalents of legal terms for two main reasons. Firstly, legal systems can differ from one language community to another and even from one country to another because each has its own history and traditions. As a result, the non-isomorphism between legal and linguistic systems may render the identification of equivalents a particularly challenging task. Secondly, by focusing primarily on the definition of equivalence, a notion widely discussed in translation but not in terminology, the literature does not offer solid and systematic methodologies for assigning terminological equivalents. As a result, there is a lack of criteria to guide both terminologists and translators in the search and validation of equivalent terms. This problem is even more evident in the case of predicative units, such as verbs. Although some terminologists (L‘Homme 1998; Lerat 2002; Lorente 2007) have worked on specialized verbs, terminological equivalence between units that belong to this part of speech would benefit from a thorough study. By proposing a novel methodology to assign the equivalents of specialized verbs, this research aims at defining validation criteria for this kind of predicative units, so as to contribute to a better understanding of the phenomenon of terminological equivalence as well as to the development of multilingual terminography in general, and to the development of legal terminography, in particular. The study uses a Portuguese-English comparable corpus that consists of a single genre of texts, i.e. Supreme Court judgments, from which 100 Portuguese and 100 English specialized verbs were selected. The description of the verbs is based on the theory of Frame Semantics (Fillmore 1976, 1977, 1982, 1985; Fillmore and Atkins 1992), on the FrameNet methodology (Ruppenhofer et al. 2010), as well as on the methodology for compiling specialized lexical resources, such as DiCoInfo (L‘Homme 2008), developed in the Observatoire de linguistique Sens-Texte at the Université de Montréal. The research reviews contributions that have adopted the same theoretical and methodological framework to the compilation of lexical resources and proposes adaptations to the specific objectives of the project. In contrast to the top-down approach adopted by FrameNet lexicographers, the approach described here is bottom-up, i.e. verbs are first analyzed and then grouped into frames for each language separately. Specialized verbs are said to evoke a semantic frame, a sort of conceptual scenario in which a number of mandatory elements (core Frame Elements) play specific roles (e.g. ARGUER, JUDGE, LAW), but specialized verbs are often accompanied by other optional information (non-core Frame Elements), such as the criteria and reasons used by the judge to reach a decision (statutes, codes, previous decisions). The information concerning the semantic frame that each verb evokes was encoded in an xml editor and about twenty contexts illustrating the specific way each specialized verb evokes a given frame were semantically and syntactically annotated. The labels attributed to each semantic frame (e.g. [Compliance], [Verdict]) were used to group together certain synonyms, antonyms as well as equivalent terms. The research identified 165 pairs of candidate equivalents among the 200 Portuguese and English terms that were grouped together into 76 frames. 71% of the pairs of equivalents were considered full equivalents because not only do the verbs evoke the same conceptual scenario but their actantial structures, the linguistic realizations of the actants and their syntactic patterns were similar. 29% of the pairs of equivalents did not entirely meet these criteria and were considered partial equivalents. Reasons for partial equivalence are provided along with illustrative examples. Finally, the study describes the semasiological and onomasiological entry points that JuriDiCo, the bilingual lexical resource compiled during the project, offers to future users.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les azapeptides sont des mimes peptidiques où le carbone alpha d’un ou de plusieurs acides aminés est remplacé par un atome d’azote. Cette modification tend à stabiliser une conformation en repliement beta en raison de la répulsion électronique entre les paires d’électrons libres des atomes d’azote adjacents et de la géométrie plane de l’urée. De plus, le résidu semicarbazide a une meilleure résistance face aux protéases en plus d’être chimiquement plus stable qu’une liaison amide. Bien que les propriétés des azapeptides en fassent des mimes peptidiques intéressants, leurs méthodes de synthèses font appel à la synthèse laborieuse d’hydrazines substituées en solution. Le peptide sécréteur d’hormone de croissance 6 (GHRP-6, His-D-Trp-Ala-Trp-D-Phe-Lys-NH2) est un hexapeptide synthétique qui possède une affinité pour deux récepteurs distincts: les récepteurs GHS-R1a et CD36. Les travaux effectués au cours de mon doctorat qui seront détaillés dans cet ouvrage visent à atteindre deux objectifs: (1) le développement d’analogues du peptide GHRP-6 sélectif à un seul récepteur et (2) la mise au point d’une nouvelle méthodologie pour la synthèse combinatoire d’azapeptides. En réponse au premier objectif, la synthèse parallèle de 49 analogues aza-GHRP-6 a été effectuée et certains candidats sélectifs au récepteur CD36 ont été identifiés. L’étude de leurs propriétés anti-angiogéniques, effectuée par nos collaborateurs, a également permis d’identifier des candidats intéressants pour le traitement potentiel de la dégénérescence maculaire liée à l’âge. Une nouvelle approche pour la synthèse combinatoire d’azapeptides, faisant appel à l’alkylation et la déprotection chimiosélective d’une sous-unité semicarbazone ancrée sur support solide, a ensuite été développée. La portée de cette méthodologie a été augmentée par la découverte de conditions permettant l’arylation régiosélective de cette sous-unité semicarbazone, donnant accès à treize nouveaux dérivés aza-GHRP-6 possédant des résidus aza-arylglycines aux positions D-Trp2 et Trp4. L’élaboration de conditions propices à l’alkylation et la déprotection chimiosélective de la semicarbazone a donné accès à une variété de chaînes latérales sur l’acide aminé « aza » préalablement inaccessibles. Nous avons, entre autres, démontré qu’une chaîne latérale propargyl pouvait être incorporée sur l’acide aminé « aza ». Tenant compte de la réactivité des alcynes, nous avons ensuite élaboré des conditions réactionnelles permettant la formation in situ d’azotures aromatiques, suivie d’une réaction de cycloaddition 1,3-dipolaire sur support solide, dans le but d’obtenir des mimes de tryptophane. Sept analogues du GHRP-6 ont été synthétisés et testés pour affinité au récepteur CD36 par nos collaborateurs. De plus, nous avons effectué une réaction de couplage en solution entre un dipeptide possédant un résidu aza-propargylglycine, du paraformaldehyde et une variété d’amines secondaires (couplage A3) afin d’accéder à des mimes rigides d’aza-lysine. Ces sous-unités ont ensuite été incorporées sur support solide afin de générer sept nouveaux azapeptides avec des dérivés aza-lysine à la position Trp4 du GHRP-6. Enfin, une réaction de cyclisation 5-exo-dig a été développée pour la synthèse de N-amino imidazolin-2-ones en tant que nouveaux mimes peptidiques. Leur fonctionnalisation par une série de groupements benzyliques à la position 4 de l’hétérocycle a été rendue possible grâce à un couplage Sonogashira précédant la réaction de cyclisation. Les propriétés conformationnelles de cette nouvelle famille de composés ont été étudiées par cristallographie aux rayons X et spectroscopie RMN d’un tétrapeptide modèle. L’activité biologique de deux mimes peptidiques, possédant un résidu N-amino-4-méthyl- et 4-benzyl-imidazolin-2-one à la position Trp4 du GHRP-6, a aussi été examinée. L’ensemble de ces travaux devrait contribuer à l’avancement des connaissances au niveau des facteurs structurels et conformationnels requis pour le développement d’azapeptides en tant que ligands du récepteur CD36. De plus, les résultats obtenus devraient encourager davantage l’utilisation d’azapeptides comme peptidomimétiques grâce à leur nouvelle facilité de synthèse et la diversité grandissante au niveau de la chaîne latérale des acides aminés « aza ».

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les travaux entrepris dans le cadre de la présente thèse portent sur l’analyse de l’équivalence terminologique en corpus parallèle et en corpus comparable. Plus spécifiquement, nous nous intéressons aux corpus de textes spécialisés appartenant au domaine du changement climatique. Une des originalités de cette étude réside dans l’analyse des équivalents de termes simples. Les bases théoriques sur lesquelles nous nous appuyons sont la terminologie textuelle (Bourigault et Slodzian 1999) et l’approche lexico-sémantique (L’Homme 2005). Cette étude poursuit deux objectifs. Le premier est d’effectuer une analyse comparative de l’équivalence dans les deux types de corpus afin de vérifier si l’équivalence terminologique observable dans les corpus parallèles se distingue de celle que l’on trouve dans les corpus comparables. Le deuxième consiste à comparer dans le détail les équivalents associés à un même terme anglais, afin de les décrire et de les répertorier pour en dégager une typologie. L’analyse détaillée des équivalents français de 343 termes anglais est menée à bien grâce à l’exploitation d’outils informatiques (extracteur de termes, aligneur de textes, etc.) et à la mise en place d’une méthodologie rigoureuse divisée en trois parties. La première partie qui est commune aux deux objectifs de la recherche concerne l’élaboration des corpus, la validation des termes anglais et le repérage des équivalents français dans les deux corpus. La deuxième partie décrit les critères sur lesquels nous nous appuyons pour comparer les équivalents des deux types de corpus. La troisième partie met en place la typologie des équivalents associés à un même terme anglais. Les résultats pour le premier objectif montrent que sur les 343 termes anglais analysés, les termes présentant des équivalents critiquables dans les deux corpus sont relativement peu élevés (12), tandis que le nombre de termes présentant des similitudes d’équivalence entre les corpus est très élevé (272 équivalents identiques et 55 équivalents non critiquables). L’analyse comparative décrite dans ce chapitre confirme notre hypothèse selon laquelle la terminologie employée dans les corpus parallèles ne se démarque pas de celle des corpus comparables. Les résultats pour le deuxième objectif montrent que de nombreux termes anglais sont rendus par plusieurs équivalents (70 % des termes analysés). Il est aussi constaté que ce ne sont pas les synonymes qui forment le groupe le plus important des équivalents, mais les quasi-synonymes. En outre, les équivalents appartenant à une autre partie du discours constituent une part importante des équivalents. Ainsi, la typologie élaborée dans cette thèse présente des mécanismes de l’équivalence terminologique peu décrits aussi systématiquement dans les travaux antérieurs.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La version intégrale de ce mémoire [ou de cette thèse] est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Contexte: La cardiopathie ischémique (IHD) reste une cause majeure de mortalité en Amérique du Nord. La thérapie cellulaire cardiaque (CCT) a émergé comme une thérapie prometteuse pour aider à guérir certaines malades cardiaques. Parmi les cellulaires avec propriétés pluripotentes, les cellules stromales mésenchymateuses (MSC) sont prometteuses. Cependant, plusieurs questions demeurent non résolues et certaines défis empêchent l'application clinique de la CCT se dans l'IHD, tels que le faible taux de rétention cellulaire in situ, le suivi des cellules in vivo post-implantation et post-acheminements et l`apoptose. Ici, le traitement préliminaire des MSC avec des facteurs de croissance et leur couplage avec des nanoparticules (NP) seront étudiés comme des méthodes pour optimiser MSC. Méthodes: Des MSCs provenant du rat (rMSC) et du cochon (pMSC) ont été isolés à partir de moelle osseuse. Les rMSC ont été préconditionnées avec SDF-1a, TSG-6 et PDGF-BB, et ensuite soumises à une hypoxie, une privation de sérum et a un stress oxydatif. Des études de cicatrisation ont également été effectués avec rMSCs préconditionnées. En parallèle, de nouvelles NP ferromagnétiques liées aux silicones ont été synthétisées. Les NPs ont été couplées aux pMSCs suivant leur fonctionnalisation avec l`anticorps, CD44, un antigène de surface du MSC bien connu. Par la suite, les études de biocompatibilité ont été réalisées sur pMSC-NP et en incluant des tests des processus cellulaires tels que la migration, l'adhésion, la prolifération et les propriétés de la différenciation. Résultats: Parmi toutes les cytokines testées, PDGF-BB a démontré la plus grande capacité à améliorer la survie de MSC dans des conditions d'hypoxie, de privation de sérum et en reponse au stress oxydatif. La conjugaison de NP a atténué la migration et la prolifération des pMSCs, mais n`a pas changé leur capacité de différenciation. Enfin, la complexe du MSC-NP est détectable par IRM. Conclusion: Nos données suggèrent que de nouvelles stratégies, telles que traitement préliminaire de PDGF-BB et le couplage des nanoparticules ferromagnétiques, peuvent être considérés comme des avenues prometteuse pour optimiser les MSCs pour la CCT.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le parasite Varroa destructor provoque depuis plus de 30 ans la perte de nombreuses colonies à travers le monde. L’utilisation d’acaricides de synthèse s’est avérée inefficace au Canada et ailleurs dans le monde à la suite de la sélection de varroas résistants. Dans ce contexte, il est devenu impératif de trouver de nouveaux moyens pour contrôler cette peste apicole. Ce travail original de recherche a pour but de déterminer les paramètres fondamentaux d’une lutte intégrée contre la varroase fondée sur l’utilisation périodique de différents pesticides organiques (l’acide oxalique, l’acide formique et le thymol) associée à des seuils d’interventions. Les seuils d’intervention ont été déterminés à l’aide de régressions linéaires entre les taux de parasitisme par V. destructor et la formance zootechnique des colonies d’abeilles mellifères (production de miel et force des colonies). Un total de 154 colonies d’abeilles du Centre de recherche en sciences animales de Deschambault (CRSAD) ont été suivies de septembre 2005 à septembre 2006. Les seuils calculés et proposés à la suite de cette recherche sont de 2 varroas par jour (chute naturelle) au début mai, 10 varroas par jour à la fin juillet et de 9 varroas par jour au début septembre. L’efficacité des traitements organiques avec l’acide oxalique (AO), l’acide formique (AF) et le thymol a été vérifiée en mai (avant la première miellée) en juillet (entre deux miellées), en septembre (après la miellée et pendant le nourrissage des colonies) et en novembre (avant l’hivernage). L’acide oxalique a été appliqué en utilisant la méthode d’égouttement (4% d’AO p/v dans un sirop de sucrose 1 :1 p/v). L’acide formique a été appliquée sous forme de MiteAwayII™ (tampon commercial imbibé d’AF 65% v/v placé sur le dessus des cadres à couvain), Mitewipe (tampons Dri-Loc™ 10/15cm imbibés de 35 mL d’AF 65% v/v placés sur le dessus des cadres à couvain) ou Flash (AF 65% coulé directement sur le plateau inférieur d’une colonie, 2 mL par cadre avec abeilles). Le thymol a été appliqué sous forme d’Apiguard™ (gélose contenant 25% de thymol p/v placée sur le dessus des cadres à couvain). Les essais d’efficacité ont été réalisés de 2006 à 2008 sur un total de 170 colonies (98 appartenant au CRSAD et 72 appartenant au privé). Les résultats montrent que les traitements de printemps testés ont une faible efficacité pour le contrôle des varroas qui sont en pleine croissance durant cette période. Un traitement avec l’AF à la mi-été permet de réduire les taux de parasites sous le seuil en septembre mais il y a risque de contaminer la récolte de miel avec des résidus d’AF. Les traitements en septembre avec le MiteAwayII™ suivis par un traitement à l’acide oxalique en novembre (5 mL par égouttement entre chaque cadre avec abeilles, 4% d’AO p/v dans un sirop de sucrose 1 :1 p/v) sont les plus efficaces : ils réduisent les niveaux de varroase sous le seuil de 2 varroas par jour au printemps. Nos résultats montrent également que les traitements réalisés tôt en septembre sont plus efficaces et produisent des colonies plus fortes au printemps comparativement à un traitement réalisé un mois plus tard en octobre. En conclusion, ce travail de recherche démontre qu’il est possible de contenir le développement de la varroase dans les ruchers au Québec en utilisant une méthode de lutte intégrée basée sur une combinaison d’applications d’acaricides organiques associée à des seuils d’intervention.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La présente recherche porte sur l’existence d’un décalage entre la création artistique dans l’art contemporain et l’enseignement des arts plastiques au primaire au Québec. Plus précisément, après avoir observée l’importance de l’intention artistique dans les mécanismes de création des artistes en art contemporain, cette recherche étudie la place que les enseignants spécialisés en arts plastiques lui accordent dans leur enseignement. En partant de la question de recherche, « Au Québec, les enseignants spécialisés en arts plastiques au primaire entretiennent-ils ou non le décalage entre la création artistique contemporaine et l’enseignement des arts, en prenant ou non en compte le développement d’intention artistique chez les élèves lorsque ceux-ci réalisent des créations personnelles dans les cours d’arts plastiques? », ce mémoire est constitué de plusieurs ensembles d’analyses. La distinction des principaux paradigmes artistiques dans cette recherche définit des attributs pour comprendre respectivement leurs impacts sur l’enseignement des arts et pour saisir les différentes représentations que les enseignants spécialisés en arts plastiques au primaire ont de la création artistique, et plus particulièrement dans le paradigme artistique contemporain. Cette distinction permet de confronter deux représentations de la dynamique de création : celle présente dans la notion de processus de création et celle présente dans la notion d’intention artistique. Ainsi, les entretiens semi-dirigés de douze enseignants spécialistes en arts plastiques dans des écoles primaires au Québec renforcent l’existence du décalage, mais aussi nous renseigne sur la faiblesse des acteurs à définir les enjeux actuels de la création artistique. De plus, cette recherche démontre une absence dans le Programme de formation de l’école québécoise (PFEQ) des mécanismes de pensée de la création observée dans le paradigme artistique contemporain.