7 resultados para Shallow aquifer
em Université de Montréal, Canada
Resumo:
Les employés d’un organisme utilisent souvent un schéma de classification personnel pour organiser les documents électroniques qui sont sous leur contrôle direct, ce qui suggère la difficulté pour d’autres employés de repérer ces documents et la perte possible de documentation pour l’organisme. Aucune étude empirique n’a été menée à ce jour afin de vérifier dans quelle mesure les schémas de classification personnels permettent, ou même facilitent, le repérage des documents électroniques par des tiers, dans le cadre d’un travail collaboratif par exemple, ou lorsqu’il s’agit de reconstituer un dossier. Le premier objectif de notre recherche était de décrire les caractéristiques de schémas de classification personnels utilisés pour organiser et classer des documents administratifs électroniques. Le deuxième objectif consistait à vérifier, dans un environnement contrôlé, les différences sur le plan de l’efficacité du repérage de documents électroniques qui sont fonction du schéma de classification utilisé. Nous voulions vérifier s’il était possible de repérer un document avec la même efficacité, quel que soit le schéma de classification utilisé pour ce faire. Une collecte de données en deux étapes fut réalisée pour atteindre ces objectifs. Nous avons d’abord identifié les caractéristiques structurelles, logiques et sémantiques de 21 schémas de classification utilisés par des employés de l’Université de Montréal pour organiser et classer les documents électroniques qui sont sous leur contrôle direct. Par la suite, nous avons comparé, à partir d'une expérimentation contrôlée, la capacité d’un groupe de 70 répondants à repérer des documents électroniques à l’aide de cinq schémas de classification ayant des caractéristiques structurelles, logiques et sémantiques variées. Trois variables ont été utilisées pour mesurer l’efficacité du repérage : la proportion de documents repérés, le temps moyen requis (en secondes) pour repérer les documents et la proportion de documents repérés dès le premier essai. Les résultats révèlent plusieurs caractéristiques structurelles, logiques et sémantiques communes à une majorité de schémas de classification personnels : macro-structure étendue, structure peu profonde, complexe et déséquilibrée, regroupement par thème, ordre alphabétique des classes, etc. Les résultats des tests d’analyse de la variance révèlent des différences significatives sur le plan de l’efficacité du repérage de documents électroniques qui sont fonction des caractéristiques structurelles, logiques et sémantiques du schéma de classification utilisé. Un schéma de classification caractérisé par une macro-structure peu étendue et une logique basée partiellement sur une division par classes d’activités augmente la probabilité de repérer plus rapidement les documents. Au plan sémantique, une dénomination explicite des classes (par exemple, par utilisation de définitions ou en évitant acronymes et abréviations) augmente la probabilité de succès au repérage. Enfin, un schéma de classification caractérisé par une macro-structure peu étendue, une logique basée partiellement sur une division par classes d’activités et une sémantique qui utilise peu d’abréviations augmente la probabilité de repérer les documents dès le premier essai.
Resumo:
Cette thèse porte sur une classe d'algorithmes d'apprentissage appelés architectures profondes. Il existe des résultats qui indiquent que les représentations peu profondes et locales ne sont pas suffisantes pour la modélisation des fonctions comportant plusieurs facteurs de variation. Nous sommes particulièrement intéressés par ce genre de données car nous espérons qu'un agent intelligent sera en mesure d'apprendre à les modéliser automatiquement; l'hypothèse est que les architectures profondes sont mieux adaptées pour les modéliser. Les travaux de Hinton (2006) furent une véritable percée, car l'idée d'utiliser un algorithme d'apprentissage non-supervisé, les machines de Boltzmann restreintes, pour l'initialisation des poids d'un réseau de neurones supervisé a été cruciale pour entraîner l'architecture profonde la plus populaire, soit les réseaux de neurones artificiels avec des poids totalement connectés. Cette idée a été reprise et reproduite avec succès dans plusieurs contextes et avec une variété de modèles. Dans le cadre de cette thèse, nous considérons les architectures profondes comme des biais inductifs. Ces biais sont représentés non seulement par les modèles eux-mêmes, mais aussi par les méthodes d'entraînement qui sont souvent utilisés en conjonction avec ceux-ci. Nous désirons définir les raisons pour lesquelles cette classe de fonctions généralise bien, les situations auxquelles ces fonctions pourront être appliquées, ainsi que les descriptions qualitatives de telles fonctions. L'objectif de cette thèse est d'obtenir une meilleure compréhension du succès des architectures profondes. Dans le premier article, nous testons la concordance entre nos intuitions---que les réseaux profonds sont nécessaires pour mieux apprendre avec des données comportant plusieurs facteurs de variation---et les résultats empiriques. Le second article est une étude approfondie de la question: pourquoi l'apprentissage non-supervisé aide à mieux généraliser dans un réseau profond? Nous explorons et évaluons plusieurs hypothèses tentant d'élucider le fonctionnement de ces modèles. Finalement, le troisième article cherche à définir de façon qualitative les fonctions modélisées par un réseau profond. Ces visualisations facilitent l'interprétation des représentations et invariances modélisées par une architecture profonde.
Resumo:
La réparation de l’ADN par excision des nucléotides (NER) est un mécanisme capable de retirer une large variété de lésions causant une distorsion de la double hélice, comme celles causées par les rayons ultraviolets (UV). Comme toutes les voies de réparation de l’ADN, la NER contribue à la prévention de la carcinogénèse en prévenant la mutation de l’ADN. Lors de ce processus, il y a d’abord reconnaissance de la lésion par la protéine XPC/Rad4 (humain/levure) qui recrute ensuite TFIIH. Ce complexe déroule l’ADN par son activité hélicase et recrute l’endonucléase XPG/Rad2 ainsi que d’autres protéines nécessaires à l’excision de l’ADN. Lors de son arrivée au site de lésion, XPG/Rad2 déplace XPC/Rad4. TFIIH agit également lors de la transcription de l’ADN, entre autres par son activité hélicase. Outre cette similarité de la présence de TFIIH lors de la transcription et la réparation, il est possible de se demander en quoi les deux voies sont similaires. Nous nous sommes donc intéressés aux interactions impliquant TFIIH et la machinerie de réparation de l’ADN. Nous avons donc entrepris une caractérisation structurale et fonctionnelle de ces interactions. Nous avons découvert que Rad2 et Rad4 possèdent un motif d’interaction en nous basant sur d’autres interactions de la sous-unité Tfb1 de TFIIH. Par calorimétrie à titrage isotherme, nous avons observé que les segments de ces deux protéines contenant ce motif interagissent avec une grande affinité au domaine PH de Tfb1. Le site de liaison de ces segments sur Tfb1PH est très semblable au site de liaison du domaine de transactivation de p53 et au domaine carboxy-terminal de TFIIEα avec Tfb1PH, tel que démontré par résonance magnétique nucléaire (RMN). De plus, tous ces segments peuvent faire compétition les uns aux autres pour la liaison à Tfb1PH. Nous avons aussi démontré in vivo chez la levure qu’une délétion de Tfb1PH crée une sensibilité aux radiations UV. De plus, la délétion de multiples segments de Rad2 et Rad4, dont les segments d’interaction à Tfb1PH, est nécessaire pour voir une sensibilité aux rayons UV. Ainsi, de multiples interactions sont impliquées dans la liaison de Rad2 et Rad4 à TFIIH. Finalement, les structures des complexes Rad2-Tfb1PH et Rad4-Tfb1PH ont été résolues par RMN. Ces structures sont identiques entre elles et impliquent des résidus hydrophobes interagissant avec des cavités peu profondes de Tfb1PH. Ces structures sont très semblables à la structure de TFIIEα-p62PH. Ces découvertes fournissent ainsi un lien important entre la transcription et la réparation de l’ADN. De plus, elles permettent d’émettre un modèle du mécanisme de déplacement de XPC/Rad4 par XPG/Rad2 au site de dommage à l’ADN. Ces connaissances aident à mieux comprendre les mécanismes de maintient de la stabilité génomique et peuvent ainsi mener à développer de nouvelles thérapies contre le cancer.
Resumo:
Nous avons étudié l’application de plusieurs mesures d’isotopes stables afin de caractériser les processus du cycle de l’azote et les sources d’azote dans les lacs tempérés à diverses échelles spatiales et temporelles. Les résultats d’une étude à travers 65 lacs sur un gradient trophique ont démontré que le ratio d’isotopes stables d’azote (δ15N) des sédiments de surface est un indicateur de l’importance relative des sources d’azote anthropique, mais que ce ratio peut être altéré par la diagenèse. La mesure du δ15N des sédiments demeure néanmoins un outil permettant de déterminer à long terme le changement des charges en azote anthropique aux écosystèmes lacustres et les causes de l’eutrophisation de ces systèmes. Nos résultats d’une étude sur la variation saisonnière de plusieurs isotopes stables dans trois lacs peu profonds situés sur un gradient trophique et ayant différents régimes de stratification ont démontré que cette approche est prometteuse dans les lacs mésotrophes et stratifiés. Dans ces systèmes, le δ15N de la matière organique particulaire (MOP) aurait le potentiel de déterminer les sources d’azote assimilées par le phytoplancton. Cependant les mesures d’isotopes stables du carbone (δ13C) et du ratio C:N indiquent que les apports de matières organiques du bassin versant peuvent altérer les relations observées. Nous avons également constaté une déviation de la relation 1:1 entre les isotopes stables d’azote et d’oxygène (δ18O) du nitrate (NO3-) indiquant son assimilation et sa nitrification simultanée. Cette application est particulièrement prometteuse puisque la nitrification est méconnue dans les lacs et peut exacerber les effets de l’eutrophisation.
Resumo:
L'apprentissage profond est un domaine de recherche en forte croissance en apprentissage automatique qui est parvenu à des résultats impressionnants dans différentes tâches allant de la classification d'images à la parole, en passant par la modélisation du langage. Les réseaux de neurones récurrents, une sous-classe d'architecture profonde, s'avèrent particulièrement prometteurs. Les réseaux récurrents peuvent capter la structure temporelle dans les données. Ils ont potentiellement la capacité d'apprendre des corrélations entre des événements éloignés dans le temps et d'emmagasiner indéfiniment des informations dans leur mémoire interne. Dans ce travail, nous tentons d'abord de comprendre pourquoi la profondeur est utile. Similairement à d'autres travaux de la littérature, nos résultats démontrent que les modèles profonds peuvent être plus efficaces pour représenter certaines familles de fonctions comparativement aux modèles peu profonds. Contrairement à ces travaux, nous effectuons notre analyse théorique sur des réseaux profonds acycliques munis de fonctions d'activation linéaires par parties, puisque ce type de modèle est actuellement l'état de l'art dans différentes tâches de classification. La deuxième partie de cette thèse porte sur le processus d'apprentissage. Nous analysons quelques techniques d'optimisation proposées récemment, telles l'optimisation Hessian free, la descente de gradient naturel et la descente des sous-espaces de Krylov. Nous proposons le cadre théorique des méthodes à région de confiance généralisées et nous montrons que plusieurs de ces algorithmes développés récemment peuvent être vus dans cette perspective. Nous argumentons que certains membres de cette famille d'approches peuvent être mieux adaptés que d'autres à l'optimisation non convexe. La dernière partie de ce document se concentre sur les réseaux de neurones récurrents. Nous étudions d'abord le concept de mémoire et tentons de répondre aux questions suivantes: Les réseaux récurrents peuvent-ils démontrer une mémoire sans limite? Ce comportement peut-il être appris? Nous montrons que cela est possible si des indices sont fournis durant l'apprentissage. Ensuite, nous explorons deux problèmes spécifiques à l'entraînement des réseaux récurrents, à savoir la dissipation et l'explosion du gradient. Notre analyse se termine par une solution au problème d'explosion du gradient qui implique de borner la norme du gradient. Nous proposons également un terme de régularisation conçu spécifiquement pour réduire le problème de dissipation du gradient. Sur un ensemble de données synthétique, nous montrons empiriquement que ces mécanismes peuvent permettre aux réseaux récurrents d'apprendre de façon autonome à mémoriser des informations pour une période de temps indéfinie. Finalement, nous explorons la notion de profondeur dans les réseaux de neurones récurrents. Comparativement aux réseaux acycliques, la définition de profondeur dans les réseaux récurrents est souvent ambiguë. Nous proposons différentes façons d'ajouter de la profondeur dans les réseaux récurrents et nous évaluons empiriquement ces propositions.
Resumo:
Full Text / Article complet
Resumo:
This analysis of public opinion towards foreign aid shows that Canadians are divided over internationalism. First, while most citizens agree that development assistance is important, their support often remains shallow, unmatched by a commitment to undertake concrete actions. Second, the attitudes Canadians hold toward development assistance indicate that there is a clear division in the country’s public between liberal and conservative internationalists, a cleavage that is anchored in domestic ideological and partisan differences. In many ways comparable to what is found in other countries, the internationalism of Canadians does not appear as vigorous and as consensual as is often suggested.