103 resultados para peacock bass
Resumo:
Essai doctoral présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Doctorat (D.Psy.) en psychologie clinique
Resumo:
Nous présentons dans cette thèse notre travail dans le domaine de la visualisation. Nous nous sommes intéressés au problème de la génération des bulletins météorologiques. Étant donné une masse énorme d’information générée par Environnement Canada et un utilisateur, il faut lui générer une visualisation personnalisée qui répond à ses besoins et à ses préférences. Nous avons développé MeteoVis, un générateur de bulletin météorologique. Comme nous avons peu d’information sur le profil de l’utilisateur, nous nous sommes basés sur les utilisateurs similaires pour lui calculer ses besoins et ses préférences. Nous utilisons l'apprentissage non supervisé pour regrouper les utilisateurs similaires. Nous calculons le taux de similarité des profils utilisateurs dans le même cluster pour pondérer les besoins et les préférences. Nous avons mené, avec l’aide d'utilisateurs n’ayant aucun rapport avec le projet, des expériences d'évaluation et de comparaison de notre outil par rapport à celui utilisé actuellement par Environnement Canada. Les résultats de cette évaluation montrent que les visualisation générées par MeteoVis sont de loin meilleures que les bulletins actuels préparés par EC.
Resumo:
Cette thèse étudie des modèles de séquences de haute dimension basés sur des réseaux de neurones récurrents (RNN) et leur application à la musique et à la parole. Bien qu'en principe les RNN puissent représenter les dépendances à long terme et la dynamique temporelle complexe propres aux séquences d'intérêt comme la vidéo, l'audio et la langue naturelle, ceux-ci n'ont pas été utilisés à leur plein potentiel depuis leur introduction par Rumelhart et al. (1986a) en raison de la difficulté de les entraîner efficacement par descente de gradient. Récemment, l'application fructueuse de l'optimisation Hessian-free et d'autres techniques d'entraînement avancées ont entraîné la recrudescence de leur utilisation dans plusieurs systèmes de l'état de l'art. Le travail de cette thèse prend part à ce développement. L'idée centrale consiste à exploiter la flexibilité des RNN pour apprendre une description probabiliste de séquences de symboles, c'est-à-dire une information de haut niveau associée aux signaux observés, qui en retour pourra servir d'à priori pour améliorer la précision de la recherche d'information. Par exemple, en modélisant l'évolution de groupes de notes dans la musique polyphonique, d'accords dans une progression harmonique, de phonèmes dans un énoncé oral ou encore de sources individuelles dans un mélange audio, nous pouvons améliorer significativement les méthodes de transcription polyphonique, de reconnaissance d'accords, de reconnaissance de la parole et de séparation de sources audio respectivement. L'application pratique de nos modèles à ces tâches est détaillée dans les quatre derniers articles présentés dans cette thèse. Dans le premier article, nous remplaçons la couche de sortie d'un RNN par des machines de Boltzmann restreintes conditionnelles pour décrire des distributions de sortie multimodales beaucoup plus riches. Dans le deuxième article, nous évaluons et proposons des méthodes avancées pour entraîner les RNN. Dans les quatre derniers articles, nous examinons différentes façons de combiner nos modèles symboliques à des réseaux profonds et à la factorisation matricielle non-négative, notamment par des produits d'experts, des architectures entrée/sortie et des cadres génératifs généralisant les modèles de Markov cachés. Nous proposons et analysons également des méthodes d'inférence efficaces pour ces modèles, telles la recherche vorace chronologique, la recherche en faisceau à haute dimension, la recherche en faisceau élagué et la descente de gradient. Finalement, nous abordons les questions de l'étiquette biaisée, du maître imposant, du lissage temporel, de la régularisation et du pré-entraînement.
Resumo:
Ma thèse est composée de trois essais sur l'inférence par le bootstrap à la fois dans les modèles de données de panel et les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peut être faible. La théorie asymptotique n'étant pas toujours une bonne approximation de la distribution d'échantillonnage des estimateurs et statistiques de tests, je considère le bootstrap comme une alternative. Ces essais tentent d'étudier la validité asymptotique des procédures bootstrap existantes et quand invalides, proposent de nouvelles méthodes bootstrap valides. Le premier chapitre #co-écrit avec Sílvia Gonçalves# étudie la validité du bootstrap pour l'inférence dans un modèle de panel de données linéaire, dynamique et stationnaire à effets fixes. Nous considérons trois méthodes bootstrap: le recursive-design bootstrap, le fixed-design bootstrap et le pairs bootstrap. Ces méthodes sont des généralisations naturelles au contexte des panels des méthodes bootstrap considérées par Gonçalves et Kilian #2004# dans les modèles autorégressifs en séries temporelles. Nous montrons que l'estimateur MCO obtenu par le recursive-design bootstrap contient un terme intégré qui imite le biais de l'estimateur original. Ceci est en contraste avec le fixed-design bootstrap et le pairs bootstrap dont les distributions sont incorrectement centrées à zéro. Cependant, le recursive-design bootstrap et le pairs bootstrap sont asymptotiquement valides quand ils sont appliqués à l'estimateur corrigé du biais, contrairement au fixed-design bootstrap. Dans les simulations, le recursive-design bootstrap est la méthode qui produit les meilleurs résultats. Le deuxième chapitre étend les résultats du pairs bootstrap aux modèles de panel non linéaires dynamiques avec des effets fixes. Ces modèles sont souvent estimés par l'estimateur du maximum de vraisemblance #EMV# qui souffre également d'un biais. Récemment, Dhaene et Johmans #2014# ont proposé la méthode d'estimation split-jackknife. Bien que ces estimateurs ont des approximations asymptotiques normales centrées sur le vrai paramètre, de sérieuses distorsions demeurent à échantillons finis. Dhaene et Johmans #2014# ont proposé le pairs bootstrap comme alternative dans ce contexte sans aucune justification théorique. Pour combler cette lacune, je montre que cette méthode est asymptotiquement valide lorsqu'elle est utilisée pour estimer la distribution de l'estimateur split-jackknife bien qu'incapable d'estimer la distribution de l'EMV. Des simulations Monte Carlo montrent que les intervalles de confiance bootstrap basés sur l'estimateur split-jackknife aident grandement à réduire les distorsions liées à l'approximation normale en échantillons finis. En outre, j'applique cette méthode bootstrap à un modèle de participation des femmes au marché du travail pour construire des intervalles de confiance valides. Dans le dernier chapitre #co-écrit avec Wenjie Wang#, nous étudions la validité asymptotique des procédures bootstrap pour les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peu être faible. Nous montrons analytiquement qu'un bootstrap standard basé sur les résidus et le bootstrap restreint et efficace #RE# de Davidson et MacKinnon #2008, 2010, 2014# ne peuvent pas estimer la distribution limite de l'estimateur du maximum de vraisemblance à information limitée #EMVIL#. La raison principale est qu'ils ne parviennent pas à bien imiter le paramètre qui caractérise l'intensité de l'identification dans l'échantillon. Par conséquent, nous proposons une méthode bootstrap modifiée qui estime de facon convergente cette distribution limite. Nos simulations montrent que la méthode bootstrap modifiée réduit considérablement les distorsions des tests asymptotiques de type Wald #$t$# dans les échantillons finis, en particulier lorsque le degré d'endogénéité est élevé.
Resumo:
This work describes a methodology for converting a specialized dictionary into a learner’s dictionary. The dictionary to which we apply our conversion method is the DiCoInfo, Dictionnaire fondamental de l’informatique et de l’Internet. We focus on changes affecting the presentation of data categories. What is meant by specialized dictionary for learners, in our case, is a dictionary covering the field of computer science and Internet meeting our users’ needs in communicative and cognitive situations. Our dictionary is aimed at learners’ of the computing language. We start by presenting a detailed description of four dictionaries for learners. We explain how the observations made on these resources have helped us in developing our methodology.In order to develop our methodology, first, based on Bergenholtz and Tarp’s works (Bergenholtz 2003; Tarp 2008; Fuertes Olivera and Tarp 2011), we defined the type of users who may use our dictionary. Translators are our first intended users. Other users working in the fields related to translation are also targeted: proofreaders, technical writers, interpreters. We also determined the use situations of our dictionary. It aims to assist the learners in solving text reception and text production problems (communicative situations) and in studying the terminology of computing (cognitive situations). Thus, we could establish its lexicographical functions: communicative and cognitive functions. Then, we extracted 50 articles from the DiCoInfo to which we applied a number of changes in different aspects: the layout, the presentation of data, the navigation and the use of multimedia. The changes were made according to two fundamental parameters: 1) simplification of the presentation; 2) lexicographic functions (which include the intended users and user’s situations). In this way, we exploited the widgets offered by the technology to update the interface and layout. Strategies have been developed to organize a large number of lexical links in a simpler way. We associated these links with examples showing their use in specific contexts. Multimedia as audio pronunciation and illustrations has been used.
Resumo:
Le 1er avril 2003, l’entrée en vigueur de la Loi sur le système de justice pénale pour les adolescents (LSJPA) a fourni aux policiers canadiens de nouveaux outils pour procéder à des interventions non-judiciaires auprès d’adolescents contrevenants. Dorénavant, les policiers détiennent le pouvoir officiel d’imposer des mesures extrajudiciaires aux adolescents interpellés pour avoir commis des infractions plutôt que de procéder à leur arrestation formelle. La présente étude vise à déterminer quelles caractéristiques des adolescents et circonstances des infractions ont un impact significatif sur les décisions des policiers d’imposer ces mesures plutôt que de procéder à des arrestations. Les résultats sont basés sur trois échantillons de participations criminelles juvéniles enregistrées par un corps policier canadien entre 2003 et 2010: le premier composé d’infractions contre la personne (n= 3 482), le second, d’infractions contre la propriété (n= 8 230) et le troisième, d’autres crimes (n= 1 974). L’analyse de régression logistique multiniveaux a été utilisée pour déterminer les facteurs — tels que le sexe, l’âge et les contacts antérieurs avec la justice des adolescents ainsi que la localisation dans le temps et l’espace de l’infraction — ont un impact significatif sur le pouvoir discrétionnaire des policiers. Certains facteurs ont une influence universelle d’une catégorie de crime à l’autre, tandis que d’autres ont un impact spécifique selon le type d’infraction commise.
Resumo:
Cette thèse s’intéresse à l’influence des facteurs contextuels sur la mise en œuvre et les effets d’une politique de santé maternelle au Burkina Faso. Cette politique nommée la subvention SONU vise à faire augmenter la couverture des accouchements dans les établissements de santé publics en agissant sur l’accessibilité économique des ménages. La thèse propose une évaluation des processus de cette politique. Le cadre d’analyse repose sur des propositions théoriques issues du champ de l’étude des politiques sanitaires (les acteurs et leurs relations de pouvoir) et de l’anthropologie médicale critique (les représentations). L’étude s’est déroulée dans le district sanitaire de Djibo, situé dans la région du Sahel. Il s’agit d’une étude de cas multiples où chaque centre de santé représentait un cas. L’approche méthodologique employée était qualitative. Une enquête de terrain, des entretiens, des groupes de discussion, des observations non participantes et une analyse documentaire ont été les méthodes de collecte de données utilisées. Les résultats préliminaires de l’étude ont été présentés aux parties prenantes. Le premier article évalue l’implantation de cette subvention SONU au niveau d’un district et rend compte de l’influence des rapports de pouvoir sur la mise en œuvre de cette dernière. Les résultats indiquent que toutes les composantes de cette subvention sont mises en œuvre, à l’exception du fond d’indigence et de certaines composantes relatives à la qualité technique des soins telles que les sondages pour les bénéficiaires et l’équipe d’assurance qualité dans l’hôpital du district. Les professionnels et les gestionnaires de la santé expliquent les difficultés dans l’application de politique de subvention par un manque de clarté et de compréhension des directives officielles. Les relations de pouvoir entre les différents groupes d’acteurs ont une influence sur la mise en œuvre de cette politique. Les rapports entre gestionnaires du district et agents de santé sont basés sur des rapports hiérarchiques. Ainsi, les gestionnaires contrôlent le travail des agents de santé et imposent des changements à la mise en œuvre de la politique. Les rapports entre soignants et patients sont variables. Dans certains centres de santé, les communautés perçoivent positivement cette relation alors que dans d’autres, elle est perçue négativement. Les perceptions sur les relations entre les accoucheuses villageoises et les agents de santé sont également partagées. Pour les agents de santé, ces actrices peuvent être de potentielles alliées pour renforcer l’efficacité de la politique SONU en incitant les femmes à utiliser les services de santé, mais elles sont aussi perçues comme des obstacles, lorsqu’elles continuent à effectuer des accouchements à domicile. Les difficultés de compréhension des modalités de remboursement entrainent une rigidité dans les rapports entre agents de santé et comités de gestion. Le deuxième article vise à comprendre la variation observée sur la couverture des accouchements entre plusieurs centres de santé après la mise en œuvre de cette politique SONU. Les facteurs contextuels et plus spécifiquement humains ont une influence sur la couverture des accouchements assistés. Le leadership des agents de santé, caractérisé par l’initiative personnelle, l’éthique professionnelle et l’établissement d’un lien de confiance entre les populations et l’équipe sanitaire expliquent la différence d’effets observée sur la couverture des accouchements assistés après la mise en œuvre de cette dernière. Le troisième article analyse l’usage stratégique des référentiels ethnoculturels par certaines équipes sanitaires pour expliquer l’échec partiel de la politique SONU dans certains centres de santé. La référence à ces facteurs vise essentiellement à normaliser et légitimer l’absence d’effet de la politique sur la couverture des accouchements assistés. Elle contribue également à blâmer les populations. Enfin, le recours à ces référentiels tend à écarter les interprétations socioéconomiques et politiques qui sous-tendent la problématique des accouchements dans les établissements de santé publics. Sur le plan pratique, cette thèse permet de mieux comprendre le processus de mise en œuvre d’une politique de santé maternelle. Elle montre que les dimensions relatives à l’équité et à la qualité des soins sont négligées dans ce processus. Cette recherche met en lumière les difficultés auxquelles sont confrontés les agents de santé dans la mise en oeuvre de cette politique. Elle met également en exergue les facteurs qui expliquent l’hétérogénéité observée sur la couverture des accouchements assistés entre les centres de santé après la mise en œuvre de cette politique. Sur le plan théorique, cette thèse montre l’importance d’identifier les rapports de pouvoir qui s’exercent entre les différents acteurs impliqués dans les politiques sanitaires. Elle rappelle l’influence considérable des facteurs contextuels sur la mise en œuvre et les effets des politiques. Enfin, cette recherche révèle le poids des représentations sociales des acteurs dans la compréhension des effets des politiques. Cette thèse contribue au développement des connaissances dans le champ des politiques publiques sur le plan des thématiques abordées (mise en œuvre, rapports de pouvoir) et de l’approche méthodologique (enquête de terrain) utilisée. Elle participe aussi aux réflexions théoriques sur le concept de leadership des professionnels de la santé en Afrique.
Resumo:
Nous proposons dans cette thèse un système permettant de déterminer, à partir des données envoyées sur les microblogs, les évènements qui stimulent l’intérêt des utilisateurs durant une période donnée et les dates saillantes de chaque évènement. Étant donné son taux d’utilisation élevé et l’accessibilité de ses données, nous avons utilisé la plateforme Twitter comme source de nos données. Nous traitons dans ce travail les tweets portant sur la Tunisie dont la plupart sont écrits par des tunisiens. La première tâche de notre système consistait à extraire automatiquement les tweets d’une façon continue durant 67 jours (de 8 février au 15 avril 2012). Nous avons supposé qu’un évènement est représenté par plusieurs termes dont la fréquence augmente brusquement à un ou plusieurs moments durant la période analysée. Le manque des ressources nécessaires pour déterminer les termes (notamment les hashtags) portant sur un même sujet, nous a obligé à proposer des méthodes permettant de regrouper les termes similaires. Pour ce faire, nous avons eu recours à des méthodes phonétiques que nous avons adaptées au mode d’écriture utilisée par les tunisiens, ainsi que des méthodes statistiques. Pour déterminer la validité de nos méthodes, nous avons demandé à des experts, des locuteurs natifs du dialecte tunisien, d’évaluer les résultats retournés par nos méthodes. Ces groupes ont été utilisés pour déterminer le sujet de chaque tweet et/ou étendre les tweets par de nouveaux termes. Enfin, pour sélectionner l'ensemble des évènements (EV), nous nous sommes basés sur trois critères : fréquence, variation et TF-IDF. Les résultats que nous avons obtenus ont montré la robustesse de notre système.
Resumo:
Ce mémoire porte sur l’analyse documentaire en milieu universitaire. Deux approches générales sont d’abord étudiées : l’approche centrée sur le document (premier chapitre), prédominante dans la tradition bibliothéconomique, et l’approche centrée sur l’usager (deuxième chapitre), influencée par le développement d’outils le plus souvent associés au Web 2.0. L’opposition entre ces deux démarches reflète une dichotomie qui se trouve au cœur de la notion de sujet, c’est-à-dire les dimensions objective et subjective du sujet. Ce mémoire prend par conséquent la forme d’une dissertation dont l’avantage principal est de considérer à la fois d’importants acquis qui appartiennent à la tradition bibliothéconomique, à la fois des développements plus récents ayant un impact important sur l’évolution de l’analyse documentaire en milieu universitaire. Notre hypothèse est que ces deux tendances générales doivent être mises en relief afin d’approfondir la problématique de l’appariement, laquelle définit la difficulté d’accorder le vocabulaire qu’utilise l’usager dans ses recherches documentaires avec celui issu de l’analyse documentaire (métadonnées sujet). Dans le troisième chapitre, nous examinons certaines particularités liées à l’utilisation de la documentation en milieu universitaire dans le but de repérer certaines possibilités et certaines exigences de l’analyse documentaire dans un tel milieu. À partir d’éléments basés sur l’analyse des domaines d’études et sur la démarche analytico-synthétique, il s’agit d’accentuer l’interaction potentielle entre usagers et analystes documentaires sur le plan du vocabulaire utilisé de part et d’autre.
Resumo:
L’évaluation de la condition corporelle des carcasses des bélugas du Saint-Laurent contribue au diagnostic de cause de mortalité du pathologiste. La méthode actuelle repose sur une évaluation visuelle subjective. Notre projet visait à chercher un outil objectif d’évaluation de la condition corporelle. L’indice de masse mise à l’échelle (M̂ i) est objectif puisqu’il est calculé à partir de la masse et de la taille de chaque individu. M̂ i doit être calculé avec des constantes différentes pour les bélugas mesurant plus ou moins de 290 cm. Il produit des résultats en accord avec l’évaluation visuelle. Comme il est parfois logistiquement impossible de peser un béluga, nous avons évalué des indices basés sur d’autres mesures morphométriques. Les indices basés sur la circonférence à hauteur de l’anus pour les bélugas de moins de 290 cm et la circonférence maximale pour ceux de plus de 290 cm représentent des indices de condition corporelle alternatifs intéressants.
Resumo:
Cette recherche s’intéresse aux enjeux de l’habitat de demain de la génération des baby-boomers, tout particulièrement ceux nés entre 1945 et 1953, qui arrivent aujourd’hui à la retraite. C’est au carrefour de la vision de ce que signifie habiter selon des auteurs comme Benoit Goetz ( 2011), des philosophes comme Heidegger (1958), Bachelard (1957), Benjamin (1955), Büber (1962) ou encore Deleuze (1980) d’une part, soulignant les facteurs de porosité et les liens aux autres, et d’autre part les caractéristiques des baby-boomers telles que présentées par Jean François Sirinelli (2003) et Josée Garceau (2012), que se situe la recherche. Cette génération informée entend rester active et pratique des « adeptions » qui influencent par les gestes un savoir habiter et par là son habitat. L’étude de terrain a sondé les aspirations des baby-boomers en ce qui concerne leur choix résidentiel pour l’avenir, pour comprendre sur quelles valeurs et vers quels buts leur projet se construit. Le choix de méthodologies qualitatives s’appuie sur le visionnement préalable d’un film récent : Et si on vivait tous ensemble. Des entretiens semi-dirigés, auprès de cinq baby-boomers, de 60 à 65 ans, effectués en deux phases avec verbatim approuvés,étaient basés sur trois thèmes : la mémoire, l’adeption et le projet. Entre autres résultats, sont confirmés avec variantes, plusieurs concepts théoriques, comme ceux de porosité et d’ouverture par la fenêtre à la fois physique et virtuelle, mais soulignent le spectre de la maison de retraite et des préoccupations financières concernant l’avenir d’un habitat nécessairement autonome. Cette génération imprégnée par le monde technologique veut avoir accès à tout ce que propose la modernité sans pour autant perdre le sens de l’historicité de leur vie. Nés dans un monde en bouillonnement, les baby-boomers ont réinventé chaque étape de leur existence, ce qui laisse préfigurer que cette génération s’apprête à réinventer la retraite et ses sites domiciliaires. Aussi l’approche design devra-t-elle complètement se renouveler pour ces nouveaux usagers.
Resumo:
L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.
Resumo:
La moxonidine, un médicament antihypertenseur sympatholytique de type imidazolinique, agit au niveau de la médulla du tronc cérébral pour diminuer la pression artérielle, suite à l’activation sélective du récepteur aux imidazolines I1 (récepteur I1, aussi nommé nischarine). Traitement avec de la moxonidine prévient le développement de l’hypertrophie du ventricule gauche chez des rats hypertendus (SHR), associé à une diminution de la synthèse et une élévation transitoire de la fragmentation d’ADN, des effets antiprolifératifs et apoptotiques. Ces effets se présentent probablement chez les fibroblastes, car l’apoptose des cardiomyocytes pourrait détériorer la fonction cardiaque. Ces effets apparaissent aussi avec des doses non hypotensives de moxonidine, suggérant l’existence d’effets cardiaques directes. Le récepteur I1 se trouvé aussi dans les tissus cardiaques; son activation ex vivo par la moxonidine stimule la libération de l’ANP, ce qui montre que les récepteurs I1 cardiaques sont fonctionnels malgré l’absence de stimulation centrale. Sur la base de ces informations, en plus du i) rôle des peptides natriurétiques comme inhibiteurs de l’apoptose cardiaque et ii) des études qui lient le récepteur I1 avec la maintenance de la matrix extracellulaire, on propose que, à part les effets sympatholytiques centrales, les récepteurs I1 cardiaques peuvent contrôler la croissance-mort cellulaire. L’activation du récepteur I1 peut retarder la progression des cardiopathies vers la défaillance cardiaque, en inhibant des signaux mal adaptatifs de prolifération et apoptose. Des études ont été effectuées pour : 1. Explorer les effets in vivo sur la structure et la fonction cardiaque suite au traitement avec moxonidine chez le SHR et le hamster cardiomyopathique. 2. Définir les voies de signalisation impliquées dans les changements secondaires au traitement avec moxonidine, spécifiquement sur les marqueurs inflammatoires et les voies de signalisation régulant la croissance et la survie cellulaire (MAPK et Akt). 3. Explorer les effets in vitro de la surexpression et l’activation du récepteur I1 sur la survie cellulaire dans des cellules HEK293. 4. Rechercher la localisation, régulation et implication dans la croissance-mort cellulaire du récepteur I1 in vitro (cardiomyocytes et fibroblastes), en réponse aux stimuli associés au remodelage cardiaque : norépinephrine, cytokines (IL-1β, TNF-α) et oxydants (H2O2). Nos études démontrent que la moxonidine, en doses hypotensives et non-hypotensives, améliore la structure et la performance cardiaque chez le SHR par des mécanismes impliquant l’inhibition des cytokines et des voies de signalisation p38 MAPK et Akt. Chez le hamster cardiomyopathique, la moxonidine améliore la fonction cardiaque, module la réponse inflammatoire/anti-inflammatoire et atténue la mort cellulaire et la fibrose cardiaque. Les cellules HEK293 surexprimant la nischarine survivent et prolifèrent plus en réponse à la moxonidine; cet effet est associé à l’inhibition des voies ERK, JNK et p38 MAPK. La surexpression de la nischarine protège aussi de la mort cellulaire induite par le TNF-α, l’IL-1β et le H2O2. En outre, le récepteur I1 s’exprime dans les cardiomyocytes et fibroblastes, son activation inhibe la mort des cardiomyocytes et la prolifération des fibroblastes induite par la norépinephrine, par des effets différentiels sur les MAPK et l’Akt. Dans des conditions inflammatoires, la moxonidine/récepteur aux imidazolines I1 protège les cardiomyocytes et facilite l’élimination des myofibroblastes par des effets contraires sur JNK, p38 MAPK et iNOS. Ces études démontrent le potentiel du récepteur I1/nischarine comme cible anti-hypertrophique et anti-fibrose à niveau cardiaque. L’identification des mécanismes cardioprotecteurs de la nischarine peut amener au développement des traitements basés sur la surexpression de la nischarine chez des patients avec hypertrophie ventriculaire. Finalement, même si l’effet antihypertenseur des agonistes du récepteur I1 centraux est salutaire, le développement de nouveaux agonistes cardiosélectifs du récepteur I1 pourrait donner des bénéfices additionnels chez des patients non hypertendus.
Resumo:
Cette thèse est divisée en trois parties. Une première section présente les résultats de l'étude de la formation de polarons magnétiques liés (BMP) dans le ferroaimant EuB6 par diffusion de neutrons à petits angles (SANS). La nature magnétique du système ferromagnétique est observée sous une température critique de 15K. La signature des BMP n'apparaît pas dans la diffusion de neutrons, mais ces mesures permettent de confirmer une limite inférieure de 100\AA à la longueur de cohérence des BMP (xi_{Lower}). Dans un second temps, l'étude du LaRhSi3, un supraconducteur sans symétrie d'inversion, par muSR et ZF-muSR nous permet de sonder le comportement magnétique du système dans la phase supraconductrice. Aucun champ magnétique interne n'a été détecté en ZF-muSR sous la température critique (T_c = 2.2K). Cela indique que la phase supraconductrice ne porte pas de moment cinétique intrinsèque. L'analyse du spectre d'asymétrie sous l'application d'un champ magnétique externe nous apprend que le système est faiblement type II par l'apparition de la signature de domaines magnétiques typique d'un réseau de vortex entre H_{c1}(0) et H_{c2}(0), respectivement de 80+/- 5 et 169.0 +/- 0.5 G. Finalement, la troisième section porte sur l'étude du champ magnétique interne dans l'antiferroaimant organique NIT-2Py. L'observation d'une dépendance en température des champs magnétiques internes aux sites d'implantation muonique par ZF-muSR confirme la présence d'une interaction à longue portée entre les moments cinétiques moléculaires. Ces valeurs de champs internes, comparées aux calculs basés sur la densité de spins obtenue par calculs de la théorie de la fonctionnelle de la densité, indiquent que la moitié des molécules se dimérisent et ne contribuent pas à l'ordre antiferromagnétique. La fraction des molécules contribuant à l'ordre antiferromagnétique sous la température critique (T_c = 1.33 +/- 0.01K) forme des chaines uniformément polarisées selon l'axe (1 0 -2). Ces chaines interagissent antiferromagnétiquement entre elles le long de l'axe (0 1 0) et ferromagnétiquement entre les plan [-1 0 2].
Resumo:
Cette thèse présente des reconstructions de l'irradiance totale et spectrale durant les 400 dernières années à l'aide des modèles pour l'irradiance totale et l'irradiance spectrale dans l'ultraviolet développés à l'Université de Montréal. Tous deux sont basés sur la simulation de l'émergence, de la fragmentation et de l'érosion des taches solaires, qui permet d'obtenir une distribution de l'aire des taches sombres et des facules brillantes en fonction du temps. Ces deux composantes sont principalement responsables de la variation de l'irradiance sur l'échelle de temps de la décennie, qui peut être calculée en sommant leur émissivité à celle de la photosphère inactive. La version améliorée du modèle d'irradiance solaire spectrale MOCASSIM inclut une extension de son domaine spectral entre 150 et 400 nm ainsi que de son domaine temporel, débutant originalement en 1874 et couvrant maintenant la période débutant en 1610 jusqu'au présent. Cela permet de reconstruire le spectre ultraviolet durant le minimum de Maunder et de le comparer à celui du minimum de 2009. Les conclusions tirées de cette étude spécifient que l'émissivité dans l'ultraviolet était plus élevée en 2009 que durant le minimum de Maunder, que le niveau de base de la photosphère non magnétisée contribuait pour environ les deux tiers de cette différence et que les structures magnétiques restantes étaient responsables pour le tiers restant. Le modèle d'irradiance totale a vu son domaine temporel étendu sur la même période et une composante représentant le réseau magnétique de façon réaliste y a été ajoutée. Il a été démontré que les observations des 30 dernières années ne sont bien reproduites qu'en incluant la composante du Soleil non magnétisé variable à long terme. Le processus d'optimisation des paramètres libres du modèle a été effectué en minimisant le carré de la somme de l'écart journalier entre les résultats des calculs et les données observées. Les trois composites disponibles, soit celui du PMOD (Physikalisch Meteorologisches Observatorium Davos), d'ACRIM (ACtive Radiometer Irradiance Monitor) et du IRMB (Institut Royal Météorologique de Belgique), ne sont pas en accord entre eux, en particulier au niveau des minima du cycle d'activité, et le modèle permet seulement de reproduire celui du PMOD avec exactitude lorsque la composante variable à long terme est proportionnelle au flux radio à 10.7 cm. Toutefois, en utilisant des polynômes de Lagrange pour représenter la variation du Soleil inactif, l'accord est amélioré pour les trois composites durant les minima, bien que les relations entre le niveau minimal de l'irradiance et la longueur du cycle précédent varient d'un cas à l'autre. Les résultats obtenus avec le modèle d'irradiance spectrale ont été utilisés dans une étude d'intercomparaison de la réponse de la photochimie stratosphérique à différentes représentations du spectre solaire. Les simulations en mode transitoire d'une durée de 10 jours ont été effectuées avec un spectre solaire constant correspondant soit à une période d'activité minimale ou à une période d'activité maximale. Ceci a permis d'évaluer la réponse de la concentration d'ozone à la variabilité solaire au cours d'un cycle et la différence entre deux minima. En plus de ceux de MOCASSIM, les spectres produits par deux modèles ont été utilisés (NRLSSI et MGNM) ainsi que les données de SIM et SOLSTICE/SORCE. La variabilité spectrale de chacun a été extraite et multipliée à un spectre de base représentant le minimum d'activité afin de simuler le spectre au maximum d'activité. Cela a été effectué dans le but d'isoler l'effet de la variabilité seule et d'exclure celui de la valeur absolue du spectre. La variabilité spectrale d'amplitude relativement élevée des observations de SORCE n'a pas provoqué l'inversion de la réponse de l'ozone à hautes altitudes obtenues par d'autres études, ce qui peut être expliqué par la nature même du modèle utilisé ainsi que par sa limite supérieure en altitude. Finalement, la réponse de l'ozone semble être à peu près proportionnelle à la variabilité de l'intégrale du flux pour lambda<241 nm. La comparaison des concentrations d'ozone obtenues avec les spectres originaux au minimum d'activité démontre que leur différence est du même ordre de grandeur que la variabilité entre le minimum et le maximum d'un cycle typique. Le problème du choix de la reconstruction de l'irradiance à utiliser pour les simulations climatiques dans le passé demeure non résolu.