982 resultados para Smallmouth bass


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ma thèse est composée de trois essais sur l'inférence par le bootstrap à la fois dans les modèles de données de panel et les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peut être faible. La théorie asymptotique n'étant pas toujours une bonne approximation de la distribution d'échantillonnage des estimateurs et statistiques de tests, je considère le bootstrap comme une alternative. Ces essais tentent d'étudier la validité asymptotique des procédures bootstrap existantes et quand invalides, proposent de nouvelles méthodes bootstrap valides. Le premier chapitre #co-écrit avec Sílvia Gonçalves# étudie la validité du bootstrap pour l'inférence dans un modèle de panel de données linéaire, dynamique et stationnaire à effets fixes. Nous considérons trois méthodes bootstrap: le recursive-design bootstrap, le fixed-design bootstrap et le pairs bootstrap. Ces méthodes sont des généralisations naturelles au contexte des panels des méthodes bootstrap considérées par Gonçalves et Kilian #2004# dans les modèles autorégressifs en séries temporelles. Nous montrons que l'estimateur MCO obtenu par le recursive-design bootstrap contient un terme intégré qui imite le biais de l'estimateur original. Ceci est en contraste avec le fixed-design bootstrap et le pairs bootstrap dont les distributions sont incorrectement centrées à zéro. Cependant, le recursive-design bootstrap et le pairs bootstrap sont asymptotiquement valides quand ils sont appliqués à l'estimateur corrigé du biais, contrairement au fixed-design bootstrap. Dans les simulations, le recursive-design bootstrap est la méthode qui produit les meilleurs résultats. Le deuxième chapitre étend les résultats du pairs bootstrap aux modèles de panel non linéaires dynamiques avec des effets fixes. Ces modèles sont souvent estimés par l'estimateur du maximum de vraisemblance #EMV# qui souffre également d'un biais. Récemment, Dhaene et Johmans #2014# ont proposé la méthode d'estimation split-jackknife. Bien que ces estimateurs ont des approximations asymptotiques normales centrées sur le vrai paramètre, de sérieuses distorsions demeurent à échantillons finis. Dhaene et Johmans #2014# ont proposé le pairs bootstrap comme alternative dans ce contexte sans aucune justification théorique. Pour combler cette lacune, je montre que cette méthode est asymptotiquement valide lorsqu'elle est utilisée pour estimer la distribution de l'estimateur split-jackknife bien qu'incapable d'estimer la distribution de l'EMV. Des simulations Monte Carlo montrent que les intervalles de confiance bootstrap basés sur l'estimateur split-jackknife aident grandement à réduire les distorsions liées à l'approximation normale en échantillons finis. En outre, j'applique cette méthode bootstrap à un modèle de participation des femmes au marché du travail pour construire des intervalles de confiance valides. Dans le dernier chapitre #co-écrit avec Wenjie Wang#, nous étudions la validité asymptotique des procédures bootstrap pour les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peu être faible. Nous montrons analytiquement qu'un bootstrap standard basé sur les résidus et le bootstrap restreint et efficace #RE# de Davidson et MacKinnon #2008, 2010, 2014# ne peuvent pas estimer la distribution limite de l'estimateur du maximum de vraisemblance à information limitée #EMVIL#. La raison principale est qu'ils ne parviennent pas à bien imiter le paramètre qui caractérise l'intensité de l'identification dans l'échantillon. Par conséquent, nous proposons une méthode bootstrap modifiée qui estime de facon convergente cette distribution limite. Nos simulations montrent que la méthode bootstrap modifiée réduit considérablement les distorsions des tests asymptotiques de type Wald #$t$# dans les échantillons finis, en particulier lorsque le degré d'endogénéité est élevé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This work describes a methodology for converting a specialized dictionary into a learner’s dictionary. The dictionary to which we apply our conversion method is the DiCoInfo, Dictionnaire fondamental de l’informatique et de l’Internet. We focus on changes affecting the presentation of data categories. What is meant by specialized dictionary for learners, in our case, is a dictionary covering the field of computer science and Internet meeting our users’ needs in communicative and cognitive situations. Our dictionary is aimed at learners’ of the computing language. We start by presenting a detailed description of four dictionaries for learners. We explain how the observations made on these resources have helped us in developing our methodology.In order to develop our methodology, first, based on Bergenholtz and Tarp’s works (Bergenholtz 2003; Tarp 2008; Fuertes Olivera and Tarp 2011), we defined the type of users who may use our dictionary. Translators are our first intended users. Other users working in the fields related to translation are also targeted: proofreaders, technical writers, interpreters. We also determined the use situations of our dictionary. It aims to assist the learners in solving text reception and text production problems (communicative situations) and in studying the terminology of computing (cognitive situations). Thus, we could establish its lexicographical functions: communicative and cognitive functions. Then, we extracted 50 articles from the DiCoInfo to which we applied a number of changes in different aspects: the layout, the presentation of data, the navigation and the use of multimedia. The changes were made according to two fundamental parameters: 1) simplification of the presentation; 2) lexicographic functions (which include the intended users and user’s situations). In this way, we exploited the widgets offered by the technology to update the interface and layout. Strategies have been developed to organize a large number of lexical links in a simpler way. We associated these links with examples showing their use in specific contexts. Multimedia as audio pronunciation and illustrations has been used.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le 1er avril 2003, l’entrée en vigueur de la Loi sur le système de justice pénale pour les adolescents (LSJPA) a fourni aux policiers canadiens de nouveaux outils pour procéder à des interventions non-judiciaires auprès d’adolescents contrevenants. Dorénavant, les policiers détiennent le pouvoir officiel d’imposer des mesures extrajudiciaires aux adolescents interpellés pour avoir commis des infractions plutôt que de procéder à leur arrestation formelle. La présente étude vise à déterminer quelles caractéristiques des adolescents et circonstances des infractions ont un impact significatif sur les décisions des policiers d’imposer ces mesures plutôt que de procéder à des arrestations. Les résultats sont basés sur trois échantillons de participations criminelles juvéniles enregistrées par un corps policier canadien entre 2003 et 2010: le premier composé d’infractions contre la personne (n= 3 482), le second, d’infractions contre la propriété (n= 8 230) et le troisième, d’autres crimes (n= 1 974). L’analyse de régression logistique multiniveaux a été utilisée pour déterminer les facteurs — tels que le sexe, l’âge et les contacts antérieurs avec la justice des adolescents ainsi que la localisation dans le temps et l’espace de l’infraction — ont un impact significatif sur le pouvoir discrétionnaire des policiers. Certains facteurs ont une influence universelle d’une catégorie de crime à l’autre, tandis que d’autres ont un impact spécifique selon le type d’infraction commise.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse s’intéresse à l’influence des facteurs contextuels sur la mise en œuvre et les effets d’une politique de santé maternelle au Burkina Faso. Cette politique nommée la subvention SONU vise à faire augmenter la couverture des accouchements dans les établissements de santé publics en agissant sur l’accessibilité économique des ménages. La thèse propose une évaluation des processus de cette politique. Le cadre d’analyse repose sur des propositions théoriques issues du champ de l’étude des politiques sanitaires (les acteurs et leurs relations de pouvoir) et de l’anthropologie médicale critique (les représentations). L’étude s’est déroulée dans le district sanitaire de Djibo, situé dans la région du Sahel. Il s’agit d’une étude de cas multiples où chaque centre de santé représentait un cas. L’approche méthodologique employée était qualitative. Une enquête de terrain, des entretiens, des groupes de discussion, des observations non participantes et une analyse documentaire ont été les méthodes de collecte de données utilisées. Les résultats préliminaires de l’étude ont été présentés aux parties prenantes. Le premier article évalue l’implantation de cette subvention SONU au niveau d’un district et rend compte de l’influence des rapports de pouvoir sur la mise en œuvre de cette dernière. Les résultats indiquent que toutes les composantes de cette subvention sont mises en œuvre, à l’exception du fond d’indigence et de certaines composantes relatives à la qualité technique des soins telles que les sondages pour les bénéficiaires et l’équipe d’assurance qualité dans l’hôpital du district. Les professionnels et les gestionnaires de la santé expliquent les difficultés dans l’application de politique de subvention par un manque de clarté et de compréhension des directives officielles. Les relations de pouvoir entre les différents groupes d’acteurs ont une influence sur la mise en œuvre de cette politique. Les rapports entre gestionnaires du district et agents de santé sont basés sur des rapports hiérarchiques. Ainsi, les gestionnaires contrôlent le travail des agents de santé et imposent des changements à la mise en œuvre de la politique. Les rapports entre soignants et patients sont variables. Dans certains centres de santé, les communautés perçoivent positivement cette relation alors que dans d’autres, elle est perçue négativement. Les perceptions sur les relations entre les accoucheuses villageoises et les agents de santé sont également partagées. Pour les agents de santé, ces actrices peuvent être de potentielles alliées pour renforcer l’efficacité de la politique SONU en incitant les femmes à utiliser les services de santé, mais elles sont aussi perçues comme des obstacles, lorsqu’elles continuent à effectuer des accouchements à domicile. Les difficultés de compréhension des modalités de remboursement entrainent une rigidité dans les rapports entre agents de santé et comités de gestion. Le deuxième article vise à comprendre la variation observée sur la couverture des accouchements entre plusieurs centres de santé après la mise en œuvre de cette politique SONU. Les facteurs contextuels et plus spécifiquement humains ont une influence sur la couverture des accouchements assistés. Le leadership des agents de santé, caractérisé par l’initiative personnelle, l’éthique professionnelle et l’établissement d’un lien de confiance entre les populations et l’équipe sanitaire expliquent la différence d’effets observée sur la couverture des accouchements assistés après la mise en œuvre de cette dernière. Le troisième article analyse l’usage stratégique des référentiels ethnoculturels par certaines équipes sanitaires pour expliquer l’échec partiel de la politique SONU dans certains centres de santé. La référence à ces facteurs vise essentiellement à normaliser et légitimer l’absence d’effet de la politique sur la couverture des accouchements assistés. Elle contribue également à blâmer les populations. Enfin, le recours à ces référentiels tend à écarter les interprétations socioéconomiques et politiques qui sous-tendent la problématique des accouchements dans les établissements de santé publics. Sur le plan pratique, cette thèse permet de mieux comprendre le processus de mise en œuvre d’une politique de santé maternelle. Elle montre que les dimensions relatives à l’équité et à la qualité des soins sont négligées dans ce processus. Cette recherche met en lumière les difficultés auxquelles sont confrontés les agents de santé dans la mise en oeuvre de cette politique. Elle met également en exergue les facteurs qui expliquent l’hétérogénéité observée sur la couverture des accouchements assistés entre les centres de santé après la mise en œuvre de cette politique. Sur le plan théorique, cette thèse montre l’importance d’identifier les rapports de pouvoir qui s’exercent entre les différents acteurs impliqués dans les politiques sanitaires. Elle rappelle l’influence considérable des facteurs contextuels sur la mise en œuvre et les effets des politiques. Enfin, cette recherche révèle le poids des représentations sociales des acteurs dans la compréhension des effets des politiques. Cette thèse contribue au développement des connaissances dans le champ des politiques publiques sur le plan des thématiques abordées (mise en œuvre, rapports de pouvoir) et de l’approche méthodologique (enquête de terrain) utilisée. Elle participe aussi aux réflexions théoriques sur le concept de leadership des professionnels de la santé en Afrique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous proposons dans cette thèse un système permettant de déterminer, à partir des données envoyées sur les microblogs, les évènements qui stimulent l’intérêt des utilisateurs durant une période donnée et les dates saillantes de chaque évènement. Étant donné son taux d’utilisation élevé et l’accessibilité de ses données, nous avons utilisé la plateforme Twitter comme source de nos données. Nous traitons dans ce travail les tweets portant sur la Tunisie dont la plupart sont écrits par des tunisiens. La première tâche de notre système consistait à extraire automatiquement les tweets d’une façon continue durant 67 jours (de 8 février au 15 avril 2012). Nous avons supposé qu’un évènement est représenté par plusieurs termes dont la fréquence augmente brusquement à un ou plusieurs moments durant la période analysée. Le manque des ressources nécessaires pour déterminer les termes (notamment les hashtags) portant sur un même sujet, nous a obligé à proposer des méthodes permettant de regrouper les termes similaires. Pour ce faire, nous avons eu recours à des méthodes phonétiques que nous avons adaptées au mode d’écriture utilisée par les tunisiens, ainsi que des méthodes statistiques. Pour déterminer la validité de nos méthodes, nous avons demandé à des experts, des locuteurs natifs du dialecte tunisien, d’évaluer les résultats retournés par nos méthodes. Ces groupes ont été utilisés pour déterminer le sujet de chaque tweet et/ou étendre les tweets par de nouveaux termes. Enfin, pour sélectionner l'ensemble des évènements (EV), nous nous sommes basés sur trois critères : fréquence, variation et TF-IDF. Les résultats que nous avons obtenus ont montré la robustesse de notre système.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire porte sur l’analyse documentaire en milieu universitaire. Deux approches générales sont d’abord étudiées : l’approche centrée sur le document (premier chapitre), prédominante dans la tradition bibliothéconomique, et l’approche centrée sur l’usager (deuxième chapitre), influencée par le développement d’outils le plus souvent associés au Web 2.0. L’opposition entre ces deux démarches reflète une dichotomie qui se trouve au cœur de la notion de sujet, c’est-à-dire les dimensions objective et subjective du sujet. Ce mémoire prend par conséquent la forme d’une dissertation dont l’avantage principal est de considérer à la fois d’importants acquis qui appartiennent à la tradition bibliothéconomique, à la fois des développements plus récents ayant un impact important sur l’évolution de l’analyse documentaire en milieu universitaire. Notre hypothèse est que ces deux tendances générales doivent être mises en relief afin d’approfondir la problématique de l’appariement, laquelle définit la difficulté d’accorder le vocabulaire qu’utilise l’usager dans ses recherches documentaires avec celui issu de l’analyse documentaire (métadonnées sujet). Dans le troisième chapitre, nous examinons certaines particularités liées à l’utilisation de la documentation en milieu universitaire dans le but de repérer certaines possibilités et certaines exigences de l’analyse documentaire dans un tel milieu. À partir d’éléments basés sur l’analyse des domaines d’études et sur la démarche analytico-synthétique, il s’agit d’accentuer l’interaction potentielle entre usagers et analystes documentaires sur le plan du vocabulaire utilisé de part et d’autre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’évaluation de la condition corporelle des carcasses des bélugas du Saint-Laurent contribue au diagnostic de cause de mortalité du pathologiste. La méthode actuelle repose sur une évaluation visuelle subjective. Notre projet visait à chercher un outil objectif d’évaluation de la condition corporelle. L’indice de masse mise à l’échelle (M̂ i) est objectif puisqu’il est calculé à partir de la masse et de la taille de chaque individu. M̂ i doit être calculé avec des constantes différentes pour les bélugas mesurant plus ou moins de 290 cm. Il produit des résultats en accord avec l’évaluation visuelle. Comme il est parfois logistiquement impossible de peser un béluga, nous avons évalué des indices basés sur d’autres mesures morphométriques. Les indices basés sur la circonférence à hauteur de l’anus pour les bélugas de moins de 290 cm et la circonférence maximale pour ceux de plus de 290 cm représentent des indices de condition corporelle alternatifs intéressants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche s’intéresse aux enjeux de l’habitat de demain de la génération des baby-boomers, tout particulièrement ceux nés entre 1945 et 1953, qui arrivent aujourd’hui à la retraite. C’est au carrefour de la vision de ce que signifie habiter selon des auteurs comme Benoit Goetz ( 2011), des philosophes comme Heidegger (1958), Bachelard (1957), Benjamin (1955), Büber (1962) ou encore Deleuze (1980) d’une part, soulignant les facteurs de porosité et les liens aux autres, et d’autre part les caractéristiques des baby-boomers telles que présentées par Jean François Sirinelli (2003) et Josée Garceau (2012), que se situe la recherche. Cette génération informée entend rester active et pratique des « adeptions » qui influencent par les gestes un savoir habiter et par là son habitat. L’étude de terrain a sondé les aspirations des baby-boomers en ce qui concerne leur choix résidentiel pour l’avenir, pour comprendre sur quelles valeurs et vers quels buts leur projet se construit. Le choix de méthodologies qualitatives s’appuie sur le visionnement préalable d’un film récent : Et si on vivait tous ensemble. Des entretiens semi-dirigés, auprès de cinq baby-boomers, de 60 à 65 ans, effectués en deux phases avec verbatim approuvés,étaient basés sur trois thèmes : la mémoire, l’adeption et le projet. Entre autres résultats, sont confirmés avec variantes, plusieurs concepts théoriques, comme ceux de porosité et d’ouverture par la fenêtre à la fois physique et virtuelle, mais soulignent le spectre de la maison de retraite et des préoccupations financières concernant l’avenir d’un habitat nécessairement autonome. Cette génération imprégnée par le monde technologique veut avoir accès à tout ce que propose la modernité sans pour autant perdre le sens de l’historicité de leur vie. Nés dans un monde en bouillonnement, les baby-boomers ont réinventé chaque étape de leur existence, ce qui laisse préfigurer que cette génération s’apprête à réinventer la retraite et ses sites domiciliaires. Aussi l’approche design devra-t-elle complètement se renouveler pour ces nouveaux usagers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La moxonidine, un médicament antihypertenseur sympatholytique de type imidazolinique, agit au niveau de la médulla du tronc cérébral pour diminuer la pression artérielle, suite à l’activation sélective du récepteur aux imidazolines I1 (récepteur I1, aussi nommé nischarine). Traitement avec de la moxonidine prévient le développement de l’hypertrophie du ventricule gauche chez des rats hypertendus (SHR), associé à une diminution de la synthèse et une élévation transitoire de la fragmentation d’ADN, des effets antiprolifératifs et apoptotiques. Ces effets se présentent probablement chez les fibroblastes, car l’apoptose des cardiomyocytes pourrait détériorer la fonction cardiaque. Ces effets apparaissent aussi avec des doses non hypotensives de moxonidine, suggérant l’existence d’effets cardiaques directes. Le récepteur I1 se trouvé aussi dans les tissus cardiaques; son activation ex vivo par la moxonidine stimule la libération de l’ANP, ce qui montre que les récepteurs I1 cardiaques sont fonctionnels malgré l’absence de stimulation centrale. Sur la base de ces informations, en plus du i) rôle des peptides natriurétiques comme inhibiteurs de l’apoptose cardiaque et ii) des études qui lient le récepteur I1 avec la maintenance de la matrix extracellulaire, on propose que, à part les effets sympatholytiques centrales, les récepteurs I1 cardiaques peuvent contrôler la croissance-mort cellulaire. L’activation du récepteur I1 peut retarder la progression des cardiopathies vers la défaillance cardiaque, en inhibant des signaux mal adaptatifs de prolifération et apoptose. Des études ont été effectuées pour : 1. Explorer les effets in vivo sur la structure et la fonction cardiaque suite au traitement avec moxonidine chez le SHR et le hamster cardiomyopathique. 2. Définir les voies de signalisation impliquées dans les changements secondaires au traitement avec moxonidine, spécifiquement sur les marqueurs inflammatoires et les voies de signalisation régulant la croissance et la survie cellulaire (MAPK et Akt). 3. Explorer les effets in vitro de la surexpression et l’activation du récepteur I1 sur la survie cellulaire dans des cellules HEK293. 4. Rechercher la localisation, régulation et implication dans la croissance-mort cellulaire du récepteur I1 in vitro (cardiomyocytes et fibroblastes), en réponse aux stimuli associés au remodelage cardiaque : norépinephrine, cytokines (IL-1β, TNF-α) et oxydants (H2O2). Nos études démontrent que la moxonidine, en doses hypotensives et non-hypotensives, améliore la structure et la performance cardiaque chez le SHR par des mécanismes impliquant l’inhibition des cytokines et des voies de signalisation p38 MAPK et Akt. Chez le hamster cardiomyopathique, la moxonidine améliore la fonction cardiaque, module la réponse inflammatoire/anti-inflammatoire et atténue la mort cellulaire et la fibrose cardiaque. Les cellules HEK293 surexprimant la nischarine survivent et prolifèrent plus en réponse à la moxonidine; cet effet est associé à l’inhibition des voies ERK, JNK et p38 MAPK. La surexpression de la nischarine protège aussi de la mort cellulaire induite par le TNF-α, l’IL-1β et le H2O2. En outre, le récepteur I1 s’exprime dans les cardiomyocytes et fibroblastes, son activation inhibe la mort des cardiomyocytes et la prolifération des fibroblastes induite par la norépinephrine, par des effets différentiels sur les MAPK et l’Akt. Dans des conditions inflammatoires, la moxonidine/récepteur aux imidazolines I1 protège les cardiomyocytes et facilite l’élimination des myofibroblastes par des effets contraires sur JNK, p38 MAPK et iNOS. Ces études démontrent le potentiel du récepteur I1/nischarine comme cible anti-hypertrophique et anti-fibrose à niveau cardiaque. L’identification des mécanismes cardioprotecteurs de la nischarine peut amener au développement des traitements basés sur la surexpression de la nischarine chez des patients avec hypertrophie ventriculaire. Finalement, même si l’effet antihypertenseur des agonistes du récepteur I1 centraux est salutaire, le développement de nouveaux agonistes cardiosélectifs du récepteur I1 pourrait donner des bénéfices additionnels chez des patients non hypertendus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse est divisée en trois parties. Une première section présente les résultats de l'étude de la formation de polarons magnétiques liés (BMP) dans le ferroaimant EuB6 par diffusion de neutrons à petits angles (SANS). La nature magnétique du système ferromagnétique est observée sous une température critique de 15K. La signature des BMP n'apparaît pas dans la diffusion de neutrons, mais ces mesures permettent de confirmer une limite inférieure de 100\AA à la longueur de cohérence des BMP (xi_{Lower}). Dans un second temps, l'étude du LaRhSi3, un supraconducteur sans symétrie d'inversion, par muSR et ZF-muSR nous permet de sonder le comportement magnétique du système dans la phase supraconductrice. Aucun champ magnétique interne n'a été détecté en ZF-muSR sous la température critique (T_c = 2.2K). Cela indique que la phase supraconductrice ne porte pas de moment cinétique intrinsèque. L'analyse du spectre d'asymétrie sous l'application d'un champ magnétique externe nous apprend que le système est faiblement type II par l'apparition de la signature de domaines magnétiques typique d'un réseau de vortex entre H_{c1}(0) et H_{c2}(0), respectivement de 80+/- 5 et 169.0 +/- 0.5 G. Finalement, la troisième section porte sur l'étude du champ magnétique interne dans l'antiferroaimant organique NIT-2Py. L'observation d'une dépendance en température des champs magnétiques internes aux sites d'implantation muonique par ZF-muSR confirme la présence d'une interaction à longue portée entre les moments cinétiques moléculaires. Ces valeurs de champs internes, comparées aux calculs basés sur la densité de spins obtenue par calculs de la théorie de la fonctionnelle de la densité, indiquent que la moitié des molécules se dimérisent et ne contribuent pas à l'ordre antiferromagnétique. La fraction des molécules contribuant à l'ordre antiferromagnétique sous la température critique (T_c = 1.33 +/- 0.01K) forme des chaines uniformément polarisées selon l'axe (1 0 -2). Ces chaines interagissent antiferromagnétiquement entre elles le long de l'axe (0 1 0) et ferromagnétiquement entre les plan [-1 0 2].

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse présente des reconstructions de l'irradiance totale et spectrale durant les 400 dernières années à l'aide des modèles pour l'irradiance totale et l'irradiance spectrale dans l'ultraviolet développés à l'Université de Montréal. Tous deux sont basés sur la simulation de l'émergence, de la fragmentation et de l'érosion des taches solaires, qui permet d'obtenir une distribution de l'aire des taches sombres et des facules brillantes en fonction du temps. Ces deux composantes sont principalement responsables de la variation de l'irradiance sur l'échelle de temps de la décennie, qui peut être calculée en sommant leur émissivité à celle de la photosphère inactive. La version améliorée du modèle d'irradiance solaire spectrale MOCASSIM inclut une extension de son domaine spectral entre 150 et 400 nm ainsi que de son domaine temporel, débutant originalement en 1874 et couvrant maintenant la période débutant en 1610 jusqu'au présent. Cela permet de reconstruire le spectre ultraviolet durant le minimum de Maunder et de le comparer à celui du minimum de 2009. Les conclusions tirées de cette étude spécifient que l'émissivité dans l'ultraviolet était plus élevée en 2009 que durant le minimum de Maunder, que le niveau de base de la photosphère non magnétisée contribuait pour environ les deux tiers de cette différence et que les structures magnétiques restantes étaient responsables pour le tiers restant. Le modèle d'irradiance totale a vu son domaine temporel étendu sur la même période et une composante représentant le réseau magnétique de façon réaliste y a été ajoutée. Il a été démontré que les observations des 30 dernières années ne sont bien reproduites qu'en incluant la composante du Soleil non magnétisé variable à long terme. Le processus d'optimisation des paramètres libres du modèle a été effectué en minimisant le carré de la somme de l'écart journalier entre les résultats des calculs et les données observées. Les trois composites disponibles, soit celui du PMOD (Physikalisch Meteorologisches Observatorium Davos), d'ACRIM (ACtive Radiometer Irradiance Monitor) et du IRMB (Institut Royal Météorologique de Belgique), ne sont pas en accord entre eux, en particulier au niveau des minima du cycle d'activité, et le modèle permet seulement de reproduire celui du PMOD avec exactitude lorsque la composante variable à long terme est proportionnelle au flux radio à 10.7 cm. Toutefois, en utilisant des polynômes de Lagrange pour représenter la variation du Soleil inactif, l'accord est amélioré pour les trois composites durant les minima, bien que les relations entre le niveau minimal de l'irradiance et la longueur du cycle précédent varient d'un cas à l'autre. Les résultats obtenus avec le modèle d'irradiance spectrale ont été utilisés dans une étude d'intercomparaison de la réponse de la photochimie stratosphérique à différentes représentations du spectre solaire. Les simulations en mode transitoire d'une durée de 10 jours ont été effectuées avec un spectre solaire constant correspondant soit à une période d'activité minimale ou à une période d'activité maximale. Ceci a permis d'évaluer la réponse de la concentration d'ozone à la variabilité solaire au cours d'un cycle et la différence entre deux minima. En plus de ceux de MOCASSIM, les spectres produits par deux modèles ont été utilisés (NRLSSI et MGNM) ainsi que les données de SIM et SOLSTICE/SORCE. La variabilité spectrale de chacun a été extraite et multipliée à un spectre de base représentant le minimum d'activité afin de simuler le spectre au maximum d'activité. Cela a été effectué dans le but d'isoler l'effet de la variabilité seule et d'exclure celui de la valeur absolue du spectre. La variabilité spectrale d'amplitude relativement élevée des observations de SORCE n'a pas provoqué l'inversion de la réponse de l'ozone à hautes altitudes obtenues par d'autres études, ce qui peut être expliqué par la nature même du modèle utilisé ainsi que par sa limite supérieure en altitude. Finalement, la réponse de l'ozone semble être à peu près proportionnelle à la variabilité de l'intégrale du flux pour lambda<241 nm. La comparaison des concentrations d'ozone obtenues avec les spectres originaux au minimum d'activité démontre que leur différence est du même ordre de grandeur que la variabilité entre le minimum et le maximum d'un cycle typique. Le problème du choix de la reconstruction de l'irradiance à utiliser pour les simulations climatiques dans le passé demeure non résolu.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans l'apprentissage machine, la classification est le processus d’assigner une nouvelle observation à une certaine catégorie. Les classifieurs qui mettent en œuvre des algorithmes de classification ont été largement étudié au cours des dernières décennies. Les classifieurs traditionnels sont basés sur des algorithmes tels que le SVM et les réseaux de neurones, et sont généralement exécutés par des logiciels sur CPUs qui fait que le système souffre d’un manque de performance et d’une forte consommation d'énergie. Bien que les GPUs puissent être utilisés pour accélérer le calcul de certains classifieurs, leur grande consommation de puissance empêche la technologie d'être mise en œuvre sur des appareils portables tels que les systèmes embarqués. Pour rendre le système de classification plus léger, les classifieurs devraient être capable de fonctionner sur un système matériel plus compact au lieu d'un groupe de CPUs ou GPUs, et les classifieurs eux-mêmes devraient être optimisés pour ce matériel. Dans ce mémoire, nous explorons la mise en œuvre d'un classifieur novateur sur une plate-forme matérielle à base de FPGA. Le classifieur, conçu par Alain Tapp (Université de Montréal), est basé sur une grande quantité de tables de recherche qui forment des circuits arborescents qui effectuent les tâches de classification. Le FPGA semble être un élément fait sur mesure pour mettre en œuvre ce classifieur avec ses riches ressources de tables de recherche et l'architecture à parallélisme élevé. Notre travail montre que les FPGAs peuvent implémenter plusieurs classifieurs et faire les classification sur des images haute définition à une vitesse très élevée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Plusieurs problèmes liés à l'utilisation de substances et méthodes interdites de dopage dans les sports posent de grands défis à la gouvernance antidopage. Afin de lutter contre le dopage, certains pays ont mis en oeuvre des cadres juridiques basés exclusivement sur le droit pénal tandis que d'autres pays ont plutôt misé sur des mécanismes et organismes spécialisés trouvant fondement en droit privé ou sur un régime hybride de droit public et privé. Ces différentes approches réglementaires ont pour conséquence de faire en sorte qu’il est très difficile de lutter efficacement contre le dopage dans les sports, notamment parce que leur exécution requiert un degré de collaboration internationale et une participation concertée des autorités publiques qui est difficile à mettre en place. À l’heure actuelle, on peut par exemple observer que les États n’arrivent pas à contrer efficacement la participation des syndicats et organisations transnationales liés au crime organisé dans le marché du dopage, ni à éliminer des substances et méthodes de dopage interdites par la réglementation. Par ailleurs, la gouvernance antidopage basée sur les règles prescrites par l’Agence mondiale antidopage prévoit des règles et des normes distinctes de dopage distinguant entre deux catégories de personnes, les athlètes et les autres, plaçant ainsi les premiers dans une position désavantageuse. Par exemple, le standard de responsabilité stricte sans faute ou négligence imposé aux athlètes exige moins que la preuve hors de tout doute raisonnable et permet l'utilisation de preuves circonstancielles pour établir la violation des règles antidopages. S'appliquant pour prouver le dopage, ce standard mine le principe de la présomption d'innocence et le principe suivant lequel une personne ne devrait pas se voir imposer une peine sans loi. D’ailleurs, le nouveau Code de 2015 de l’Agence attribuera aux organisations nationales antidopage (ONADs) des pouvoirs d'enquête et de collecte de renseignements et ajoutera de nouvelles catégories de dopage non-analytiques, réduisant encore plus les droits des athlètes. Dans cette thèse, nous discutons plus particulièrement du régime réglementaire de l’Agence et fondé sur le droit privé parce qu’il ne parvient pas à répondre aux besoins actuels de gouvernance mondiale antidopage. Nous préconisons donc l’adoption d’une nouvelle approche de gouvernance antidopage où la nature publique et pénale mondiale du dopage est clairement reconnue. Cette reconnaissance combiné avec un modèle de gouvernance adapté basé sur une approche pluraliste du droit administratif global produira une réglementation et une administration antidopage mieux acceptée chez les athlètes et plus efficace sur le plan des résultats. Le nouveau modèle de gouvernance que nous proposons nécessitera toutefois que tous les acteurs étatiques et non-étatiques ajustent leur cadre de gouvernance en tenant compte de cette nouvelle approche, et ce, afin de confronter les défis actuels et de régler de manière plus satisfaisante les problèmes liés à la gouvernance mondiale du dopage dans les sports.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La sclérose latérale amyothrophique (SLA) est une maladie neurodégénérative charactérisée par la perte des neurones moteurs menant à la paralysie et à la mort. Environ 20% des cas familiaux de la SLA sont causés par des mutations de la superoxyde dismutase 1 (SOD1), conduisant vers un mauvais repliement de la protéine SOD1, ce qui a comme conséquence un gain de fonction toxique. Plusieurs anticorps spécifiques pour la forme mal repliée de la protéine ont été générés et utilisés comme agent thérapeutique dans des modèles précliniques. Comment le mauvais repliement de SOD1 provoque la perte sélective des neurones moteurs demeure non résolu. La morphologie, le bilan énergétique et le transport mitochondrial sont tous documentés dans les modèles de la SLA basés sur SOD1, la détérioration des mitochondries joue un rôle clé dans la dégénération des neurones moteurs. De plus, la protéine SOD1 mal repliée s’associe sélectivement sur la surface des mitochondries de la moelle épinière chez les modèles de rongeurs de la SLA. Notre hypothèse est que l’accumulation de la protéine SOD1 mal repliée sur les mitochondries pourrait nuire aux fonctions mitochondriales. À cette fin, nous avons développé un nouvel essai par cytométrie de flux afin d’isoler les mitochondries immunomarquées avec des anticorps spécifiques à la forme malrepliée de SOD1 tout en évaluant des aspects de la fonction mitochondriale. Cette méthode permettra de comparer les mitochondries portant la protéine SOD1 mal repliée à celles qui ne la portent pas. Nous avons utilisé un anticorps à conformation spécifique de SOD1, B8H10, pour démontrer que la protéine mal repliée SOD1 s’associe avec les mitochondries de la moelle épinière des rat SOD1G93A d’une manière dépendante du temps. Les mitochondries avec la protéine mal repliée SOD1 B8H10 associée à leur surface (B8H10+) ont un volume et une production excessive de superoxyde significativement plus grand, mais possèdent un potentiel transmembranaire comparable aux mitochondries B8H10-. En outre, la présence de la protéine mal repliée SOD1 reconnue par B8H10 coïncide avec des niveaux plus élevés de la forme pro-apoptotique de Bcl-2. L’immunofluorescence de sections de moelle épinière du niveau lombaire avec l’anticorps spécifique à la conformation B8H10 et AMF7-63, un autre anticorps conformationnel spécifique de SOD1, démontre des motifs de localisations distincts. B8H10 a été trouvé principalement dans les neurones moteurs et dans plusieurs points lacrymaux dans tout le neuropile. Inversement, AMF7-63 a marqué les neurones moteurs ainsi qu’un réseau fibrillaire distinctif concentré dans la corne antérieure. Au niveau subcellulaire, SOD1 possèdant la conformation reconnu par AMF7-63 est aussi localisée sur la surface des mitochondries de la moelle épinière d’une manière dépendante du temps. Les mitochondries AMF7-63+ ont une augmentation du volume comparé aux mitochondries B8H10+ et à la sous-population non marquée. Cependant, elles produisent une quantité similaire de superoxyde. Ensemble, ces données suggèrent qu’il y a plusieurs types de protéines SOD1 mal repliées qui convergent vers les mitochondries et causent des dommages. De plus, différentes conformations de SOD1 apportent une toxicité variable vers les mitochondries. Les protéines SOD1 mal repliées réagissant à B8H10 et AMF7-63 sont présentes en agrégats dans les fractions mitochondriales, nous ne pouvons donc pas prendre en compte leurs différents effets sur le volume mitochondrial. Les anticorps conformationnels sont des outils précieux pour identifier et caractériser le continuum du mauvais repliement de SOD1 en ce qui concerne les caractéristiques biochimiques et la toxicité. Les informations présentes dans cette thèse seront utilisées pour déterminer le potentiel thérapeutique de ces anticorps.