946 resultados para Tell and show routine
Resumo:
The role of chloride in the stabilization of the deoxy conformation of hemoglobin (Hb), the low oxygen affinity state, has been studied in order to identify the nature of this binding. Previous studies have shown that arginines 141α could be involved in the binding of this ion to the protein. Thus, des-Arg Hb, human hemoglobin modified by removal of the α-chain C-terminal residue Arg141α, is a possible model for studies of these interactions. The loss of Arg141α and all the salt bridges in which it participates is associated with subtle structural perturbations of the α-chains, which include an increase in the conformational flexibility and further shift to the oxy state, increasing oxygen affinity. Thus, this Hb has been the target of many studies of structural and functional behavior along with medical applications. In the present study, we describe the biochemical characterization of des-Arg Hb by electrophoresis, high-performance liquid chromatography and mass spectroscopy. The effects of chloride binding on the oxygen affinity and on the cooperativity to des-Arg Hb and to native human hemoglobin, HbA, were measured and compared. We confirm that des-Arg Hb presents high oxygen affinity and low cooperativity in the presence of bound chloride and show that the binding of chloride to des-Arg does not change its functional characteristics as observed with HbA. These results indicate that Arg141α may be involved in the chloride effect on Hb oxygenation. Moreover, they show that these residues contribute to lower Hb oxygen affinity to a level compatible with its biological function.
Resumo:
Inclusion body myopathy associated with Paget disease and frontotemporal dementia (IBMPFD) is a progressive and usually misdiagnosed autosomal dominant disorder. It is clinically characterized by a triad of features: proximal and distal myopathy, early onset Paget disease of bone (PDB), and frontotemporal dementia (FTD). It is caused by missense mutations in the valosin-containing protein (VCP) gene. We describe here the clinical and molecular findings of the first Brazilian family identified with IBMPFD. Progressive myopathy affecting the limb girdles was detected by clinical examination followed by muscle biopsy and creatine kinase measurement. PDB was suggested after anatomopathological bone examination and FTD was diagnosed by clinical, neuropsychological and language evaluations. Brain magnetic resonance revealed severe atrophy of the anterior temporal lobes, including the hippocampi. A R93C mutation in VCP was detected by direct sequencing screening in subject W (age 62) and in his mother. Four more individuals diagnosed with "dementia" were reported in this family. We also present a comprehensive genotype-phenotype correlation analysis of mutations in VCP in 182 patients from 29 families described in the literature and show that while IBM is a conspicuously penetrant symptom, PDB has a lower penetrance when associated with mutations in the AAAD1 domain and FTD has a lower penetrance when associated with mutations in the Junction (L1-D1) domain. Furthermore, the R93C mutation is likely to be associated with the penetrance of all the clinical symptoms of the triad.
Resumo:
Diabetes mellitus represents a serious public health problem owing to its global prevalence in the last decade. The causes of this metabolic disease include dysfunction and/or insufficient number of β cells. Existing diabetes mellitus treatments do not reverse or control the disease. Therefore, β-cell mass restoration might be a promising treatment. Several restoration approaches have been developed: inducing the proliferation of remaining insulin-producing cells, de novo islet formation from pancreatic progenitor cells (neogenesis), and converting non-β cells within the pancreas to β cells (transdifferentiation) are the most direct, simple, and least invasive ways to increase β-cell mass. However, their clinical significance is yet to be determined. Hypothetically, β cells or islet transplantation methods might be curative strategies for diabetes mellitus; however, the scarcity of donors limits the clinical application of these approaches. Thus, alternative cell sources for β-cell replacement could include embryonic stem cells, induced pluripotent stem cells, and mesenchymal stem cells. However, most differentiated cells obtained using these techniques are functionally immature and show poor glucose-stimulated insulin secretion compared with native β cells. Currently, their clinical use is still hampered by ethical issues and the risk of tumor development post transplantation. In this review, we briefly summarize the current knowledge of mouse pancreas organogenesis, morphogenesis, and maturation, including the molecular mechanisms involved. We then discuss two possible approaches of β-cell mass restoration for diabetes mellitus therapy: β-cell regeneration and β-cell replacement. We critically analyze each strategy with respect to the accessibility of the cells, potential risk to patients, and possible clinical outcomes.
Resumo:
Intermediate filaments are part of the cytoskeleton and nucleoskeleton; they provide cells with structure and have important roles in cell signalling. The IFs are a large protein family with more than 70 members; each tightly regulated and expressed in a cell type-specific manner. Although the IFs have been known and studied for decades, our knowledge about their specific functions is still limited, despite the fact that mutations in IF genes cause numerous severe human diseases. In this work, three IF proteins are examined more closely; the nuclear lamin A/C and the cytoplasmic nestin and vimentin. In particular the regulation of lamin A/C dynamics, the role of nestin in muscle and body homeostasis as well as the functions and evolutionary aspects of vimentin are investigated. Together this data highlights some less well understood functions of these IFs. We used mass-spectrometry to identify inter-phase specific phosphorylation sites on lamin A. With the use of genetically engineered lamin A protein in combination with high resolution microscopy and biochemical methods we discovered novel roles for this phosphorylation in regulation of lamin dynamics. More specifically, our data suggests that the phosphorylation of certain amino acids in lamin A determines the localization and dynamics of the protein. In addition, we present results demonstrating that lamin A regulates Cdk5-activity. In the second study we use mice lacking nestin to gain more knowledge of this seldom studied protein. Our results show that nestin is essential for muscle regeneration; mice lacking nestin recover more slowly from muscle injury and show signs of spontaneous muscle regeneration, indicating that their muscles are more sensitive to stresses and injury. The absence of nestin also leads to decreased over-all muscle mass and slower body growth. Furthermore, nestin has a role in controlling testicle homeostasis as nestin-/- male mice show a greater variation in testicle size. The common fruit fly Drosophila melanogaster lacks cytoplasmic IFs as most insects do. By creating a fly that expresses human vimentin we establish a new research platform for vimentin studies, as well as provide a new tool for the studies of IF evolution.
Resumo:
The objective in this research was to evaluate the isoflavone content and the physiological quality of seed from conventional and transgenic soybean cultivars before and after 180 days of storage. Twenty one soybean cultivars: CD 202, CD 206, CD 208, CD 213RR, CD 214RR, CD 215, CD 216, CD 217, CD 218, CD 221, BRS 184, BRS 185, BRS 214, BRS 244RR, BRS 245RR, BRS 246RR, BRS 255, BRS 257, BRS 258, BRS 261 and BRS 262, grown in the 2005/2006 crop season, were assayed. The seeds were packed in Kraft paper bags and stored at room temperature under laboratory conditions. Seeds were evaluated with respect to their germination and vigor (first germination count, accelerated aging and tetrazolium test) and their total isoflavone contents and respective aglycon forms (daidzein, genistein and glycitein),glycosides (daidzine, genistine and glycitine) and malonyl conjugates. A completely randomized block design with six replications with the treatments set out within a subplot scheme (21 cultivars x 2 storage periods) was used. The F-test was used to compare means between storage periods and the Scott-Knott test to compare cultivars for each storage period, both with a 95% probability. It was concluded that isoflavone contents differ between cultivars and show a distinct behavior throughout storage.
Resumo:
One way of exploring the power of sound in the experience and constitution of space is through the phenomenon of personal listening devices (PLDs) in public environments. In this thesis, I draw from in-depth interviews with eleven Brock University students in S1. Catharines, Ontario, to show how PLDs (such as MP3 players like the iPod) are used to create personalized soundscapes and mediate their public transit journeys. I discuss how my interview participants experience the space-time of public transit, and show how PLDs are used to mediate these experiences in acoustic and non-acoustic ways. PLD use demonstrates that acoustic and environmental experiences are co-constitutive, which highlights a kinaesthetic quality of the transit-space. My empirical findings show that PLDs transform space, particularly by overlapping public and private appropriations of the bus. I use these empirical findings to discuss the PLD phenomenon in the theoretical context of spatiality, and more specifically, acoustic space. J develop the ontological notion of acoustic space, stating that space shares many of the properties of sound, and argue that sound is a rich epistemological tool for understanding and explaining our everyday experiences.
Resumo:
The synthesis and studies of two classes of poly dentate ligands are presented as two projects. In project 1, four new carboxamide ligands have been synthesised via the condensation of 2,2',6,6'-tetrachloroformyl-4,4'-bipyridine or 2,6-dichloroformyl pyridine together with heterocyclic amines containing pyridine or pyrazole substituents. The coordination chemistry of these ligands has been investigated and studies have shown that with a Cu(II) salt, two carboxamide ligands LJ and L2 afford large clusters with stoichiometries [Cu8(L1)4Cl16].CHCl3.5H2O.7CH3OH (I) and [Cu9(L2)6Cl6].CH3OH.5H2O.(C2H5)3N (II) respectively. [molecular diagram availabel in pdf]. X-ray diffraction studies of cluster (I) reveal that it has approximate S4 symmetry and is comprised of four ligands and eight copper (II) centers. Here, coordination takes place via amide 0 atoms, and pyrazole nitrogens. This complex is the first reported example of an octanuclear copper cluster with a saddle-shaped structure. The second cluster comprises nine copper ions that are arranged in a cyclic array. Each ligand coordinates three copper centers and each copper ion shares two ligands to connect six ligands with nine copper ions. The amide nitrogens are completely deprotonated and both amide Nand 0 atoms coordinate the metal centres. The cluster has three-fold symmetry. There are six chloride ions, three of which are bridging two neighbouring Cu(II) centres. Magnetic studies of (I) and (II) reveal that both clusters display weak antiferromagnetic interactions between neighbouring Cu(II) centers at low temperature. In the second project, three complexes with stoichiometries [Fe[N302](SCN)2]2 (III), R,R-[Fe[N3O2](SCN)2 (IV) and R,R-]Fe[N3O2](CN)2] (V) were prepared and characterized, where [N302] is a pentadentate macrocycle. Complex (III) was prepared via the metal templated Schiff-base condensation of 2,2',6,6'-tetraacetyl-4,4'-bipyridine together with 3,6-dioxaoctane-I,8-diamine and comprises of a dimeric macro cycle where the two Fe(II) centres are in a pentagonal-bipyramidal environment with the [N302] ligands occupying the equatorial plane and two axial NCS ligands. Complexes (IV) and (V) were prepared via the condensation of 2,6-diacetylpyridine together with a chiral diamine in the presence of FeCh. The synthetic strategy for the preparation of the chiral diamine (4R,5R)-4,5-diphenyl-3,6-dioxa-I,8-octane-diamine was elucidated. The chirality of both macrocycles (IV) and (V) was probed by circular dichroism spectroscopy. The crystal structure of (IV) at 200 K contains two independent molecules in the unit cell, both of which contain a hepta-coordinated Fe(II) and axial NCS ligands. Variable temperature magnetic susceptibility and structural studies are consistent with a high spin Fe(II) complex and show no evidence of any spin crossover behaviour. In contrast, the bis cyanide derivative (V) crystallizes with two independent molecules in the unit cell, both of which have different coordination geometries consistent with different spin states for the two Fe(II) centres. At 250 K, the molecular structure of (V) shows the presence of both 7- and a 6-coordinate Fe(II) complexes in the crystal lattice. As the temperature is lowered, the molecules undergo a structural change and at 100 K the structural data is consistent with a 6- and 5-coordinate Fe(II) complex in the unit cell. Magnetic studies confirm that this complex undergoes a gradual, thermal, spin crossover transition in the solid state. Photomagnetic measurements indicate this is the first chiral Fe (II) sea complex to exhibit a LIESST.
Resumo:
Volume(density)-independent pair-potentials cannot describe metallic cohesion adequately as the presence of the free electron gas renders the total energy strongly dependent on the electron density. The embedded atom method (EAM) addresses this issue by replacing part of the total energy with an explicitly density-dependent term called the embedding function. Finnis and Sinclair proposed a model where the embedding function is taken to be proportional to the square root of the electron density. Models of this type are known as Finnis-Sinclair many body potentials. In this work we study a particular parametrization of the Finnis-Sinclair type potential, called the "Sutton-Chen" model, and a later version, called the "Quantum Sutton-Chen" model, to study the phonon spectra and the temperature variation thermodynamic properties of fcc metals. Both models give poor results for thermal expansion, which can be traced to rapid softening of transverse phonon frequencies with increasing lattice parameter. We identify the power law decay of the electron density with distance assumed by the model as the main cause of this behaviour and show that an exponentially decaying form of charge density improves the results significantly. Results for Sutton-Chen and our improved version of Sutton-Chen models are compared for four fcc metals: Cu, Ag, Au and Pt. The calculated properties are the phonon spectra, thermal expansion coefficient, isobaric heat capacity, adiabatic and isothermal bulk moduli, atomic root-mean-square displacement and Gr\"{u}neisen parameter. For the sake of comparison we have also considered two other models where the distance-dependence of the charge density is an exponential multiplied by polynomials. None of these models exhibits the instability against thermal expansion (premature melting) as shown by the Sutton-Chen model. We also present results obtained via pure pair potential models, in order to identify advantages and disadvantages of methods used to obtain the parameters of these potentials.
Resumo:
This paper uses a standard two-period overlapping generation model to examine the behavior of an economy where both intergenerational transfers of time and bequests are available. While bequests have been examined extensively, time transfers have received little or no attention in the literature. Assuming a log-linear utility function and a Cobb-Douglas production function, we derive an explicit solution for the dynamics and show that altruistic intergenerational time transfers can take place in presence of a binding non-negativity constraint on bequests. We also show that with either type of transfers capital is an increasing function of the intergenerational degree of altruism. However, while with time transfers the labor supply of the young increases with the degree of altruism, with bequests it may decrease
Flippable Pairs and Subset Comparisons in Comparative Probability Orderings and Related Simple Games
Resumo:
We show that every additively representable comparative probability order on n atoms is determined by at least n - 1 binary subset comparisons. We show that there are many orders of this kind, not just the lexicographic order. These results provide answers to two questions of Fishburn et al (2002). We also study the flip relation on the class of all comparative probability orders introduced by Maclagan. We generalise an important theorem of Fishburn, Peke?c and Reeds, by showing that in any minimal set of comparisons that determine a comparative probability order, all comparisons are flippable. By calculating the characteristics of the flip relation for n = 6 we discover that the regions in the corresponding hyperplane arrangement can have no more than 13 faces and that there are 20 regions with 13 faces. All the neighbours of the 20 comparative probability orders which correspond to those regions are representable. Finally we define a class of simple games with complete desirability relation for which its strong desirability relation is acyclic, and show that the flip relation carries all the information about these games. We show that for n = 6 these games are weighted majority games.
Resumo:
Durant la dernière décennie, les développements technologiques en radiothérapie ont transformé considérablement les techniques de traitement. Les nouveaux faisceaux non standard améliorent la conformité de la dose aux volumes cibles, mais également complexifient les procédures dosimétriques. Puisque des études récentes ont démontré l’invalidité de ces protocoles actuels avec les faisceaux non standard, un nouveau protocole applicable à la dosimétrie de référence de ces faisceaux est en préparation par l’IAEA-AAPM. Le but premier de cette étude est de caractériser les facteurs responsables des corrections non unitaires en dosimétrie des faisceaux non standard, et ainsi fournir des solutions conceptuelles afin de minimiser l’ordre de grandeur des corrections proposées dans le nouveau formalisme de l’IAEA-AAPM. Le deuxième but de l’étude est de construire des méthodes servant à estimer les incertitudes d’une manière exacte en dosimétrie non standard, et d’évaluer les niveaux d’incertitudes réalistes pouvant être obtenus dans des situations cliniques. Les résultats de l’étude démontrent que de rapporter la dose au volume sensible de la chambre remplie d’eau réduit la correction d’environ la moitié sous de hauts gradients de dose. Une relation théorique entre le facteur de correction de champs non standard idéaux et le facteur de gradient du champ de référence est obtenue. En dosimétrie par film radiochromique, des niveaux d’incertitude de l’ordre de 0.3% sont obtenus par l’application d’une procédure stricte, ce qui démontre un intérêt potentiel pour les mesures de faisceaux non standard. Les résultats suggèrent également que les incertitudes expérimentales des faisceaux non standard doivent être considérées sérieusement, que ce soit durant les procédures quotidiennes de vérification ou durant les procédures de calibration. De plus, ces incertitudes pourraient être un facteur limitatif dans la nouvelle génération de protocoles.
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
L'apprentissage profond est un domaine de recherche en forte croissance en apprentissage automatique qui est parvenu à des résultats impressionnants dans différentes tâches allant de la classification d'images à la parole, en passant par la modélisation du langage. Les réseaux de neurones récurrents, une sous-classe d'architecture profonde, s'avèrent particulièrement prometteurs. Les réseaux récurrents peuvent capter la structure temporelle dans les données. Ils ont potentiellement la capacité d'apprendre des corrélations entre des événements éloignés dans le temps et d'emmagasiner indéfiniment des informations dans leur mémoire interne. Dans ce travail, nous tentons d'abord de comprendre pourquoi la profondeur est utile. Similairement à d'autres travaux de la littérature, nos résultats démontrent que les modèles profonds peuvent être plus efficaces pour représenter certaines familles de fonctions comparativement aux modèles peu profonds. Contrairement à ces travaux, nous effectuons notre analyse théorique sur des réseaux profonds acycliques munis de fonctions d'activation linéaires par parties, puisque ce type de modèle est actuellement l'état de l'art dans différentes tâches de classification. La deuxième partie de cette thèse porte sur le processus d'apprentissage. Nous analysons quelques techniques d'optimisation proposées récemment, telles l'optimisation Hessian free, la descente de gradient naturel et la descente des sous-espaces de Krylov. Nous proposons le cadre théorique des méthodes à région de confiance généralisées et nous montrons que plusieurs de ces algorithmes développés récemment peuvent être vus dans cette perspective. Nous argumentons que certains membres de cette famille d'approches peuvent être mieux adaptés que d'autres à l'optimisation non convexe. La dernière partie de ce document se concentre sur les réseaux de neurones récurrents. Nous étudions d'abord le concept de mémoire et tentons de répondre aux questions suivantes: Les réseaux récurrents peuvent-ils démontrer une mémoire sans limite? Ce comportement peut-il être appris? Nous montrons que cela est possible si des indices sont fournis durant l'apprentissage. Ensuite, nous explorons deux problèmes spécifiques à l'entraînement des réseaux récurrents, à savoir la dissipation et l'explosion du gradient. Notre analyse se termine par une solution au problème d'explosion du gradient qui implique de borner la norme du gradient. Nous proposons également un terme de régularisation conçu spécifiquement pour réduire le problème de dissipation du gradient. Sur un ensemble de données synthétique, nous montrons empiriquement que ces mécanismes peuvent permettre aux réseaux récurrents d'apprendre de façon autonome à mémoriser des informations pour une période de temps indéfinie. Finalement, nous explorons la notion de profondeur dans les réseaux de neurones récurrents. Comparativement aux réseaux acycliques, la définition de profondeur dans les réseaux récurrents est souvent ambiguë. Nous proposons différentes façons d'ajouter de la profondeur dans les réseaux récurrents et nous évaluons empiriquement ces propositions.
Resumo:
L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.
Resumo:
The influence of partisan politics on public policy is a much debated issue of political science. With respect to foreign policy, often considered as above parties, the question appears even more problematic. This comparison of foreign aid policies in 16 OECD countries develops a structural equation model and uses LISREL analysis to demonstrate that parties do matter, even in international affairs. Social-democratic parties have an effect on a country's level of development assistance. This effect, however, is neither immediate nor direct. First, it appears only in the long run. Second, the relationship between leftist partisan strength and foreign aid works through welfare state institutions and social spending. Our findings indicate how domestic politics shapes foreign conduct. We confirm the empirical relevance of cumulative partisan scores and show how the influence of parties is mediated by other political determinants.