248 resultados para pooling


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tämä tutkimus keskittyy analysoimaan tiivistyvästä suomalais-ruotsalaisesta puolustusyh-teistyöstä käytävässä julkisessa keskustelussa ilmeneviä keskusteluun vaikuttavia tekijöitä. Tutkimusmenetelmänä on abduktiivinen kvalitatiivinen sisällönanalyysi (yhdistelmä groun-ded theory- ja sisällönanalyysiä). Tutkimus toteutettiin käyttäen mallia, joka muokattiin To-mas Valasekin hypoteesista, joka koskee pooling and sharing -yhteistyötä (Surviving Auste-rity - The case for a new approach to EU military collaboration, 2011). Malli muodostettiin induktoimalla tutkimuksen primääriaineistosta, joka koottiin julkisesta puolustusyhteistyötä käsittelevästä keskustelusta Suomessa ja Ruotsissa 1.1.2013–31.8.2014. Tutkimuksen pääkysymys on: Miten tiivistyvästä suomalais-ruotsalaisesta puolustusyhteis-työstä 1.1.2013–31.8.2014 käytyyn julkiseen keskusteluun vaikuttaneet päätekijät ilmene-vät? Tutkimuksen alakysymykset muodostettiin tutkimuksen primääriaineistosta neljässä eri kategoriassa: historialliset, poliittiset/sotilaalliset, taloudelliset ja asenteelliset tekijät. Ai-neistoa analysoitiin deduktiivisesti käyttäen näitä kategorioita analyysimallina, tarkoituk-sena lisätä ymmärrystä yksittäisistä tekijöistä ja löytää päätekijät. Alakysymyksiä ovat: - Miten 1) historialliset, 2) poliittiset/sotilaalliset, 3) taloudelliset ja 4) asenteelliset tekijät ilmenevät keskustelussa tiivistyvästä puolustusyhteistyöstä? - Kuinka nämä tekijät eroavat Suomessa ja Ruotsissa? - Mikä tekijöistä nähdään keskustelussa tärkeimpänä? Tutkimuksen päätuloksena on, että luottamus tai sen puute on tärkein keskustelussa ilme-nevä päätekijä, joka joko edistää tai toisaalta heikentää yhteistyötä. Muina keskustelusta il-menevinä päätekijöinä nähdään seuraavien tekijöiden olemassaolo tai puute: - ymmärrys yhteistyön historiallisesta taustasta molempien valtioiden näkökulmista - poliittisten/sotilaallisten tavoitteiden selkeys ja niihin sitoutuminen - poliittinen sitoutuminen yhteistyön poliittisten/sotilaallisten tarkoitusperien edistämi-seen kotimaan taloudellisten hyötyjen sijaan - laillisesti sitova rakenne yhteistyölle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Our objective was to evaluate the association of rs12255372 in theTCF7L2 gene with type 2 diabetes mellitus (T2DM) in the world population. We carried out a survey of the literature about the effect of rs12255372 on genetic susceptibility to T2DM by consulting PubMed, the Cochrane Library, and Embase from 2006 to 2012, and then performed a meta-analysis of all the studies in order to evaluate the association between rs12255372 and T2DM. A total of 33 articles including 42 studies (with 34,076 cases and 36,192 controls) were confirmed to be eligible and were included in the final meta-analysis: 6 studies conducted on Europeans, 14 on Caucasians, 17 on Asians, 2 on Africans, and 3 on Americans. Overall, the effect size was as follows: for the variant allele T (OR = 1.387, 95%CI = 1.351-1.424), for the TT genotype (OR = 1.933, 95%CI = 1.815-2.057), for the GT genotype (OR = 1.363, 95%CI = 1.315-1.413), for the dominant model (OR = 1.425, 95%CI = 1.344-1.510), and for the recessive model (OR = 1.659, 95%CI = 1.563-1.761). In summary, by pooling all available qualified data from genetic studies on rs12255372 and T2DM, we have confirmed that rs12255372 is significantly associated with susceptibility to T2DM in the global population.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

New generation antidepressant therapies, including serotonin-norepinephrine reuptake inhibitor (SNRIs), were introduced in the late 1980s; however, few comprehensive studies have compared the benefits and risks of various contemporary treatments for major depressive disorder (MDD) in young patients. A comprehensive literature search of PubMed, Cochrane, Embase, Web of Science, and PsycINFO databases was conducted from 1970 to January 2015. Only clinical trials that randomly assigned one SNRI or placebo to patients aged 7 to 18 years who met the diagnostic criteria for major depressive disorder were included. Treatment success, dropout rate, and suicidal ideation/attempt outcomes were measured. Primary efficacy was determined by pooling the risk ratios (RRs) of treatment response and remission. Acceptability was determined by pooling the RRs of dropouts for all reasons and for adverse effects as well as suicide-risk outcomes. Five trials with a total of 973 patients were included. SNRIs were not significantly more effective than placebo for treatment response but were for remission. The comparison of patients taking SNRIs that dropped out for all reasons and those taking placebo did not reach statistical significance. Significantly more patients taking SNRIs dropped out for adverse effects than those taking placebo. No significant difference was found in suicide-related risk outcomes. SNRI therapy does not display a superior efficacy and is not better tolerated compared to placebo in these young patients. However, duloxetine has a potential beneficial effect for depression in young populations, showing a need for further research.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The aim of this thesis is to research mean return spillovers as well as volatility spillovers from the S&P 500 stock index in the USA to selected stock markets in the emerging economies in Eastern Europe between 2002 and 2014. The sample period has been divided into smaller subsamples, which enables taking different market conditions as well as the unification of the World’s capital markets during the financial crisis into account. Bivariate VAR(1) models are used to analyze the mean return spillovers while the volatility linkages are analyzed through the use of bivariate BEKK-GARCH(1,1) models. The results show both constant volatility pooling within the S&P 500 as well as some statistically significant spillovers of both return and volatility from the S&P 500 to the Eastern European emerging stock markets. Moreover, some of the results indicate that the volatility spillovers have increased as time has passed, indicating unification of global stock markets.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de maîtrise en droit, option recherche"

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les temps de réponse dans une tache de reconnaissance d’objets visuels diminuent de façon significative lorsque les cibles peuvent être distinguées à partir de deux attributs redondants. Le gain de redondance pour deux attributs est un résultat commun dans la littérature, mais un gain causé par trois attributs redondants n’a été observé que lorsque ces trois attributs venaient de trois modalités différentes (tactile, auditive et visuelle). La présente étude démontre que le gain de redondance pour trois attributs de la même modalité est effectivement possible. Elle inclut aussi une investigation plus détaillée des caractéristiques du gain de redondance. Celles-ci incluent, outre la diminution des temps de réponse, une diminution des temps de réponses minimaux particulièrement et une augmentation de la symétrie de la distribution des temps de réponse. Cette étude présente des indices que ni les modèles de course, ni les modèles de coactivation ne sont en mesure d’expliquer l’ensemble des caractéristiques du gain de redondance. Dans ce contexte, nous introduisons une nouvelle méthode pour évaluer le triple gain de redondance basée sur la performance des cibles doublement redondantes. Le modèle de cascade est présenté afin d’expliquer les résultats de cette étude. Ce modèle comporte plusieurs voies de traitement qui sont déclenchées par une cascade d’activations avant de satisfaire un seul critère de décision. Il offre une approche homogène aux recherches antérieures sur le gain de redondance. L’analyse des caractéristiques des distributions de temps de réponse, soit leur moyenne, leur symétrie, leur décalage ou leur étendue, est un outil essentiel pour cette étude. Il était important de trouver un test statistique capable de refléter les différences au niveau de toutes ces caractéristiques. Nous abordons la problématique d’analyser les temps de réponse sans perte d’information, ainsi que l’insuffisance des méthodes d’analyse communes dans ce contexte, comme grouper les temps de réponses de plusieurs participants (e. g. Vincentizing). Les tests de distributions, le plus connu étant le test de Kolmogorov- Smirnoff, constituent une meilleure alternative pour comparer des distributions, celles des temps de réponse en particulier. Un test encore inconnu en psychologie est introduit : le test d’Anderson-Darling à deux échantillons. Les deux tests sont comparés, et puis nous présentons des indices concluants démontrant la puissance du test d’Anderson-Darling : en comparant des distributions qui varient seulement au niveau de (1) leur décalage, (2) leur étendue, (3) leur symétrie, ou (4) leurs extrémités, nous pouvons affirmer que le test d’Anderson-Darling reconnait mieux les différences. De plus, le test d’Anderson-Darling a un taux d’erreur de type I qui correspond exactement à l’alpha tandis que le test de Kolmogorov-Smirnoff est trop conservateur. En conséquence, le test d’Anderson-Darling nécessite moins de données pour atteindre une puissance statistique suffisante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La thèse a pour objectif d’étudier l’influence du financement des soins de santé sur la performance des systèmes de soins compte tenu des caractéristiques organisationnelles sanitaires des systèmes. Elle s’articule autour des trois objectifs suivants : 1) caractériser le financement des soins de santé à travers les différents modèles émergeant des pays à revenu élevé ; 2) apprécier la performance des systèmes de soins en établissant les divers profils apparaissant dans ces mêmes pays ; 3) examiner le lien entre le financement et la performance en tenant compte du pouvoir modérateur du contexte organisationnel des soins. Inspirée du processus de circulation de l’argent dans le système de soins, l’approche a d’abord consisté à classer les pays étudiés – par une analyse configurationnelle opérationnalisée par les analyses de correspondance multiples (ACM) et de classification hiérarchique ascendante (CHA) – dans des modèles types, chacun représentant une configuration particulière de processus de financement des soins de santé (article 1). Appliquée aux données recueillies auprès des 27 pays de l’OCDE à revenu élevé via les rapports Health Care in Transition des systèmes de santé des pays produits par le bureau Européen de l’OMS, la banque de données Eco-Santé OCDE 2007 et les statistiques de l’OMS 2008, les analyses ont révélé cinq modèles de financement. Ils se distinguent selon les fonctions de collecte de l’argent dans le système (prélèvement), de mise en commun de l’argent collecté (stockage), de la répartition de l’argent collecté et stocké (allocation) et du processus de paiement des professionnels et des établissements de santé (paiement). Les modèles ainsi développés, qui vont au-delà du processus unique de collecte de l’argent, donnent un portrait plus complet du processus de financement des soins de santé. Ils permettent ainsi une compréhension de la cohérence interne existant entre les fonctions du financement lors d’un éventuel changement de mode de financement dans un pays. Dans un deuxième temps, nous appuyant sur une conception multidimensionnelle de la performance des systèmes, nous avons classé les pays : premièrement, selon leur niveau en termes de ressources mobilisées, de services produits et de résultats de santé atteints (définissant la performance absolue) ; deuxièmement, selon les efforts qu’ils fournissent pour atteindre un niveau élevé de résultats de santé proportionnellement aux ressources mobilisées et aux services produits en termes d’efficience, d’efficacité et de productivité (définissant ainsi la performance relative) ; et troisièmement, selon les profils types de performance globale émergeant en tenant compte simultanément des niveaux de performance absolue et relative (article 2). Les analyses effectuées sur les données collectées auprès des mêmes 27 pays précédents ont dégagé quatre profils de performance qui se différencient selon leur niveau de performance multidimensionnelle et globale. Les résultats ainsi obtenus permettent d’effectuer une comparaison entre les niveaux globaux de performance des systèmes de soins. Pour terminer, afin de répondre à la question de savoir quel mode – ou quels modes – de financement générerait de meilleurs résultats de performance, et ce, dans quel contexte organisationnel de soins, une analyse plus fine des relations entre le financement et la performance (tous définis comme précédemment) compte tenu des caractéristiques organisationnelles sanitaires a été réalisée (article 3). Les résultats montrent qu’il n’existe presque aucune relation directe entre le financement et la performance. Toutefois, lorsque le financement interagit avec le contexte organisationnel sanitaire pour appréhender le niveau de performance des systèmes, des relations pertinentes et révélatrices apparaissent. Ainsi, certains modes de financement semblent plus attrayants que d’autres en termes de performance dans des contextes organisationnels sanitaires différents. Les résultats permettent ainsi à tous les acteurs du système de comprendre qu’il n’existe qu’une influence indirecte du financement de la santé sur la performance des systèmes de soins due à l’interaction du financement avec le contexte organisationnel sanitaire. L’une des originalités de cette thèse tient au fait que très peu de travaux ont tenté d’opérationnaliser de façon multidimensionnelle les concepts de financement et de performance avant d’analyser les associations susceptibles d’exister entre eux. En outre, alors que la pertinence de la prise en compte des caractéristiques du contexte organisationnel dans la mise en place des réformes des systèmes de soins est au coeur des préoccupations, ce travail est l’un des premiers à analyser l’influence de l’interaction entre le financement et le contexte organisationnel sanitaire sur la performance des systèmes de soins.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Essai doctoral présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Doctorat en psychologie clinique (D.Psy.)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Information and communication technologies are the tools that underpin the emerging “Knowledge Society”. Exchange of information or knowledge between people and through networks of people has always taken place. But the ICT has radically changed the magnitude of this exchange, and thus factors such as timeliness of information and information dissemination patterns have become more important than ever.Since information and knowledge are so vital for the all round human development, libraries and institutions that manage these resources are indeed invaluable. So, the Library and Information Centres have a key role in the acquisition, processing, preservation and dissemination of information and knowledge. ln the modern context, library is providing service based on different types of documents such as manuscripts, printed, digital, etc. At the same time, acquisition, access, process, service etc. of these resources have become complicated now than ever before. The lCT made instrumental to extend libraries beyond the physical walls of a building and providing assistance in navigating and analyzing tremendous amounts of knowledge with a variety of digital tools. Thus, modern libraries are increasingly being re-defined as places to get unrestricted access to information in many formats and from many sources.The research was conducted in the university libraries in Kerala State, India. lt was identified that even though the information resources are flooding world over and several technologies have emerged to manage the situation for providing effective services to its clientele, most of the university libraries in Kerala were unable to exploit these technologies at maximum level. Though the libraries have automated many of their functions, wide gap prevails between the possible services and provided services. There are many good examples world over in the application of lCTs in libraries for the maximization of services and many such libraries have adopted the principles of reengineering and re-defining as a management strategy. Hence this study was targeted to look into how effectively adopted the modern lCTs in our libraries for maximizing the efficiency of operations and services and whether the principles of re-engineering and- redefining can be applied towards this.Data‘ was collected from library users, viz; student as well as faculty users; library ,professionals and university librarians, using structured questionnaires. This has been .supplemented by-observation of working of the libraries, discussions and interviews with the different types of users and staff, review of literature, etc. Personal observation of the organization set up, management practices, functions, facilities, resources, utilization of information resources and facilities by the users, etc. of the university libraries in Kerala have been made. Statistical techniques like percentage, mean, weighted mean, standard deviation, correlation, trend analysis, etc. have been used to analyse data.All the libraries could exploit only a very few possibilities of modern lCTs and hence they could not achieve effective Universal Bibliographic Control and desired efficiency and effectiveness in services. Because of this, the users as well as professionals are dissatisfied. Functional effectiveness in acquisition, access and process of information resources in various formats, development and maintenance of OPAC and WebOPAC, digital document delivery to remote users, Web based clearing of library counter services and resources, development of full-text databases, digital libraries and institutional repositories, consortia based operations for e-journals and databases, user education and information literacy, professional development with stress on lCTs, network administration and website maintenance, marketing of information, etc. are major areas need special attention to improve the situation. Finance, knowledge level on ICTs among library staff, professional dynamism and leadership, vision and support of the administrators and policy makers, prevailing educational set up and social environment in the state, etc. are some of the major hurdles in reaping the maximum possibilities of lCTs by the university libraries in Kerala. The principles of Business Process Re-engineering are found suitable to effectively apply to re-structure and redefine the operations and service system of the libraries. Most of the conventional departments or divisions prevailing in the university libraries were functioning as watertight compartments and their existing management system was more rigid to adopt the principles of change management. Hence, a thorough re-structuring of the divisions was indicated. Consortia based activities and pooling and sharing of information resources was advocated to meet the varied needs of the users in the main campuses and off campuses of the universities, affiliated colleges and remote stations. A uniform staff policy similar to that prevailing in CSIR, DRDO, ISRO, etc. has been proposed by the study not only in the university libraries in kerala but for the entire country.Restructuring of Lis education,integrated and Planned development of school,college,research and public library systems,etc.were also justified for reaping maximum benefits of the modern ICTs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Object recognition in the visual cortex is based on a hierarchical architecture, in which specialized brain regions along the ventral pathway extract object features of increasing levels of complexity, accompanied by greater invariance in stimulus size, position, and orientation. Recent theoretical studies postulate a non-linear pooling function, such as the maximum (MAX) operation could be fundamental in achieving such invariance. In this paper, we are concerned with neurally plausible mechanisms that may be involved in realizing the MAX operation. Four canonical circuits are proposed, each based on neural mechanisms that have been previously discussed in the context of cortical processing. Through simulations and mathematical analysis, we examine the relative performance and robustness of these mechanisms. We derive experimentally verifiable predictions for each circuit and discuss their respective physiological considerations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In 2003, an electoral reform changed the mechanism to assign seats in the Colombian Congress. I simulate the 2006 Senate elections using the previous assignment mechanism to determine which senators benefited from the reform, i.e. would have not been elected had the reform not been made. With the results of the simulation, I use a regression discontinuity design to compare the senators that would have been barely elected anyways with those who would have lost, but were near to be elected. I check the differences in the amount of law drafts presented, the attendance to voting sessions, and a discipline index for each senator as proxy of their legislative behavior. I find that the senators benefiting from the reform present a different legislative behavior during the 4-year term with respect to the senators that would have been elected anyways. Since the differential legislative behavior cannot be interpreted as being better (worse) politician, I examine if the behavioral difference gives them an electoral advantage. I find no difference in the electoral result of 2010 Senate election in terms of the probability of being (re)elected in 2010, the share of votes, the share of votes within their party list, and the concentration of their votes. Additionally, I check the probability of being investigated for links with paramilitary groups and I find no differences. The results suggest that political reforms can change the composition of governing or legislative bodies in terms of performance, but it does not necessarily translate into an electoral advantage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Among the many foreign policy challenges the EU will have to address this year, such as cultivating workable ties with Ukraine, Russia and other neighbours in the east, reviving the transatlantic partnership in trade, rebalancing alliances with Asian countries, and pooling and sharing defence capabilities, the number one challenge that will take up most of the Foreign Affairs Council’s time is the Middle East. After months of half-baked unilateral attempts at resolving the foreign policy challenges posed by this troubled region, the moment has now come for the EU to take bold and concrete action, argues CEPS Senior Fellow Steven Blockmans in this new Commentary.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contracts are put to a wide variety of uses. Those who draft construction contracts in the UK rarely consider all of the potential uses and therefore may produce documents that are less than ideal. The various uses are considered in their theoretical background before turning to the practical difficulties often encountered in trying to fulfil such diverse aims. The question of standardisation is examined within this context. Existing standard forms of contract in the UK are found to do little to overcome these difficulties, and this encourages either a significant level of amendment to the standards or experienced clients to draft their own forms. The solution is an approach to contract drafting which is designed to offer a compromise; better standard forms, based on the lessons learned from the drafting of non-standard forms and a pooling of experience, including that of lawyers, in the drafting process. Although this paper is based upon the experience of the UK, these conclusions are relevant for contract-drafting practice in general.