9 resultados para Measuring party system change
em Université de Montréal, Canada
Resumo:
Party identification traditionally is seen as an important linkage mechanism, connecting voters to the party system. Previous analyses have suggested that the level of party identity is in decline in Germany, and in this article, we first expand previous observations with more recent data. These suggest that the erosion of party identity continues up to the present time. An age-period-cohort analysis of the panel data of the SOEP panel suggests that period effects are significantly negative. Furthermore, it can be observed that throughout the 1992-2009 observation period, education level and political interest have become more important determinants of party identity. Contrary to some of the literature, therefore, it can be shown that the loss of party identity is concentrated among groups with lower levels of political sophistication, indicating that the socio-economic profile of the group with a sense of party identification has become more distinct compared to the population as a whole. In the discussion, we investigate the theoretical and democratic consequences of this trend.
Resumo:
The work of Russell Dalton has undoubtedly played a seminal role in the study of the relation between political sophistication and partisan dealignment. We furthermore acknowledge the presence of a consensus on the occurrence of lower levels of partisanship in Germany. Using panel data as well as pooled cross-sectional observations, however, it is clear that generational replacement is not the sole driving force of partisan dealignment, but that period effects should also be taken into account. While on an aggregate level rising levels of political sophistication have occurred simultaneously with decreasing partisanship, individual level analysis suggests clearly that the least sophisticated are most likely to feel alienated from the party system. We close with some very specific suggestion on how to address the democratic consequences of declining levels of partisanship.
Resumo:
Bien qu’il soit largement reconnu dans différents milieux d’intervention au Québec que l’intervenant est un des agents actifs les plus importants de l’efficacité d’une intervention – et c’est un des postulats centraux de l’intervention psychoéducative –, il existe encore très peu d’instruments de mesure validés empiriquement permettant l’évaluation du fonctionnement d’un groupe d’intervenants. Néanmoins, il existe un instrument pouvant mesurer le climat social d’une équipe, soit le Questionnaire du climat social d’une équipe d’intervenants (QCSÉI; Le Blanc, Trudeau-Le Blanc, & Lanctôt, 1999; Moos 1987). Le QCSÉI compte 10 échelles de premier niveau. Dans ses écrits théoriques, Moos (2003) a suggéré que le climat social est un construit hiérarchique et que l’ensemble des instruments mesurant différentes dimensions du climat social d’un groupe ou d’une équipe devrait se regrouper en trois facteurs d’ordre supérieur, soit les relations interpersonnelles, la découverte de soi et le maintien de l’ordre et du changement. Un examen conceptuel des échelles du QCSÉI suggère que ce modèle théorique est problématique. Cette étude visait à déterminer si la structure hiérarchique proposée par Moos était adéquate pour le QCSÉI dans un échantillon d’intervenants québécois. L’échantillon utilisé était composé d’intervenants faisant partie de Boscoville2000, un projet d’intervention cognitivecomportementale en milieu résidentiel pour les adolescents en difficulté. Des analyses factorielles exploratoires ont d’abord démontré que la structure de premier niveau est bien reproduite. Deux échelles jugées importantes pour mesurer le climat social ont ensuite été ajoutées. Par la suite, des analyses factorielles exploratoires et confirmatoires ont démontré que la structure théorique hiérarchique en trois dimensions d’ordre supérieur de Moos ne représente pas bien les données. Les analyses ont révélé une structure alternative plus intéressante sur le plan conceptuel et qui représentait mieux les données. Des corrélations entre les échelles de climat social de l’équipe et les traits de personnalité des intervenants ainsi que différentes variables sociodémographiques et liées à la pratique professionnelle ont procuré un appui qui suggère que le QCSÉI possède une validité de critère acceptable.
Resumo:
La formation des sociétés fondées sur la connaissance, le progrès de la technologie de communications et un meilleur échange d'informations au niveau mondial permet une meilleure utilisation des connaissances produites lors des décisions prises dans le système de santé. Dans des pays en voie de développement, quelques études sont menées sur des obstacles qui empêchent la prise des décisions fondées sur des preuves (PDFDP) alors que des études similaires dans le monde développé sont vraiment rares. L'Iran est le pays qui a connu la plus forte croissance dans les publications scientifiques au cours de ces dernières années, mais la question qui se pose est la suivante : quels sont les obstacles qui empêchent l'utilisation de ces connaissances de même que celle des données mondiales? Cette étude embrasse trois articles consécutifs. Le but du premier article a été de trouver un modèle pour évaluer l'état de l'utilisation des connaissances dans ces circonstances en Iran à l’aide d'un examen vaste et systématique des sources suivie par une étude qualitative basée sur la méthode de la Grounded Theory. Ensuite au cours du deuxième et troisième article, les obstacles aux décisions fondées sur des preuves en Iran, sont étudiés en interrogeant les directeurs, les décideurs du secteur de la santé et les chercheurs qui travaillent à produire des preuves scientifiques pour la PDFDP en Iran. Après avoir examiné les modèles disponibles existants et la réalisation d'une étude qualitative, le premier article est sorti sous le titre de «Conception d'un modèle d'application des connaissances». Ce premier article sert de cadre pour les deux autres articles qui évaluent les obstacles à «pull» et «push» pour des PDFDP dans le pays. En Iran, en tant que pays en développement, les problèmes se situent dans toutes les étapes du processus de production, de partage et d’utilisation de la preuve dans la prise de décision du système de santé. Les obstacles qui existent à la prise de décision fondée sur des preuves sont divers et cela aux différents niveaux; les solutions multi-dimensionnelles sont nécessaires pour renforcer l'impact de preuves scientifiques sur les prises de décision. Ces solutions devraient entraîner des changements dans la culture et le milieu de la prise de décision afin de valoriser la prise de décisions fondées sur des preuves. Les critères de sélection des gestionnaires et leur nomination inappropriée ainsi que leurs remplaçants rapides et les différences de paiement dans les secteurs public et privé peuvent affaiblir la PDFDP de deux façons : d’une part en influant sur la motivation des décideurs et d'autre part en détruisant la continuité du programme. De même, tandis que la sélection et le remplacement des chercheurs n'est pas comme ceux des gestionnaires, il n'y a aucun critère pour encourager ces deux groupes à soutenir le processus décisionnel fondés sur des preuves dans le secteur de la santé et les changements ultérieurs. La sélection et la promotion des décideurs politiques devraient être basées sur leur performance en matière de la PDFDP et les efforts des universitaires doivent être comptés lors de leurs promotions personnelles et celles du rang de leur institution. Les attitudes et les capacités des décideurs et des chercheurs devraient être encouragés en leur donnant assez de pouvoir et d’habiliter dans les différentes étapes du cycle de décision. Cette étude a révélé que les gestionnaires n'ont pas suffisamment accès à la fois aux preuves nationales et internationales. Réduire l’écart qui sépare les chercheurs des décideurs est une étape cruciale qui doit être réalisée en favorisant la communication réciproque. Cette question est très importante étant donné que l'utilisation des connaissances ne peut être renforcée que par l'étroite collaboration entre les décideurs politiques et le secteur de la recherche. Dans ce but des programmes à long terme doivent être conçus ; la création des réseaux de chercheurs et de décideurs pour le choix du sujet de recherche, le classement des priorités, et le fait de renforcer la confiance réciproque entre les chercheurs et les décideurs politiques semblent être efficace.
Resumo:
En concevant que toute société a deux clivages dominants, l’un social et l’autre partisan, cette thèse développe une théorie sur le changement institutionnel. L’hypothèse initiale, selon laquelle les groupes sociaux créés par le premier clivage agiront pour restreindre le changement institutionnel et que le changement aura lieu lors de l’émergence d’un groupe partisan capable de croiser le clivage social, fut testée par les processus traçant les changements qui furent proposés et qui ont eu lieu au sein des conseils nominés en Amérique du Nord britannique. Ces conseils furent modifiés un bon nombre de fois, devenant les chambres secondaires de législatures provinciales avant d’être éventuellement abolies. La preuve supporte l’hypothèse, bien qu’il ne soit pas suffisant d’avoir un groupe partisan qui puisse croiser le clivage qui mène le changement : un débat partisan sur le changement est nécessaire. Ceci remet aussi en cause la théorie prédominante selon laquelle les clivages sociaux mènent à la formation de partis politiques, suggérant qu’il est plus bénéfique d’utiliser ces deux clivages pour l’étude des institutions.
Resumo:
Pendant la dernière décennie nous avons vu une transformation incroyable du monde de la musique qui est passé des cassettes et disques compacts à la musique numérique en ligne. Avec l'explosion de la musique numérique, nous avons besoin de systèmes de recommandation de musique pour choisir les chansons susceptibles d’être appréciés à partir de ces énormes bases de données en ligne ou personnelles. Actuellement, la plupart des systèmes de recommandation de musique utilisent l’algorithme de filtrage collaboratif ou celui du filtrage à base de contenu. Dans ce mémoire, nous proposons un algorithme hybride et original qui combine le filtrage collaboratif avec le filtrage basé sur étiquetage, amélioré par la technique de filtrage basée sur le contexte d’utilisation afin de produire de meilleures recommandations. Notre approche suppose que les préférences de l'utilisateur changent selon le contexte d'utilisation. Par exemple, un utilisateur écoute un genre de musique en conduisant vers son travail, un autre type en voyageant avec la famille en vacances, un autre pendant une soirée romantique ou aux fêtes. De plus, si la sélection a été générée pour plus d'un utilisateur (voyage en famille, fête) le système proposera des chansons en fonction des préférences de tous ces utilisateurs. L'objectif principal de notre système est de recommander à l'utilisateur de la musique à partir de sa collection personnelle ou à partir de la collection du système, les nouveautés et les prochains concerts. Un autre objectif de notre système sera de collecter des données provenant de sources extérieures, en s'appuyant sur des techniques de crawling et sur les flux RSS pour offrir des informations reliées à la musique tels que: les nouveautés, les prochains concerts, les paroles et les artistes similaires. Nous essayerons d’unifier des ensembles de données disponibles gratuitement sur le Web tels que les habitudes d’écoute de Last.fm, la base de données de la musique de MusicBrainz et les étiquettes des MusicStrands afin d'obtenir des identificateurs uniques pour les chansons, les albums et les artistes.
Resumo:
Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.
Resumo:
Les débats économiques au 19e siècle, loin d’être l’apanage du monde universitaire, étaient aux États-Unis un des principaux objets de contentieux entre les partis politiques et ceux-ci trouvaient écho dans la sphère publique. Les journaux étaient alors le principal moyen de communiquer les opinions des différents partis. La présente étude vise à mettre en contexte et cerner la position des écrits du plus important économiste américain de son époque, Henry Charles Carey (1793-1879), reconnu comme tel par J.S. Mill et Karl Marx en leur temps, lors de la décennie de 1850 dans le journal le plus influent de cette période, le New York Tribune. Pour ce faire, il a fallu au préalable identifier les articles non signés de Carey dans le journal, ce qui n’avait auparavant jamais été fait. Au moment d’écrire dans le principal organe américain qui défendait la protection aux États-Unis afin d’industrialiser le pays, Carey était alors le représentant le plus prééminent du système américain d’économie. Ce dernier, fondé sur les écrits d’Alexander Hamilton, prônait l’industrialisation des États-Unis et l’intervention de l’État pour défendre le bien commun, s’opposant ainsi à l’école libérale anglaise basée sur les écrits d’Adam Smith. Conceptuellement, la pensée économique de Carey se situe dans la tradition des Autres Canon, basée sur la production et l’innovation. Ceci le mena à s’opposer avec vigueur tant au malthusianisme qu’à la division internationale du travail, justifiée théoriquement par la thèse de l’avantage comparatif de Ricardo. En effet, dans son analyse, la volonté exprimée au milieu du 19e siècle par l’Angleterre de devenir l’atelier du monde et de faire du reste des nations des producteurs de matières premières sous un régime de libre-échange n’était rien d’autre que la continuation de la politique coloniale par d’autres moyens. Pour Carey, la spécialisation dans l’exportation de matières premières, notamment défendue par les planteurs du Sud des États-Unis, loin d’être bénéfique au pays, était le sûr gage de la pauvreté comme les cas de l’Irlande et de l’Inde le démontraient.
Resumo:
Les réchauffements climatiques associés aux activités anthropiques ont soumis les écosystèmes arctiques à des changements rapides qui menacent leur stabilité à court terme. La diminution dramatique de la banquise arctique est une des conséquences les plus concrètes de ce réchauffement. Dans ce contexte, comprendre et prédire comment les systèmes arctiques évolueront est crucial, surtout en considérant comment les flux de carbone (C) de ces écosystèmes - soit des puits nets, soit des sources nettes de CO2 pour l'atmosphère - pourraient avoir des répercussions importantes sur le climat. Le but de cette thèse est de dresser un portrait saisonnier de l’activité bactérienne afin de déterminer l’importance de sa contribution aux flux de carbone en Arctique. Plus spécifiquement, nous caractérisons pour la première fois la respiration et le recours à la photohétérotrophie chez les microorganismes du golfe d’Amundsen. Ces deux composantes du cycle du carbone demeurent peu décrites et souvent omises des modèles actuels, malgré leur rôle déterminant dans les flux de C non seulement de l’Arctique, mais des milieux marins en général. Dans un premier temps, nous caractérisons la respiration des communautés microbiennes (RC) des glaces de mer. La connaissance des taux de respiration est essentielle à l’estimation des flux de C, mais encore limitée pour les milieux polaires. En effet, les études précédentes dans le golfe d’Amundsen n’ont pas mesuré la RC. Par la mesure de la respiration dans les glaces, nos résultats montrent des taux élevés de respiration dans la glace, de 2 à 3 fois supérieurs à la colonne d'eau, et une production bactérienne jusqu’à 25 fois plus importante. Ces résultats démontrent que la respiration microbienne peut consommer une proportion significative de la production primaire (PP) des glaces et pourrait jouer un rôle important dans les flux biogéniques de CO2 entre les glaces de mer et l’atmosphère (Nguyen et Maranger, 2011). Dans un second temps, nous mesurons la respiration des communautés microbiennes pélagiques du golfe d’Amundsen pendant une période de 8 mois consécutif, incluant le couvert de glace hivernal. En mesurant directement la consommation d'O2, nous montrons une RC importante, mesurable tout au long de l’année et dépassant largement les apports en C de la production primaire. Globalement, la forte consommation de C par les communautés microbiennes suggère une forte dépendance sur recyclage interne de la PP locale. Ces observations ont des conséquences importantes sur notre compréhension du potentiel de séquestration de CO2 par les eaux de l’Océan Arctique (Nguyen et al. 2012). Dans un dernier temps, nous déterminons la dynamique saisonnière de présence (ADN) et d’expression (ARN) du gène de la protéorhodopsine (PR), impliqué dans la photohétérotrophie chez les communautés bactérienne. Le gène de la PR, en conjonction avec le chromophore rétinal, permet à certaines bactéries de capturer l’énergie lumineuse à des fins énergétiques ou sensorielles. Cet apport supplémentaire d’énergie pourrait contribuer à la survie et prolifération des communautés qui possèdent la protéorhodopsine. Bien que détectée dans plusieurs océans, notre étude est une des rares à dresser un portrait saisonnier de la distribution et de l’expression du gène en milieu marin. Nous montrons que le gène de la PR est présent toute l’année et distribué dans des communautés diversifiées. Étonnamment, l’expression du gène se poursuit en hiver, en absence de lumière, suggérant soit qu’elle ne dépend pas de la lumière, ou que des sources de photons très localisées justifie l’expression du gène à des fins sensorielles et de détection (Nguyen et al., soumis au journal ISME). Cette thèse contribue à la compréhension du cycle du C en Arctique et innove par la caractérisation de la respiration et de l’efficacité de croissance des communautés microbiennes pélagiques et des glaces de mer. De plus, nous montrons pour la première fois une expression soutenue de la protéorhodopsine en Arctique, qui pourrait moduler la consommation de C par la respiration et justifier son inclusion éventuelle dans les modélisations du cycle du C. Dans le contexte des changements climatiques, il est clair que l'importance de l’activité bactérienne a été sous-estimée et aura un impact important dans le bilan de C de l'Arctique.