51 resultados para vacant lot


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire est une analyse socio-juridique de la discrimination en milieu de travail et de son impact sur le devoir juridique de représentation syndicale, ou plus précisément, sur la responsabilité syndicale en contexte de diversité. Partant d’une première approche sociométrique du phénomène, suivie d’une deuxième davantage socio-juridique, le constat est à l’effet que la discrimination en milieu de travail a des répercussions jusque dans les milieux syndiqués,où les flux d’immigration semblent, à plusieurs égards, bousculer l’ordre établi. La revue de littérature permet de dégager deux grands axes de recherche : un premier concernant les forums : dans l’état actuel du droit, ce sont les Tribunaux des droits de la personne qui élaborent les normes applicables au devoir juridique de représentation syndicale dans les cas allégués de discrimination au travail, les Commissions des relations de travail s’adaptant mais lentement, sinon avec réticence, à la nouvelle donne ; le deuxième concernant spécifiquement la partie syndicale : cette dernière pondère l’effet des normes applicables en matière de discrimination au travail tant en fonction de ses propres intérêts stratégiques, que de l’attente des membres, que des préjugés et stéréotypes présents dans le milieu de travail. L’analyse globale porte sur 689 décisions en provenance de quatre Commissions des relations de travail — Québec, Fédéral, Ontario et Colombie-Britannique — et ainsi que des quatre Tribunaux des droits de la personne correspondants, sur une période de dix ans, allant du 1er janvier 2000 au 31 décembre 2009. Quant aux forums, la conclusion est à l’effet qu’au cours de la période étudiée, aucune institution n’a de préséance sur l’autre en ce qui a trait aux motifs illicites de discrimination. Les deux se complétent sans presque se chevaucher, et chacune à leur manière, contribuent fortement à faire progresser les droits de la personne. Par contre, les Commissions des relations de travail ont préséance quant au harcèlement, tandis que les Tribunaux des droits de la personne sont prépondérants face aux mesures d’accommodement. Quant à la partie syndicale, si elle a toujours agi, pour des raisons historiques, en fonction de ses intérêts stratégiques, de l’attente des membres, et des préjugés et stéréotypes présents sur les lieux de travail. Mais, ce qui change au fil du temps, c’est tout ce qui entoure le devoir juridique de représentation syndicale, c’est-à-dire tout le climat général d’application, ainsi que tout le contexte d’analyse et d’évaluation des situations. Quel est donc l’impact de la discrimination en milieu de travail sur le devoir juridique de représentation syndicale ? Dans la mesure où le contexte d’analyse et d’évaluation des situations est la lecture que font les agents, du climat général d’application, et des changements qu’ils y apportent en fonction de leurs propres intérêts stratégiques, du point de vue syndical, cet impact est triple : d’abord, devant chaque cas d’espèce, (1) l’acteur syndical doit désormais jongler avec beaucoup plus de facteurs qu’auparavant ; deuxièmement, (2) envers les salariés de l’unité de négociation, la marge de manoeuvre est beaucoup plus restreinte en contexte de lutte contre la discrimination ; enfin, et c’est le point le plus important, (3) l’économie générale des droits de la personne a pour effet d’introduire une hiérarchie dans les normes applicables, ce qui oblige l’acteur syndical à s’adapter, de façon constante, à un climat général d’application sans cesse changeant, auquel tous les agents contribuent, y compris lui-même.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La production littéraire de Claude Mathieu, s’étalant de 1957 à 1965, tranche avec les oeuvres de ses contemporains. Le plus souvent, ces derniers défendent un nationalisme moderne et mettent à l’avant-plan le territoire et la société québécoise. De son côté, Mathieu aborde des thèmes plus généraux, par exemple le temps, l’art ou l’érotisme, qui trahissent ses sources d’inspiration issues de la littérature française et des littératures étrangères. Cet aspect est plutôt inusité chez les écrivains québécois de la décennie 1960. Dans cette analyse intertextuelle, nous cherchons à montrer la singularité de l’écriture de Claude Mathieu. Nous exposons ses principales sources et influences littéraires afin de comprendre comment il s’en inspire et comment elles orientent sa poétique où domine le fantastique teintée d’images surréalistes. L’analyse est constituée de deux chapitres. Le premier est consacré au recueil Vingt petits écrits ou le mirliton rococo. Les textes étudiés sont regroupés en trois sections, selon l’époque des références qui les appuient, soit les littératures hellénique, classique et moderne. Le second chapitre traite de La mort exquise, l’oeuvre la plus importante de Claude Mathieu. En analysant les principaux textes de ce recueil, nous montrons comment l’influence d’André Pieyre de Mandiargues et de Jorge Luis Borges s’impose face à la multitude de références diverses convoquées dans le premier recueil de nouvelles de Mathieu. Nous montrons également comment ces influences sont absorbées et transformées pour créer une écriture originale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’explosion du nombre de séquences permet à la phylogénomique, c’est-à-dire l’étude des liens de parenté entre espèces à partir de grands alignements multi-gènes, de prendre son essor. C’est incontestablement un moyen de pallier aux erreurs stochastiques des phylogénies simple gène, mais de nombreux problèmes demeurent malgré les progrès réalisés dans la modélisation du processus évolutif. Dans cette thèse, nous nous attachons à caractériser certains aspects du mauvais ajustement du modèle aux données, et à étudier leur impact sur l’exactitude de l’inférence. Contrairement à l’hétérotachie, la variation au cours du temps du processus de substitution en acides aminés a reçu peu d’attention jusqu’alors. Non seulement nous montrons que cette hétérogénéité est largement répandue chez les animaux, mais aussi que son existence peut nuire à la qualité de l’inférence phylogénomique. Ainsi en l’absence d’un modèle adéquat, la suppression des colonnes hétérogènes, mal gérées par le modèle, peut faire disparaître un artéfact de reconstruction. Dans un cadre phylogénomique, les techniques de séquençage utilisées impliquent souvent que tous les gènes ne sont pas présents pour toutes les espèces. La controverse sur l’impact de la quantité de cellules vides a récemment été réactualisée, mais la majorité des études sur les données manquantes sont faites sur de petits jeux de séquences simulées. Nous nous sommes donc intéressés à quantifier cet impact dans le cas d’un large alignement de données réelles. Pour un taux raisonnable de données manquantes, il appert que l’incomplétude de l’alignement affecte moins l’exactitude de l’inférence que le choix du modèle. Au contraire, l’ajout d’une séquence incomplète mais qui casse une longue branche peut restaurer, au moins partiellement, une phylogénie erronée. Comme les violations de modèle constituent toujours la limitation majeure dans l’exactitude de l’inférence phylogénétique, l’amélioration de l’échantillonnage des espèces et des gènes reste une alternative utile en l’absence d’un modèle adéquat. Nous avons donc développé un logiciel de sélection de séquences qui construit des jeux de données reproductibles, en se basant sur la quantité de données présentes, la vitesse d’évolution et les biais de composition. Lors de cette étude nous avons montré que l’expertise humaine apporte pour l’instant encore un savoir incontournable. Les différentes analyses réalisées pour cette thèse concluent à l’importance primordiale du modèle évolutif.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

À la fin du XIIIe et au début du XIVe siècle, Édouard Ier (1239-1307), conquérant du Pays de Galles et de l'Écosse, semblait être en conflit perpétuel, que ce soit avec l’Écosse, la France ou le Pays de Galles. Il avait donc grandement besoin de financement. Or dès son règne, on sent que le Parlement avait acquis une importance particulière en Angleterre, de sorte qu’Édouard Ier devait le convaincre de lui accorder les taxes qu’il demandait. Des tensions socio-culturelles héritées de la conquête de 1066 compliquaient de beaucoup la tâche au roi qui se devait de trouver une solution pour unir toute la société anglaise contre ses ennemis. Le roi était également en conflit avec certains de ces sujets. C’était notamment le cas d’Antoine Bek, évêque palatin de Durham qui était menacé de perdre tous ses privilèges et libertés. Dans le but de se racheter auprès du roi, Bek demanda donc à Pierre de Langtoft, un moine du Nord de l’Angleterre, d’écrire une chronique dans laquelle il prêcherait l’union de toute la société anglaise contre les ennemis d’Édouard Ier. C’est celle-ci dont il est question dans ce mémoire, qui étudie la façon dont Pierre de Langtoft calomnie les ennemis du roi, surtout les Écossais et comment il utilise l’histoire pour plaider l’union de toutes les composantes de la société anglaise.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la bibliothèque de musique de l'Université de Montréal (http://www.bib.umontreal.ca/MU).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'ensemble de mon travail a été réalisé grâce a l'utilisation de logiciel libre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’apprentissage machine est un vaste domaine où l’on cherche à apprendre les paramètres de modèles à partir de données concrètes. Ce sera pour effectuer des tâches demandant des aptitudes attribuées à l’intelligence humaine, comme la capacité à traiter des don- nées de haute dimensionnalité présentant beaucoup de variations. Les réseaux de neu- rones artificiels sont un exemple de tels modèles. Dans certains réseaux de neurones dits profonds, des concepts "abstraits" sont appris automatiquement. Les travaux présentés ici prennent leur inspiration de réseaux de neurones profonds, de réseaux récurrents et de neuroscience du système visuel. Nos tâches de test sont la classification et le débruitement d’images quasi binaires. On permettra une rétroac- tion où des représentations de haut niveau (plus "abstraites") influencent des représentations à bas niveau. Cette influence s’effectuera au cours de ce qu’on nomme relaxation, des itérations où les différents niveaux (ou couches) du modèle s’interinfluencent. Nous présentons deux familles d’architectures, l’une, l’architecture complètement connectée, pouvant en principe traiter des données générales et une autre, l’architecture convolutionnelle, plus spécifiquement adaptée aux images. Dans tous les cas, les données utilisées sont des images, principalement des images de chiffres manuscrits. Dans un type d’expérience, nous cherchons à reconstruire des données qui ont été corrompues. On a pu y observer le phénomène d’influence décrit précédemment en comparant le résultat avec et sans la relaxation. On note aussi certains gains numériques et visuels en terme de performance de reconstruction en ajoutant l’influence des couches supérieures. Dans un autre type de tâche, la classification, peu de gains ont été observés. On a tout de même pu constater que dans certains cas la relaxation aiderait à apprendre des représentations utiles pour classifier des images corrompues. L’architecture convolutionnelle développée, plus incertaine au départ, permet malgré tout d’obtenir des reconstructions numériquement et visuellement semblables à celles obtenues avec l’autre architecture, même si sa connectivité est contrainte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La compréhension de la structure d’un logiciel est une première étape importante dans la résolution de tâches d’analyse et de maintenance sur celui-ci. En plus des liens définis par la hiérarchie, il existe un autre type de liens entre les éléments du logiciel que nous appelons liens d’adjacence. Une compréhension complète d’un logiciel doit donc tenir compte de tous ces types de liens. Les outils de visualisation sont en général efficaces pour aider un développeur dans sa compréhension d’un logiciel en lui présentant l’information sous forme claire et concise. Cependant, la visualisation simultanée des liens hiérarchiques et d’adjacence peut donner lieu à beaucoup d’encombrement visuel, rendant ainsi ces visualisations peu efficaces pour fournir de l’information utile sur ces liens. Nous proposons dans ce mémoire un outil de visualisation 3D qui permet de représenter à la fois la structure hiérarchique d’un logiciel et les liens d’adjacence existant entre ses éléments. Notre outil utilise trois types de placements différents pour représenter la hiérarchie. Chacun peut supporter l’affichage des liens d’adjacence de manière efficace. Pour représenter les liens d’adjacence, nous proposons une version 3D de la méthode des Hierarchical Edge Bundles. Nous utilisons également un algorithme métaheuristique pour améliorer le placement afin de réduire davantage l’encombrement visuel dans les liens d’adjacence. D’autre part, notre outil offre un ensemble de possibilités d’interaction permettant à un usager de naviguer à travers l’information offerte par notre visualisation. Nos contributions ont été évaluées avec succès sur des systèmes logiciels de grande taille.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La participation des organisations policières à des opérations de paix des Nations Unies est un phénomène datant de quelques décennies, mais qui suscite de plus en plus d’intérêt dans la communauté scientifique ainsi que chez les organisations contributrices. À titre indicatif, en 2010, près de 13 000 policiers étaient déployés dans 13 opérations de paix des Nations Unies, ce qui représente une augmentation de 810 % par rapport aux 1 600 policiers qui étaient déployés en 1995 . Cette augmentation marquée de la participation policière à ce type d’opération à l’étranger remet en question les conceptions traditionnelles que les chercheurs avaient de l’institution policière. Bel exemple de la transnationalisation des organisations policières, la participation des policiers à des opérations de paix soulève toutefois de nombreux questionnements. Alors que la majorité des recherches se sont penchées sur les problématiques opérationnelles reliées à l’envoi de policiers dans ces zones en sortie de guerre, peu d’entre elles se sont penchées sur les questions reliées au post-déploiement, c'est-à-dire à la réintégration des policiers dans leur société d’origine. Puisque la contribution des services de police québécois aux missions de paix des Nations Unies semble maintenant faire partie intégrante de la mission de certaines de ces organisations, il serait intéressant de valider quelles sont les retombées organisationnelles de cette participation. C’est précisément dans cette lignée que le présent mémoire prend tout son sens. Plus précisément, la présente recherche a pour objectif d’étudier la relation entre la participation d’un policier à ce type de mission et la modification de ses habitudes et méthodes de travail lors de sa réintégration dans son unité d’origine. La perspective organisationnelle utilisée dans ce mémoire est novatrice au sens où elle permet de questionner l’utilité et les retombées de ces missions, non pas sur les sociétés bénéficiaires de l’aide internationale, mais plutôt sur les acteurs contribuant à la mise en place de ces missions. De tels questionnements sont pertinents si l’on veut mesurer les retombées que peuvent avoir les opérations de paix sur les policiers eux-mêmes, sur les organisations policières participantes, mais aussi sur les services fournis aux citoyens par ces mêmes organisations. Les données qui nous permettront de répondre à ces questions proviennent de dix-neuf entretiens semi-directifs réalisés auprès de policiers de la Sûreté du Québec qui ont participé à une mission de paix en Haïti entre 2005 et 2010. En somme, il est possible d’affirmer que les méthodes de travail d’un policier revenant de mission peuvent être modifiées positivement ou négativement par différents facteurs tels que l’acquisition de compétences, la modification des traits de personnalité ou encore par un changement au niveau de la perception qu’on ces policiers de leur travail.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Comme la représentation théâtrale est une forme d’art fugitive qui, en raison de son caractère performatif, possède son propre monde fictionnel, la question de l’oposition entre représentation et réalité occupe une place centrale dans les études théâtrales. Ainsi, les œuvres scèniques d’un metteur en scène comme Frank Castorf représentent des objets d’analyse particulièrement appropriés. Parce que Castorf met d’abord l’accent sur le moment présent et la réalité de la représentation théâtrale, il est légitime de se demander quelle est la part qu’occupe la représentation d’un monde fictionel dans ses spectacles. Ce travail vise précisément à identifier l’importance qu’accorde Castorf à la performativité dans deux adaptations théâtrales des romans de Dostoïevski Les démons et l’Idiot. Comme notre société donne une place grandissante aux médias reproductibles tels que la télévision et le cinéma, et que l’être humain tend toujours davantage à se méditiaser lui-même, le théâtre comme toutes les autres formes d’art s’en trouve transformé. C’est dans cette optique que ces deux adaptations théâtrales ont donné lieu à d’autres manifestations artistiques, soit deux films et deux livres. Cet ouvrage retrace également le processus de re-représentation, c’est-à-dire du passage d’un média à un autre, dans le but d’analyser l’interrelation entre ces œuvres ainsi que de comprendre les raisons qui ont poussé le metteur en scène et son théâtre, la Volksbühne Berlin, à transposer d’abord des romans en spectacle de théâtre pour ensuite en faire des films et des livres. De plus, malgré son utilisation croissante au théâtre, la vidéo représente encore pour certains puristes un envahisseur à bannir. Elle introduirait la perte de l’essence du théâtre : le caractère performatif, qui consiste en une rencontre du public et des acteurs dans un même espace-temps. Par contre, les images vidéo-projetées en direct peuvent conserver une part de performativité puisqu’elles sont susceptibles d’influer sur le spectateur, et inversement. En prenant comme exemple l’Idiot de Frank Castorf, ce travail montre comment les caméras et leur dispositif de transmission en direct ont la capacité de se substituer aux principaux objets du spectacle théâtral : les acteurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Partout dans le monde, la formation en gestion des cadres infirmiers est devenue une nécessité. Afin de doter la profession infirmière de chefs de file capables de faire face aux changements, plusieurs pays ont conçu des programmes de formation de deuxième cycle en administration des services de soins infirmiers. Plusieurs programmes sont développés en ce sens dont peu ou prou sont évalués. Plusieurs auteurs croient que l’évaluation de ces programmes permettrait de mieux apprécier l’atteinte des objectifs pédagogiques et ultérieurement, d’améliorer la formation et les pratiques de gestion. Afin de contribuer à ce projet, la présente étude vise à évaluer le programme de formation Administration et enseignement de l'École nationale de développement sanitaire et social (ENDSS) du Sénégal. Cette évaluation prend en compte les points de vue des diplômés, des enseignants, des concepteurs du programme et des directions d’hôpitaux. Il s’agit d’une recherche évaluative de type rétrospectif. Une enquête par questionnaire et par entrevue a été réalisée auprès des diplômés, des enseignants, des concepteurs de programme et des directions d'hôpitaux. Également, des bases de données sur les étudiants finissants entre les années 2003 et 2009 ont été consultées pour recueillir les notes obtenues à l’examen de certification, les effectifs d’admission et d’inscrits et les renseignements sociodémographiques. Cette évaluation porte sur les principales composantes du programme de formation Administration et enseignement de l’ENDSS qui sont examinées à l’aide du modèle systémique d’évaluation de programme éducatif de Stufflebeam (1981) communément appelé modèle CIPP. Les résultats de l’analyse s’appuient sur 70 questionnaires et 37 entrevues. En vue de répondre aux questions de recherche, les données recueillies sont analysées et interprétées à partir d’indicateurs et selon des critères définis. La démarche d’analyse des résultats s’est effectuée en deux étapes. D'abord, les données des questionnaires et des entrevues fournies par les diplômés, les enseignants et les concepteurs ont été analysées ainsi que celles du dossier scolaire des étudiants inscrits au programme. Ensuite, l’examen a porté sur les données des questionnaires recueillies auprès des directions d’hôpitaux. Les avis de tous les répondants sur les améliorations à apporter au programme sont analysés pour rendre compte de leurs recommandations à ce sujet. Tout au long de l’analyse des résultats, les données des questionnaires et des entrevues sont présentées à la fois. Le jugement sur l’efficacité du programme de formation Administration et enseignement de l’ENDSS est établi par l’analyse d’indicateurs reliés aux quatre types d'évaluation proposés par Stufflebeam (1981). Les diplômés et les concepteurs jugent que la formation est adéquate pour l’exercice de la fonction de chef de services des soins infirmiers. Par contre, les enseignants sont très partagés sur cette question, puisque près de la moitié d'entre eux expriment un avis favorable tandis que les autres ont une opinion contraire. Les diplômés apparaissent très partagés par rapport à la cohérence apparente entre les objectifs de stage d’administration hospitalière et les compétences à développer, alors que les enseignants et les concepteurs expriment plus largement une opinion négative. La cohérence entre les notions du module de Management des services de santé et l’exercice de la fonction de chef de services des soins infirmiers est jugée plus forte en ce qui concerne plusieurs notions, par les diplômés, les enseignants et les concepteurs. La majorité des diplômés et des enseignants jugent que la supervision offerte aux étudiants est insatisfaisante. Les diplômés et les enseignants croient que la disponibilité des ressources didactiques à la bibliothèque ne facilite pas les apprentissages. Tandis que les concepteurs, en proportion plus élevée, expriment le même jugement. Les diplômés et les enseignants sont divisés sur la question de l’équilibre entre le nombre d’heures alloué à la théorie et à la formation pratique. Tandis que la majorité des concepteurs croient qu’il n’y a pas d'équilibre entre le nombre d'heures consacré aux cours et à la formation pratique. Les diplômés et les enseignants expriment une opinion très positive sur la qualité des rapports sociaux des étudiants entre eux, avec les enseignants et le personnel administratif. Tandis que les concepteurs ont une opinion plutôt négative à ce sujet. Les diplômés, de même que les enseignants jugent en majorité, que la supervision des stages offerte aux étudiants est insatisfaisante. Ces opinions convergent avec celles de la grande majorité des concepteurs. Selon les diplômés, le travail de groupe, de même que les études de cas sont les méthodes les plus pertinentes dans la formation de chef de service des soins infirmiers. Pour les enseignants et les concepteurs c'est le travail de groupe qui est la méthode la plus pertinente pour faire acquérir des connaissances. Parmi l’ensemble des inscrits, incluant les étudiants sénégalais et étrangers, 104 d’entre eux ont obtenu un diplôme. Subséquemment, seuls 2 étudiants sur les 106 inscrits au programme ont échoué. Les enseignants, les diplômés et les concepteurs sont tous satisfaits du programme de formation Administration et enseignement de l’ENDSS. Les directions d'hôpitaux sont partagées quant à elles, à l’idée selon laquelle les étudiants sont préparés aux fonctions de chef de service des soins infirmiers. En plus, selon la grande majorité des directions le programme de formation ne répond pas à la stratégie de la réforme hospitalière. Elles affirment à l’unanimité qu’elles n’ont pas été associées au processus d’élaboration du programme et sont d’accord que, de manière générale, la formation reçue par le chef de services des soins infirmiers est de qualité. Unanimement, les directions d’hôpitaux jugent que des notions devraient être ajoutées ou améliorées au programme de formation Administration et enseignement de l’ENDSS. L’interprétation des données révèle la complexité qui entoure l’importance de l’équilibre du volume horaire à consacrer à la théorie et à la pratique dans un programme de formation. En plus, les résultats sur les connaissances à acquérir par les diplômés durant la formation montrent un besoin élevé de perfectionnement voire d’enseignement plus poussé du contenu des notions Système d’information sanitaire et Introduction à l’informatique, Introduction au management; Élaboration de programme et Administration hospitalière. Un choix approprié de terrain où l’étudiant pourrait réaliser les objectifs d’apprentissage, une sélection de la période adéquate pour le stage, de même qu’un encadrement signifiant, seraient le gage d’un stage profitable pour l’étudiant. Nous estimons que cette recherche a ouvert des pistes à des perspectives de recherches reliées au développement professionnel des futurs chefs de service des soins infirmiers. Mots clés : évaluation de programme, acquisition de connaissances, développement des compétences, administration des soins infirmiers, programme de deuxième cycle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le domaine des systèmes de référence quantiques, dont les dernière avancées sont brièvement présentées au chapitre 1, est extrêmement pertinent à la compréhension de la dégradation des états quantiques et de l’évolution d’instruments de mesures quantiques. Toutefois, pour arriver à comprendre formellement ces avancées et à apporter une contribution originale au domaine, il faut s’approprier un certain nombre de concepts physiques et mathématiques, in- troduits au chapitre 2. La dégradation des états quantiques est très présente dans le contrôle d’états utiles à l’informatique quantique. Étant donné que ce dernier tente de contrôler des sys- tèmes à deux états, le plus souvent des moments cinétiques, l’analyse des systèmes de référence quantiques qui les mesurent s’avère opportune. Puisque, parmi les plus petits moments ciné- tiques, le plus connu est de s = 1 et que son état le plus simple est l’état non polarisé, l’étude 2 du comportement d’un système de référence mesurant successivement ce type de moments ci- nétiques constitue le premier pas à franchir. C’est dans le chapitre 3 qu’est fait ce premier pas et il aborde les questions les plus intéressantes, soit celles concernant l’efficacité du système de référence, sa longévité et leur maximum. La prochaine étape est de considérer des états de moments cinétiques polarisés et généraux, étape qui est abordée dans le chapitre 4. Cette fois, l’analyse de la dégradation du système de référence est un peu plus complexe et nous pouvons l’inspecter approximativement par l’évolution de certains paramètres pour une certaine classe d’états de système de référence. De plus, il existe une interaction entre le système de référence et le moment cinétique qui peut avoir un effet sur le système de référence tout à fait comparable à l’effet de la mesure. C’est cette même interaction qui est étudiée dans le chapitre 5, mais, cette fois, pour des moments cinétiques de s = 1. Après une comparaison avec la mesure, il devient manifeste que les ressemblances entre les deux processus sont beaucoup moins apparentes, voire inexistantes. Ainsi, cette ressemblance ne semble pas générale et semble accidentelle lorsqu’elle apparaît.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Traditionnellement associée à la reproduction féminine, l'ocytocine (OT), une hormone peptidique synthétisée par les noyaux paraventriculaire et supraoptique de l'hypothalamus et sécrétée par l'hypophyse postérieure (neurohypophyse), a été récemment revue et a été démontrée avoir plusieurs nouveaux rôles dans le système cardio-vasculaire. En effet, notre laboratoire a montré que l’OT peut induire la différenciation des cellules souches embryonnaires (CSE) en cardiomyocytes (CM) fonctionnels. À l’aide du modèle cellulaire embryonnaire carcinomateux de souris P19, il a été démontré que ce processus survenait suite à la libération de la guanosine monophosphate cyclique (GMPc) dépendante du monoxyde d’azote. De même, il est connu que le peptide natriurétique auriculaire (ANP), un peptide produit, stocké et sécrété par les myocytes cardiaques, peut aussi induire la production du GMPc. De nombreuses études ont démontré que le cœur ayant subi un infarctus pouvait être régénéré à partir d’une population isolée de cellules souches et progénitrices transplantées. Une de ces populations de cellules, fréquemment isolées à partir d'organes provenant d'animaux aux stades de développement embryonnaire et adulte, appelée « Side Population » (SP), sont identifiées par cytométrie en flux (FACS) comme une population de cellules non marquées par le colorant fluorescent Hoechst 33342 (Ho). Les cellules SP expriment des protéines de transport spécifiques, de la famille ATP-binding cassette, qui ont pour rôle de transporter activement le colorant fluorescent Ho de leur cytoplasme. La sous-population de cellules SP isolée du cœur affiche un potentiel de différenciation cardiaque amélioré en réponse à un traitement avec l’OT. Récemment, l'hétérogénéité phénotypique et fonctionnelle des CSE a été mise en évidence, et cela a été corrélé avec la présence de sous-populations cellulaires ressemblant beaucoup aux cellules SP issues du cœur. Puisque l’ANP peut induire la production du GMPc et qu’il a été démontré que la différenciation cardiaque était médiée par la production du GMPc, alors nous émettons l'hypothèse selon laquelle l’ANP pourrait induire la différenciation cardiaque. Étant donné que les CSE sont composés d’un mélange de différents types cellulaires alors nous émettons aussi l’hypothèse selon laquelle l’utilisation d’une sous-population de CSE plus homogène renforcerait le potentiel de différenciation de l'ANP. Méthodes : Les SP ont été isolées des cellules P19 par FACS en utilisant la méthode d’exclusion du colorant fluorescent Ho. Puis, leur phénotype a été caractérisé par immunofluorescence (IF) pour les marqueurs de l’état indifférencié, d’auto-renouvellement et de pluripotence octamer-binding transcription factor 4 (OCT4) et stage-specific embryonic antigen-1 (SSEA1). Ensuite, la dose pharmacologique optimale d’ANP a été déterminée via des tests de cytotoxicité sur des cellules P19 (MTT assay). Pour induire la différenciation en cardiomyocytes, des cellules à l’état de sphéroïdes ont été formées à l’aide de la technique du « Hanging-Drop » sous la stimulation de l’ANP pendant 5 jours. Puis, des cryosections ont été faites dans les sphéroïdes afin de mettre en évidence la présence de marqueurs de cellules cardiaques progénitrices tels que GATA4, Nkx2.5 et un marqueur mitochondrial spécifique Tom22. Ensuite, les cellules SP P19 ont été stimulées dans les sphéroïdes cellulaires par le traitement avec de l'ANP (10-7 M) ou de l’OT (10-7 M), de l’antagoniste spécifique du guanylate cyclase particulé (GCp) A71915 (10-6 M), ainsi que la combinaison des inducteurs OT+ANP, OT+A71915, ANP+A71915. Après la mise en culture, la différenciation en cardiomyocytes a été identifié par l’apparition de colonies de cellules battantes caractéristiques des cellules cardiaques, par la détermination du phénotype cellulaire par IF, et enfin par l’extraction d'ARN et de protéines qui ont été utilisés pour le dosage du GMPc par RIA, l’expression des ARNm par RT-PCR et l’expression des protéines par immunobuvardage de type western. Résultats : Les sphéroïdes obtenus à l’aide de la technique du « Hanging-Drop » ont montré une hausse modeste de l’expression des ARNm suivants : OTR, ANP et GATA4 comparativement aux cellules cultivées en monocouches. Les sphéroïdes induits par l’ANP ont présenté une augmentation significative des facteurs de transcription cardiaque GATA4 et Nkx2.5 ainsi qu’un plus grand nombre de mitochondries caractérisé par une plus grande présence de Tom22. De plus, L’ANP a induit l’apparition de colonies de cellules battantes du jour 7 (stade précoce) au jour 14 (stade mature) de façon presque similaire à l’OT. Cependant, la combinaison de l’ANP avec l’OT n’a pas induit de colonies de cellules battantes suggérant un effet opposé à celui de l’OT. Par IF, nous avons quantifié (nombre de cellules positives) et caractérisé, du jour 6 au jour 14 de différenciation, le phénotype cardiaque de nos cellules en utilisant les marqueurs suivants : Troponine T Cardiaque, ANP, Connexines 40 et 43, l’isoforme ventriculaire de la chaîne légère de myosine (MLC-2v), OTR. Les SP différenciées sous la stimulation de l’ANP ont montré une augmentation significative du GMPc intracellulaire comparé aux cellules non différenciées. À notre grande surprise, l’antagoniste A71915 a induit une plus grande apparition de colonies de cellules battantes comparativement à l’OT et l’ANP à un jour précoce de différenciation cardiaque et l’ajout de l’OT ou de l’ANP a potentialisé ses effets, augmentant encore plus la proportion de colonies de cellules battantes. De plus, la taille des colonies de cellules battantes était encore plus importante que sous la simple stimulation de l’OT ou de l’ANP. Les analyses radioimmunologiques dans les cellules SP P19 stimulés avec l’ANP, A71915 et la combinaison des deux pendant 15min, 30min et 60min a montré que l’ANP stimule significativement la production du GMPc, cependant A71915 n’abolit pas les effets de l’ANP et celui-ci au contraire stimule la production du GMPc via des effets agonistes partiels. Conclusion : Nos résultats démontrent d’une part que l’ANP induit la différenciation des cellules SP P19 en CM fonctionnels. D’autre part, il semblerait que la voie de signalisation NPRA-B/GCp/GMPc soit impliquée dans le mécanisme de différenciation cardiaque puisque l’abolition du GMPc médiée par le GCp potentialise la différenciation cardiaque et il semblerait que cette voie de signalisation soit additive de la voie de signalisation induite par l’OT, NO/GCs/GMPc, puisque l’ajout de l’OT à l’antagoniste A71915 stimule plus fortement la différenciation cardiaque que l’OT ou l’A71915 seuls. Cela suggère que l’effet thérapeutique des peptides natriurétiques observé dans la défaillance cardiaque ainsi que les propriétés vasodilatatrices de certains antagonistes des récepteurs peptidiques natriurétiques inclus la stimulation de la différenciation des cellules souches en cardiomyocytes. Cela laisse donc à penser que les peptides natriurétiques ou les antagonistes des récepteurs peptidiques natriurétiques pourraient être une alternative très intéressante dans la thérapie cellulaire visant à induire la régénération cardiovasculaire.