955 resultados para Populations autochtones du Nord du Canada
Resumo:
La transplantation de sang de cordon ombilical (TSCO) est utilisée pour traiter les enfants atteints de maladies hématologiques en l’absence de donneurs apparentés compatibles. Elle est associée avec des risques plus élevés d’échec de greffe et d’infections opportunistes dans les premiers mois qui suivent la transplantation en comparaison avec une greffe de moelle osseuse. Par contre, la TSCO comporte un risque plus faible de maladie du greffon contre l’hôte et une incidence comparable de rechute de leucémie. Ces quatre complications impliquent directement les lymphocytes T. Dans le but de mieux comprendre le schéma particulier des évènements qui suivent la TSCO et d’améliorer le pronostic des patients, nous avons étudié le potentiel fonctionnel, la persistance et la reconstitution antivirale des lymphocytes T au sein d’un groupe d’enfants transplantés de sang de cordon ombilical (SCO). Étant donné que le SCO contient une majorité de lymphocytes T naïfs, nous avons étudié les lymphocytes T spécifiques au HLA-A2:Melan-A26-35 A27L; seul répertoire naïf et abondant caractérisé chez l’homme. Nous avons observé que les lymphocytes T du SCO se différencient en populations effectrices, s’oligoclonalisent, produisent de l’IFN-γ et lysent spécifiquement leur cible suite à la stimulation. Néanmoins, ces cellules produisent moins d’IFN-γ et sont moins bifonctionnelles que leurs homologues issus du sang périphérique d’adultes. Chez les patients, les lymphocytes T du SCO s’épuisent après la TSCO : ils s’oligoclonalisent dramatiquement, sont principalement en différenciation terminale, et une importante fréquence exprime PD-1 (« programmed death-1 ») dans les 3 à 6 premiers mois post-greffe. Très peu de patients sont capables de développer des réponses antivirales durant cette période et la fréquence de lymphocytes T qui expriment PD-1 semble aussi avoir un impact sur le risque subséquent de faire une rechute de leucémie. La deuxième vague de lymphocytes T émergeant à 6 mois post-TSCO mène à une population fonctionnelle et diversifiée. En conclusion, la fonctionnalité des lymphocytes T présents dans les 3 à 6 premiers mois post-TSCO doit être rétablie pour améliorer les risques d’infections opportunistes et de rechute de leucémie.
Resumo:
Un facteur d’incertitude de 10 est utilisé par défaut lors de l’élaboration des valeurs toxicologiques de référence en santé environnementale, afin de tenir compte de la variabilité interindividuelle dans la population. La composante toxicocinétique de cette variabilité correspond à racine de 10, soit 3,16. Sa validité a auparavant été étudiée sur la base de données pharmaceutiques colligées auprès de diverses populations (adultes, enfants, aînés). Ainsi, il est possible de comparer la valeur de 3,16 au Facteur d’ajustement pour la cinétique humaine (FACH), qui constitue le rapport entre un centile élevé (ex. : 95e) de la distribution de la dose interne dans des sous-groupes présumés sensibles et sa médiane chez l’adulte, ou encore à l’intérieur d’une population générale. Toutefois, les données expérimentales humaines sur les polluants environnementaux sont rares. De plus, ces substances ont généralement des propriétés sensiblement différentes de celles des médicaments. Il est donc difficile de valider, pour les polluants, les estimations faites à partir des données sur les médicaments. Pour résoudre ce problème, la modélisation toxicocinétique à base physiologique (TCBP) a été utilisée pour simuler la variabilité interindividuelle des doses internes lors de l’exposition aux polluants. Cependant, les études réalisées à ce jour n’ont que peu permis d’évaluer l’impact des conditions d’exposition (c.-à-d. voie, durée, intensité), des propriétés physico/biochimiques des polluants, et des caractéristiques de la population exposée sur la valeur du FACH et donc la validité de la valeur par défaut de 3,16. Les travaux de la présente thèse visent à combler ces lacunes. À l’aide de simulations de Monte-Carlo, un modèle TCBP a d’abord été utilisé pour simuler la variabilité interindividuelle des doses internes (c.-à-d. chez les adultes, ainés, enfants, femmes enceintes) de contaminants de l’eau lors d’une exposition par voie orale, respiratoire, ou cutanée. Dans un deuxième temps, un tel modèle a été utilisé pour simuler cette variabilité lors de l’inhalation de contaminants à intensité et durée variables. Ensuite, un algorithme toxicocinétique à l’équilibre probabiliste a été utilisé pour estimer la variabilité interindividuelle des doses internes lors d’expositions chroniques à des contaminants hypothétiques aux propriétés physico/biochimiques variables. Ainsi, les propriétés de volatilité, de fraction métabolisée, de voie métabolique empruntée ainsi que de biodisponibilité orale ont fait l’objet d’analyses spécifiques. Finalement, l’impact du référent considéré et des caractéristiques démographiques sur la valeur du FACH lors de l’inhalation chronique a été évalué, en ayant recours également à un algorithme toxicocinétique à l’équilibre. Les distributions de doses internes générées dans les divers scénarios élaborés ont permis de calculer dans chaque cas le FACH selon l’approche décrite plus haut. Cette étude a mis en lumière les divers déterminants de la sensibilité toxicocinétique selon le sous-groupe et la mesure de dose interne considérée. Elle a permis de caractériser les déterminants du FACH et donc les cas où ce dernier dépasse la valeur par défaut de 3,16 (jusqu’à 28,3), observés presqu’uniquement chez les nouveau-nés et en fonction de la substance mère. Cette thèse contribue à améliorer les connaissances dans le domaine de l’analyse du risque toxicologique en caractérisant le FACH selon diverses considérations.
Resumo:
Le Sénégal est confronté à plusieurs enjeux environnementaux accentués par l’exode rural, la croissance démographique et l’urbanisation galopante. Dans la capitale de Dakar, les populations sont exposées à des risques industriels, sanitaires et environnementaux importants. Face aux conséquences néfastes des phénomènes de la dégradation de l’environnement en milieu urbain, il convient de chercher à mieux comprendre ce que l’environnement représente pour les populations notamment chez la jeune génération qui aura à vivre avec les conséquences liées à la détérioration de l'environnement léguée par les générations précédentes. S’appuyant sur la théorie des représentations sociales, cette recherche a comme objectifs 1) d’explorer les représentations sociales de l’environnement chez les jeunes sénégalais âgés de 9 à 16 ans en milieu scolaire situé en milieu urbain, et ce, dans différentes écoles de la ville de Dakar ; 2) d’étudier les connaissances, les sensibilités et les comportements des jeunes en matière écologique et environnementale; 3) finalement de déterminer les principaux agents responsables de la socialisation des jeunes dakarois en matière d’environnement. Le tout analysé en fonction de trois variables soit l’âge, le genre et le type d’école. La méthodologie de notre recherche est essentiellement qualitative de type exploratoire et elle s’appui principalement sur des questionnaires et des dessins. Les résultats montrent qu’en ce qui concerne les représentations sociales de l’environnement des jeunes dakarois, à travers l’analyse du discours, que l’environnement est représenté par les catégories typologiques dites « négative » « utilitariste » et « milieu de vie ». Ces représentations sociales varient à divers degrés en fonction du groupe d’âge, du genre et du type d’école. Les jeunes sont également nombreux à utiliser un vocabulaire associé aux notions liées à l’environnement naturel. De son côté, l’analyse picturale, qui concorde avec l’analyse lexicale, montre que les catégories typologiques de l’environnement sont liées au « milieu de vie », à l’« environnement ressource » et à l’« environnement nature » et ce, peu importe l’âge, le type d’école et le genre.
Resumo:
Sous le régime du Code civil du Bas-Canada, le devoir d’exécuter le contrat de bonne foi était une condition implicite de tout contrat suivant l’article 1024 C.c.B.C. Le 1er janvier 1994, ce devoir a toutefois été codifié à l’article 1375 du Code civil du Québec. Parallèlement à ce changement, le contrat a subi plusieurs remises en question, principalement en raison des critiques émises contre la théorie de l’autonomie de la volonté. En réponse à ces critiques, la doctrine a proposé deux théories qui supposent une importante coopération entre les contractants durant l’exécution du contrat, à savoir le solidarisme contractuel et le contrat relationnel. La notion de bonne foi a aussi évolué récemment, passant d’une obligation de loyauté, consistant généralement en une abstention ou en un devoir de ne pas nuire à autrui, à une obligation plus active d’agir ou de faciliter l’exécution du contrat, appelée devoir de coopération. Ce devoir a donné lieu à plusieurs applications, dont celles de renseignement et de conseil. Ce mémoire étudie la portée et les limites du devoir de coopération. Il en ressort que le contenu et l’intensité de ce devoir varient en fonction de critères tenant aux parties et au contrat. Une étude plus particulière des contrats de vente, d’entreprise et de franchise ainsi que des contrats conclus dans le domaine informatique indique que le devoir de coopération est plus exigeant lorsque le contrat s’apparente au contrat de type relationnel plutôt qu’au contrat transactionnel. Le créancier peut, entre autres choses, être obligé d’« aider » son débiteur défaillant et même de renégocier le contrat devenu déséquilibré en cours d’exécution, bien que cette dernière question demeure controversée. Le devoir de coopération n’est cependant pas illimité parce qu’il s’agit d’une obligation de moyens et non de résultat. Il est également limité, voire inexistant, lorsque le débiteur de cette obligation est tenu à d’autres obligations comme un devoir de réserve ou de non-ingérence, lorsque le cocontractant est de mauvaise foi ou qu’une partie résilie unilatéralement le contrat ou décide de ne pas le renouveler.
Resumo:
En concevant que toute société a deux clivages dominants, l’un social et l’autre partisan, cette thèse développe une théorie sur le changement institutionnel. L’hypothèse initiale, selon laquelle les groupes sociaux créés par le premier clivage agiront pour restreindre le changement institutionnel et que le changement aura lieu lors de l’émergence d’un groupe partisan capable de croiser le clivage social, fut testée par les processus traçant les changements qui furent proposés et qui ont eu lieu au sein des conseils nominés en Amérique du Nord britannique. Ces conseils furent modifiés un bon nombre de fois, devenant les chambres secondaires de législatures provinciales avant d’être éventuellement abolies. La preuve supporte l’hypothèse, bien qu’il ne soit pas suffisant d’avoir un groupe partisan qui puisse croiser le clivage qui mène le changement : un débat partisan sur le changement est nécessaire. Ceci remet aussi en cause la théorie prédominante selon laquelle les clivages sociaux mènent à la formation de partis politiques, suggérant qu’il est plus bénéfique d’utiliser ces deux clivages pour l’étude des institutions.
Resumo:
La réalisation des objectifs d’Éducation pour tous en Haïti requiert impérativement, entre autres, une campagne massive et accélérée de formation d’enseignants - formation à la fois initiale et en cours d’emploi. Malheureusement, les structures actuelles sont loin d’être en mesure de répondre à cette demande. Il faudra donc recourir à d’autres modalités de formation, particulièrement celles utilisant les TIC (technologies de l’information et de la communication). Cependant, dans ce domaine, il est fort tentant de continuer à copier ce qui se fait en France, au Canada ou aux États-Unis, et d’allonger ainsi la liste d’échecs dus à une adaptation déficiente ou inexistante. Dans un souci de maximiser les chances de succès, il est important d’examiner l’adéquation des stratégies adoptées au contexte et à l’apprenant haïtiens. Cette recherche étudie les caractéristiques des enseignants haïtiens des deux premiers cycles de l’enseignement fondamental (primaire) en tant qu’apprenants, caractéristiques susceptibles de constituer des barrières ou des facteurs facilitants internes à une intégration efficace des TIC dans leur formation. Dans une première phase quantitative, une enquête a été administrée en 2009-2010 à 176 enseignants. L’analyse des données recueillies a permis de faire ressortir trois tendances fortes : une attitude positive par rapport aux innovations et aux TIC, des sources intrinsèques de motivation et une forte distance hiérarchique ; il faut aussi signaler deux autres résultats importants : le peu de familiarité avec l’ordinateur et l’adoption massive du cellulaire ; les réponses étaient plus partagées au niveau de la conception de l’enseignement et de l’apprentissage et de la dimension individualisme-collectivisme. Une analyse factorielle a fait émerger quatre facteurs : la capacité d’utiliser les TIC, le désir de changement, la conception du rôle du formateur et la distance hiérarchique. Suite à cette enquête, une phase qualitative comportant sept entrevues individuelles avec des spécialistes de la formation des enseignants en Haïti et trois groupes de discussion avec des enseignants du fondamental a été effectuée à la fin de 2010. Cette phase avait pour but d’enrichir, de compléter, d’expliquer, de confirmer et d’illustrer les résultats quantitatifs. Malgré leur regard plus sévère, les spécialistes en formation des enseignants ont largement contribué à l’interprétation des résultats, particulièrement ceux concernant l’attitude par rapport aux innovations et aux TIC, la dimension individualisme-collectivisme et la conception de l’enseignement et de l’apprentissage. Quant aux participants aux groupes de discussion, ils ont globalement appuyé les résultats de la phase quantitative, mais en expliquant et en nuançant certains aspects. Ils ont particulièrement renforcé l’importance de deux facteurs qui ne figuraient pas dans la liste initiale et qui ont émergé de l’analyse factorielle : le désir de changement et la conception du rôle du formateur. Ils ont également apporté des éclaircissements fort pertinents sur la distance hiérarchique. .
Resumo:
La perchaude (Perca flavescens) constitue une ressource socioéconomique de grande importance dans le Lac Saint-Pierre (Québec, Canada). Bien que ce lac fluvial soit désigné réserve de la biosphère par l’UNESCO, le statut de la perchaude est préoccupant. Afin de permettre à l’espèce de persister en fonction des diverses pressions anthropiques, il est important de comprendre sa dynamique populationnelle et les mécanismes qui en sont responsables. La perchaude est connue pour sa philopatrie ; le fait de toujours se reproduire à son site de naissance peut entraîner la subdivision d’une espèce en de multiples populations, où chacune pourra être pourvue d’adaptations locales distinctes. Il est possible d’étudier ces processus à l’aide des signaux génétiques associés à la reproduction des individus. Toutefois, une faible différentiation génétique entre les populations du Lac Saint-Pierre est envisagée en raison de la colonisation récente du système (moins de 8000 ans). L’objectif de cette étude est de déterminer s’il existe plusieurs populations de perchaude dans le Lac Saint-Pierre. Les simulations réalisées ont révélé que l’utilisation de marqueurs AFLP (amplified fragment length polymorphism), permettant une analyse globale du génome, affiche une meilleure détection de la différentiation des populations que celle des marqueurs microsatellites. Afin d’associer les individus à leur site de naissance, la méthode d’AFLP et des microsatellites ont été utilisées sur des larves capturées suite à l’éclosion des oeufs. Trois analyses distinctes d’AFLP ont indiqué une corrélation entre la composition génétique des individus et des sites géographiques, confirmant ainsi la présence de plusieurs populations sympatriques dans le Lac Saint-Pierre, découlant vraisemblablement de la philopatrie de l’espèce. L’absence de différentiation génétique relatée par les marqueurs microsatellites vient confirmer l’importance du choix des marqueurs génétiques. Bien que la différentiation génétique observée soit relativement faible, la gestion de la perchaude devrait tenir compte de la dynamique des populations distinctes dans ce système.
Resumo:
Objectif: Définir l’effet des lipides et du traitement de la dyslipidémie sur les cancers de la prostate et de la vessie en utilisant différents devis d’étude et en tenant compte de la présence de plusieurs biais, particulièrement le biais du temps immortel. Devis: Le premier volet utilise un devis rétrospectif de type cas témoins. Un questionnaire semi-quantitatif de fréquence de consommation alimentaire validé a été utilisé. Le génotype COX2 de neuf polymorphisme nucléotidique unique (SNP) a été mesuré avec une plateforme Taqman. Des modèles de régression logistique non conditionnelle ont été utilisés pour comparer le risque de diagnostic d’un cancer de la prostate et l’interaction. Le deuxième volet utilise un devis rétrospectif de type cohorte basée sur les données administratives de la Régie de l’assurance-maladie du Québec (RAMQ). Des modèles de régression de Cox ont été employés pour mesurer l’association entre les statines et l’évolution du cancer de la vessie. Le troisième volet, porte un regard méthodologique sur le biais du temps immortel en examinant sa présence dans la littérature oncologique. Son importance est illustrée avec les données de la cohorte du deuxième volet, et les méthodes de correction possibles son appliquées. Résultats: L’étude du premier volet démontre qu’une diète riche en acides gras oméga-3 d’origine marine était fortement associée à un risque diminué de cancer de la prostate agressif (p<0.0001 pour la tendance). Le ratio de cote pour le cancer de la prostate du quartile supérieur d’oméga-3 était de 0.37 (IC 95% = 0.25 à 0.54). L’effet diététique était modifié par le génotype COX-2 SNP rs4648310 (p=0.002 pour l’interaction). En particulier, les hommes avec faible apport en oméga-3 et la variante rs4648310 avait un risque accru de cancer de la prostate (ratio de cote = 5.49, IC 95%=1.80 à 16.7), effet renversé par un apport en oméga-3 plus grand. L’étude du deuxième volet a observé que l’utilisation de statines est associée à une diminution du risque de progression du cancer de la vessie (risque relatif = 0.44, IC 95% = 0.20 à 0.96, p=0.039). Cette association était encore plus forte pour le décès de toute cause (HR = 0.57, 95% CI = 0.43 to 0.76, p=0.0001). L’effet des statines semble être dose-dépendant. L’étude du troisième volet démontre que le biais du temps immortel est fréquent et important dans les études épidémiologiques oncologiques. Il comporte plusieurs aspects dont certains sont mieux prévenus au stade du choix du devis d’étude et différentes méthodes statistiques permettent un contrôle de ce biais. Conclusion: 1) Une diète riche en oméga-3 aurait un effet protecteur pour le cancer de la prostate. 2) L’utilisation de statines aurait un effet protecteur sur la progression du cancer non invasif de la vessie. Les lipides semblent avoir un effet sur les cancers urologiques.
Resumo:
L’approche par compétences est de plus en plus choisie pour guider les curriculums universitaires de formation professionnelle. Accordant un intérêt primordial au développement des compétences, les responsables des programmes élaborés selon cette approche doivent déterminer les stratégies pédagogiques qui seront les plus efficaces et qui permettront une participation active de l’étudiant. Depuis plus de 30 années (Cameron et Mitchell, 1993; Wellard et Bethune, 1996), le journal d’apprentissage favorise la construction des savoirs en pratique clinique et le développement de la pensée réflexive, une compétence nécessaire à la pratique des infirmières qui s’inspirent d’une vision spécifique de la discipline, comme celle du modèle de McGill (Kravitz et Frey, 1989; Thorpe, 2003). Malgré cela, les études sur les perceptions d’étudiants relativement au journal d’apprentissage sont rares, et ce, surtout au Canada (Epp, 2008). Il importe de s’intéresser aux perceptions d’étudiants afin d’atteindre l’efficacité optimale de l’outil. Le but de cette étude était d’explorer les perceptions d’étudiants au baccalauréat en sciences infirmières de l’utilisation du journal d’apprentissage. Elle a été réalisée auprès d’étudiants de 2e et 3e année, selon un devis de type qualitatif exploratoire. Les participants (n=52) ont rempli un formulaire constitué d’une mise en situation comprenant 5 questions ouvertes. L’analyse des données a fait émerger trois thèmes principaux de l’utilisation du journal soit : un outil personnel, un outil de communication et un outil d’apprentissage de la pratique. Des recommandations pour la formation et la recherche sont formulées.
Resumo:
Depuis le début des années 90, le projet génome humain a permis l’émergence de nombreuses techniques globalisantes porteuses du suffixe –omique : génomique, transcriptomique, protéomique, épigénomique, etc.… L’étude globale de l’ensemble des phénotypes humains (« phénome ») est à l’origine de nouvelles technologies constituant la « phénomique ». L’approche phénomique permet de déterminer des liens entre des combinaisons de traits phénomiques. Nous voulons appliquer cette approche à l’étude des malformations humaines en particulier leurs combinaisons, ne formant des syndromes, des associations ou des séquences bien caractérisés que dans un petit nombre de cas. Afin d’évaluer la faisabilité de cette approche, pour une étude pilote nous avons décidé d’établir une base de données pour la description phénotypique des anomalies foetales. Nous avons effectué ces étapes : o Réalisation d’une étude rétrospective d’une série d’autopsies de foetus au CHU Sainte- Justine (Montréal, QC, Canada) entre 2001-2006 o Élaboration de trois thésaurus et d’une ontologie des anomalies développementales humaines o Construction une base de données en langage MySQL Cette base de données multicentrique accessible sur (http://www.malformations.org), nous permet de rechercher très facilement les données phénotypiques des 543 cas observés porteurs d’une anomalie donnée, de leur donner une description statistique et de générer les différents types d’hypothèses. Elle nous a également permis de sélectionner 153 cas de foetus malformés qui font l’objet d’une étude de micropuce d’hybridation génomique comparative (aCGH) à la recherche d’une anomalie génomique.
Resumo:
Réalisé en cotutelle avec l'Université Montpellier II
Resumo:
Les nouvelles technologies de l’information et des communications occupent aujourd’hui une place importante dans les entreprises, quelle que soit la taille ou le(s) domaine(s) d’activité de ces dernières. Elles participent de manière positive au développement de la vie économique. Elles sont toutefois à l’origine d’une nouvelle forme de criminalité qui menace la sécurité et l’intégrité des systèmes informatiques dans l’entreprise. Celle-ci est d’une ampleur difficile à évaluer, mais surtout difficile à maîtriser avec les dispositions législatives déjà en place, laissant par là même apparaître qu’une adaptation au niveau juridique est inévitable. Certains pays industrialisés ont ainsi décidé de mettre en place un cadre juridique adéquat pour garantir aux entreprises la sécurité de leurs systèmes informatiques. Notre étude va justement porter sur les dispositifs mis en place par deux systèmes juridiques différents. Forcés de prendre en compte une réalité nouvelle – qui n’existait pas nécessairement il y a plusieurs années –, la France et le Canada ont décidé de modifier respectivement leurs codes pénal et criminel en leur ajoutant des dispositions qui répriment de nouvelles infractions. À travers cet exposé, nous allons analyser les infractions qui portent atteinte à la sécurité du système informatique de l’entreprise à la lumière des outils juridiques mis en place. Nous allons mesurer leur degré d’efficacité face à la réalité informatique. En d’autres termes, il s’agit pour nous de déterminer si le droit va répondre ou non aux besoins de l’informatique.
Resumo:
Des données de Statistique Canada montrent que le Québec a perdu 86 700 emplois manufacturiers nets entre 2004 et 2008, ce qui représente un recul de 13,8% (Bernard, 2009). Un dollar canadien fort, la concurrence internationale, les délocalisations de la production et les consolidations globales d'opérations sont souvent mentionnés comme étant les causes des difficultés du secteur manufacturier canadien - principalement concentré au Québec et en Ontario. La crise financière amorcée à l’été 2007, a contribué à aggraver la crise propre au secteur manufacturier dont les origines remontent au début des années 2000 (Weir, 2007; AgirE, 2008; Pilat et al., 2006). Cette recherche examine le processus de restructuration du secteur manufacturier québécois de manière détaillée au niveau des établissements afin d’en évaluer l’ampleur et la nature entre 2003 et 2008. Les données colligées permettent de poser un regard unique et original sur les restructurations ayant impliqué des licenciements collectifs au Québec. Ces données sont issues de deux sources. D'abord, nous avons utilisé une liste d‘entreprises qui ont envoyé un avis de licenciement collectif au Ministère de l’Emploi et de la Solidarité sociale du Québec entre 2003 et 2008. En second lieu, nous avons eu recours aux archives en ligne des médias pour trouver d’autres évènements de restructuration non rapportés par le ministère ainsi que pour obtenir des informations complémentaires sur les évènements déjà compilés dans la liste du ministère. Notre méthodologie de recherche et notre typologie analytique des types de restructuration sont basées sur celles développées par l’European Monitoring Center on Change (EMCC) et reprises dans certaines études comme celles de Bronfenbrenner et Luce (2004) et Hickey et Schenk (soumis). Les résultats, présentés en termes d’événements de restructuration et d’emplois perdus, sont ventilés en fonction de quelques variables (année d’occurrence, taille de l’établissement, sous-secteur d’activité, intensité technologique, région administrative, types de restructuration). Les raisons données par l’entreprise afin de justifier la restructuration ont aussi été colligées. Au cours de la période étudiée, nous avons identifié au total 1 631 évènements de restructurations dans le secteur manufacturier à travers toutes les régions du Québec, qui ont entraîné la perte de 129 383 emplois. Ainsi, 78 246 emplois ont été perdus suite à la réduction des activités de l‘établissement et 51 137 emplois l’ont été suite à la fermeture de leur établissement. La forme la plus fréquente de restructuration est la restructuration interne, suivi par la faillite/fermeture. Les types de restructuration qui ont engendré le plus de pertes d’emplois en moyenne par évènement sont dans l’ordre, la délocalisation, la sous-traitance, la consolidation d’activités ainsi que la fusion-acquisition. L’année 2008 fut celle où il y a eu le plus grand nombre de restructurations. Montréal et la Montérégie sont les régions qui ont le plus été touchées par la restructuration, les pertes d’emplois et les fermetures d’établissements. Les industries à faible intensité technologique ont davantage été frappées par la crise manufacturière. C’est le sous-secteur du papier et du bois qui connu le plus grand nombre d’événements de restructurations. Ce sous-secteur a aussi subi les pertes d’emplois les plus importantes, suivi par le sous-secteur du textile et du vêtement. Ces deux industries se partagent plus de la moitié des fermetures d’établissements. L’insuffisance de la demande (22,1%), la concurrence internationale (14,3%), la hausse de la valeur du dollar canadien (11,2%), la réorganisation interne de l’entreprise (11,1%), la rationalisation des coûts visant une augmentation de la profitabilité (10,1%) ainsi que les difficultés financières (9,9%) sont les motifs principaux donnés par les employeurs. Nos résultats montrent qu’il y a eu deux temps dans l’évolution de la restructuration du secteur manufacturier au Québec. Un premier temps au début de la période où des changements structurels profonds ont été observés dans certaines industries (p.ex. le bois-papier et le textile-vêtement) et un second temps, en fin de période caractérisé par des changements davantage liés à la conjoncture en raison de la crise économique dont les effets commençaient à se faire sentir à ce moment (Institut de la statistique du Québec, 2009a).
Resumo:
La prévalence du Staphylococcus aureus résistant à la méthicilline (SARM) a augmenté de façon dramatique dans les dernières années chez les patients atteints de fibrose kystique. Quoique le rôle du SARM dans la pathogénèse de l’atteinte respiratoire de la fibrose kystique ne soit pas clairement déterminé, certaines études récentes ont suggéré une association entre la persistance du SARM et le déclin accéléré de la fonction respiratoire. Cependant, l’importance clinique des diverses souches qui colonisent les patients atteints de fibrose kystique n’a pas encore été élucidée. Les objectifs de ce mémoire étaient de déterminer les effets d’une colonisation persistante par un SARM sur le statut clinique et respiratoire des enfants atteints de fibrose kystique. Également, nous tenions à étudier les caractéristiques des différentes souches de SARM dans cette population. Nous avons réalisé une étude rétrospective en analysant les données cliniques ainsi que les mesures de la fonction respiratoire chez les enfants atteints de fibrose kystique suivis à la Clinique de fibrose kystique du CHU Sainte-Justine entre 1996 et 2008 et ayant une colonisation persistante par un SARM. Afin de déterminer les souches qui colonisent cette population, nous avons effectué une caractérisation moléculaire des isolats du SARM. Nous avons identifié 22 patients avec une colonisation persistante par un SARM. Les résultats n’ont démontré aucun changement significatif en ce qui concernait le taux de déclin de la fonction respiratoire avant ou après l’acquisition du SARM. Cependant, la colonisation persistante par un SARM était associée à une augmentation du nombre d’hospitalisations pour une exacerbation pulmonaire. La plupart de nos patients étaient colonisés par le CMRSA-2, une souche épidémique au Canada. La présente étude suggère que la souche épidémique CMRSA-2 pouvait affecter l’évolution clinique des enfants atteints de fibrose kystique.
Resumo:
Le lien entre gouvernance des entreprises et droit de vote fait l’objet d’une littérature abondante en Amérique du Nord. Si cette attention portée au droit de vote n’est pas nouvelle, elle a néanmoins acquis une dimension supplémentaire en raison de la puissance économique et du rôle important qu’occupent les investisseurs institutionnels au Canada sur les marchés et dans l’actionnariat même des sociétés. Après avoir présenté à grands traits la composition de l’actionnariat des grandes entreprises canadiennes et la législation en matière de droit de vote, les discussions dont le droit de vote fait l’objet à l’heure actuelle sur le terrain de l’élection des administrateurs seront détaillées.