980 resultados para mesure de contrainte
Resumo:
Les nouvelles technologies jouent un rôle croissant dans notre société. Le droit s’est interrogé sur la façon de rendre possible l’utilisation du support électronique dans un monde où seule l’utilisation du support papier était possible jusqu’à peu. L’objectif était d’éviter que la loi par son attachement au support papier n’entrave l’utilisation des nouvelles technologies et plus largement le développement des échanges en ligne. Dans ce contexte, la Commission des Nations Unies pour le Développement du Commerce International (CNUDCI) a développé les principes de neutralité technologique et d’équivalence fonctionnelle aux termes desquels les écrits électroniques sont considérés comme équivalents à ceux papiers s’ils sont en mesure d’endosser les mêmes fonctions que ces derniers. Le législateur français, s’inspirant des travaux de la CNUDCI, a modifié sa législation pour permettre la reconnaissance de la valeur juridique des actes passés par voie électronique. La reconnaissance de la valeur juridique des actes conclus par voie électronique laisse cependant subsister certaines questions relatives la protection du consentement de celui qui contracte en ligne. Le législateur français a ainsi élaboré des règles formalistes et dérogatoires au droit commun concernant la conclusion des contrats électroniques pour protéger le consommateur en ligne.
Resumo:
Notre recherche vise à décrire les connaissances grammaticales élaborées par des élèves de première secondaire au cours de l’enseignement/apprentissage de l’accord du verbe. Cette description se fonde sur l’observation des interactions didactiques entre les élèves, et leur enseignant autour de l’objet de savoir « accord du verbe » : elle concerne plus particulièrement l’interaction entre les pôles « élève » et « savoir ». Notre recherche s’inscrit dans le courant de la grammaire pédagogique moderne. La théorie de la transposition didactique de Chevallard (1985/1991) constitue également la pierre angulaire de nos travaux : les concepts de transposition didactique externe (le passage du savoir savant au savoir à enseigner) et interne (le passage du savoir à enseigner au savoir effectivement enseigné) agissent à titre d’analyseurs des interactions didactiques. L’observation, la description et la théorisation des interactions didactiques imposent une démarche écologique pour la collecte des données. Pour notre recherche, les données ont été recueillies grâce à la captation vidéo de séquences didactiques portant sur l’accord du verbe : elles consistent en des interactions verbales entre élèves ou entre les élèves et leur enseignant. L’analyse des données s’est effectuée selon une perspective macro et micro : (1) L’analyse macro indique que les connaissances antérieures des élèves résistent à l’institutionnalisation des savoirs puisque le savoir enseigné n’est pas celui qui est exclusivement mobilisé. Les élèves recourent à un vaste éventail de connaissances de types procédural et déclaratif pour l’identification du verbe et du sujet, dont la réussite n’est par ailleurs pas assurée. De plus, les connaissances qu’ils ont élaborées autour de la règle d’accord et du transfert des traits morphologiques sont également nombreuses et variées et ne les conduisent pas à accorder le verbe avec constance. (2) L’analyse micro suggère que l’élaboration des connaissances relatives à l’accord du verbe dépend de la manière dont les outils de la grammaire (manipulations syntaxiques et phrase de base) sont utilisés par les élèves. Plus précisément, le savoir piétine ou recule lorsque les manipulations syntaxiques ne sont pas appliquées dans la phrase ou qu’elles ne sont pas adaptées dans certains contextes syntaxiques; le savoir fait des bonds en avant dans les classes où les élèves sont en mesure de recourir à la phrase de base pour soutenir leur analyse grammaticale. Les descriptions proposées dans le cadre de notre thèse conduisent à discuter de leurs implications pour la transposition didactique externe et, plus généralement, pour la didactique du français et de la grammaire.
Resumo:
L‟infection par le VIH-1, chez les patients, affecte principalement le système immunitaire et conduit à une destruction graduelle des lymphocytes T CD4 et, par conséquent, entraîne un état d‟immunodéficience. Cette immunodéficience permet l'établissement d‟infections opportunistes qui sont responsables de manifestations cliniques associées au Sida. Ces patients peuvent aussi développer des lymphomes, lésions du système nerveux central et une atteinte rénale. L'ampleur et la sévérité des conditions associées observées chez les patients infectés par le VIH-1 ne peuvent être imputées seulement au processus infectieux et à la déplétion des cellules T CD4+. Ceci suggère que les produits des gènes de régulation pourraient avoir des effets cytopathogènes. Cependant, les études sur la physiopathogenèse induite par le VIH ou ses différents gènes ont été difficiles à mener en raison de l'absence d'animaux de laboratoire infectés par ce virus. Ceux-ci auraient pu aider à disséquer le rôle des différents composants du génome viral et les mécanismes pathogénétiques impliqués. Pour pallier cette contrainte, nous avons produit le premier modèle de souris transgéniques pour le gène vpu. Vpu code pour une phosphoprotéine membranaire avec plusieurs fonctions connues. Elle participe au relargage des virions à la surface cellulaire, induit la dégradation des CD4, induit la régulation négative des CMH-1, augmente la susceptibilité à la mort cellulaire des lymphocytes T infectés par le VIH et favorise la réplication virale en empêchant les mécanismes antiviraux cellulaires. Dans ce travail, nous avons caractérisé pathologiquement un modèle de souris transgéniques porteuses du gène vpu du VIH-1. Nos résultats démontrent que l‟expression de vpu chez les souris transgéniques induit le développement spontané d‟une hyperplasie lymphoïde pansystémique, une splénomégalie avec une hyperplasie lymphoïde folliculaire évoluant en lésions prémalignes et malignes qui présentent certaines similarités avec la maladie de Castleman et une iv glomérulonéphrite mesangioproliférative qui rappelle certaines altérations de néphropathie associée au VIH chez les patients infectés. L‟ensemble des altérations démontre que les souris Tg/vpu développent une activation chronique et non spécifique du système immunitaire. Dans cette activation immunitaire, une dérégulation de l‟IL-6 et une hyperplasie du réseau de cellules métallophiliques pourraient être impliquées. D‟autres résultats obtenus sur les évaluations du fonctionnement du système immunitaire de la rate et du thymus mettent en évidence une susceptibilité augmentée des lymphocytes des tissus lymphoïdes aux effets apoptotiques de la dexaméthasone et des lipopolysaccharides et un retard dans le repeuplement par les cellules d‟organes lymphoïdes ainsi qu‟une réaction inflammatoire (Schwartzman) exacerbée et des anomalies dans la réaction d‟hypersensibilité retardée expérimentale. Ce modèle transgénique reproduit plusieurs anomalies rencontrées chez les patients infectés par le VIH et ouvre de nouvelles hypothèses sur la pathogenèse de l‟infection par le VIH.
Resumo:
Face aux pressions continues que subissent les systèmes de santé, de nombreuses réformes sont perpétuellement en cours pour améliorer le processus de soins et par conséquent, offrir des soins de qualité et accroître le niveau de santé des populations. Les réformes que connaissent actuellement les systèmes de santé visent à optimiser l’impact des services sur la santé de la population en introduisant le concept de la responsabilité populationnelle. Par ailleurs, il existe de plus en plus un consensus sur la nécessité d’établir une relation directe et durable entre les prestataires et la population des territoires desservies pour être en mesure de tenir compte des contextes personnels et sociaux des patients et de leurs familles et pour assurer la continuité des soins dans le temps et d’un service à l’autre. Cette thèse porte sur la Programmation régionale de services ambulatoires (PRSA) de Laval. Elle analyse cette programmation comme une solution innovatrice dans la mise en œuvre de la responsabilisation populationnelle des soins. La stratégie de recherche combine à la fois une revue intégrative de la littérature qui vise à analyser le bien-fondé de la PRSA; une étude quasi-expérimentale pour examiner ses effets; et enfin, une recherche synthétique de cas pour comprendre l’évolution de la PRSA et analyser l’institutionnalisation du changement dans les organisations de la santé. Dans le premier article, nous nous sommes employés à analyser le bien fondé c’est-à-dire la plausibilité des mécanismes causaux présumés. La PRSA est un modèle d’intégration régionale basée sur une approche populationnelle. La stratégie de réseaux intégrés de soins et de case management combinée avec une approche populationnelle telle que mise de l’avant par le PRSA sont trois éléments essentiels en faveur d’une responsabilité populationnelle des soins. À l’aide d’une revue intégrative de la littérature, nous avons démontré qu’il s’agit d’une programmation capable de consolider une intégration régionale en mettant de l’avant une approche populationnelle permettant de bien cibler les besoins des populations du territoire à desservir. Le deuxième article examine les effets populationnels de la PRSA en termes de réduction de la durée moyenne de séjour et de l’augmentation de la rétention régionale. Une approche quasi expérimentale a été utilisée. En ce qui concerne la durée moyenne de séjour, on n’observe aucune diminution pour l’asthme ni pour la démence. Par contre, il est plausible que l’implantation de la PRSA ait permis une diminution de la durée moyenne de séjour pour les maladies coronariennes, les MPOC, l’embolie pulmonaire et le cancer du sein. Pour la rétention régionale, aucun effet n’a été observé pour les MPOC, l’embolie pulmonaire et la démence. Une augmentation de la rétention régionale a été observée pour les maladies coronariennes, l’asthme et le cancer du sein. Cette augmentation pourrait être attribuée à la PRSA. Dans le troisième article, nous avons examiné les facteurs susceptibles d’expliquer l’évolution de la PRSA. En partant du point de vue des responsables de la programmation de la PRSA et les gestionnaires actuels de la programmation de services de la région de Laval, nous avons tenté de mieux cerner les facteurs qui ont provoqué la suspension du déploiement de la PRSA. Les résultats indiquent que les changements fréquents dans les structures dirigeantes du réseau de la santé ainsi que l’interférence de plusieurs autres réformes ont été un obstacle dans le maintien de la PRSA. Dans le contexte actuel des réformes en santé où l’approche de réseaux intégrés de soins et de responsabilité populationnelle sont mises de l’avant, les résultats de cette thèse apportent un éclairage certain sur l’opérationnalisation de ces orientations.
Resumo:
Ce mémoire portera sur le problème de la signification, dans la pensée de Heidegger, de la métaphysique moderne, à partir de la conception de l’histoire de l’être qu’il développe dans les années 1930. Plus précisément, nous nous baserons sur l’écrit Die Zeit des Weltbildes, que l’on retrouve dans le recueil nommé Holzwege, mais également, dans une moindre mesure, sur l’écrit Niezsches Wort « Gott ist tot » du même recueil. Nous commencerons par introduire le lecteur à l’idée qu’il se fait de la métaphysique en général dans son rapport à l’homme, et du nihilisme que constitue son histoire, lequel s’accentue à l’époque moderne. Nous rentournerons alors brièvement aux premiers commencements de la métaphysique, chez Parménide et Platon principalement, dans le but de dégager les aspects de la métaphysique moderne qui y ont trouvé leur source. C’est alors que nous entrerons dans le vif du sujet, en expliquant en quoi consiste l’inauguration de la métaphysique moderne chez Descartes qui, face à l’obligation religieuse, pose la confirmation autonome de la vérité qui trouve son lieu propre dans la conscience de soi. Il sera dès lors question de montrer précisément comment se fait cette confirmation par soi-même du vrai, au travers de certaines notions centrales de l’analyse heideggerienne : la pro-position, la présentation et la représentation, l’instauration, la production, l’obtention, la préhension et la compréhension, notamment. Nous analyserons ensuite le mouvement de la volonté du sujet qui sous-tend cette confirmation autonome du savoir jusqu’à son aboutissement chez des penseurs tels que Schopenhauer. Nous mettrons par le fait même en évidence le rapport fondamental, souligné par Heidegger, entre le sujet et son objet, l’homme moderne se soulèvant et se donnant lui-même le statut éminent de centre de référence de toute chose, rapportant à lui-même tout chose. Ce mémoire se terminera par l’analyse que fait Heidegger d’un phénomène propre à la modernité, et donc émanent de la métaphysique qui aura été examinée au préalable, soit la science moderne. Celle-ci constitue la voie privilégiée où l’homme moderne, après avoir sciemment pris position au centre du monde, peut « procéder » dans le monde comme dans son royaume, un monde qui se révèle alors comme étant essentiellement à sa disposition. La science, émanant selon Heidegger de la conception moderne de la vérité et de l’étant, se révèle alors non seulement comme une réalisation de la métaphysique qui aura été analysée dans les chapitres précédents, mais peut-être même comme le phénomène duquel Heidegger semble s’être inspiré pour développer son idée de la métaphysique moderne.
Resumo:
Cette étude tente de saisir l’ambiguïté du propos pessimiste dans trois romans de Catulle Mendès (1841-1909). D’un côté, la construction du héros suggère une critique psychopathologique du pessimisme conforme au moralisme de la doxa fin-de-siècle qui dénie à cette pensée toute valeur spéculative. De l’autre, la représentation d’une société dissimulatrice contre laquelle le héros est en lutte confère à celui-ci un pouvoir de dévoilement. Cette tension se trouve condensée dans le concept de monstre qui fait l’objet d’une double lecture, à la fois pathologique et herméneutique. La conscience du héros étant conforme par sa stérilité à la conscience décadente telle qu’elle est définie par Jankélévitch, le système de pensée qu’elle féconde peut être assimilé à un monstre. Or, le sens premier du monstre pessimiste est le caractère inhumain de la vérité, autant comme quête que comme révélation. Seul un monstre peut porter la vérité car celle-ci est à sa mesure, intolérable. Elle renvoie l’homme à la toute-puissance de l’instinct dont découlent ses idéaux. Partant d’une conception pessimiste, le propos de Mendès débouche ainsi sur une morale idéaliste qui prône contre l’universelle tare le mensonge universel.
Resumo:
Objectif—Comparer les effets de la stérilisation au plasma de gaz de peroxyde d’hydrogène (HPGP) à l’oxyde d’éthylène (EO) et à la vapeur (ST) sur les propriétés physico-chimiques et d’adhésion bactérienne de fils de nylon et de polyéthylène. Design expérimental—Etude in vitro. Matériel—Des brins non stérilisés, stérilisés au HPGP, à l’EO et ST; de fil nylon leader (FNL), de fil de nylon pêche (FNP) et de fil de polyéthylène (PE) ont été utilisés. Méthodes—Une analyse de surface au spectroscope photo-électronique à rayons X (XPS), une mesure de l’angle de contact, une analyse par microscopie à force atomique (AFM) et l’adhésion bactérienne de Staphylococcus intermedius et d’Escherichia Coli ont été testés sur les brins. Résultats—Une oxydation de la surface de tous les échantillons stérilisés a été observée quelque soit la méthode de stérilisation. La stérilisation a augmenté significativement l’angle de contact pour tous les types de fil quelque soit la méthode. La rugosité n’a pas été affectée significativement par la méthode de stérilisation pour le FNL et FNP. L’adhésion bactérienne a été affectée significativement par la méthode de stérilisation. Le PE a un angle de contact, une rugosité et une adhésion bactérienne significativement plus élevée que le FNL et FNP, peu importe la méthode de stérilisation. Conclusion—La stérilisation au HPGP constitue une alternative intéressante à la vapeur et l’EO. Le PE n’est peut être pas un matériel idéal par sa capacité d’adhésion bactérienne. De futures études sont nécessaires pour déterminer la signification clinique de ces trouvailles.
Resumo:
Problématique : Les effets de la constitutionnalisation du droit du travail sur le contrôle arbitral du pouvoir de réglementation de l’employeur. La problématique de notre projet de recherche consiste à évaluer les effets du phénomène de la constitutionnalisation du droit du travail sur le pouvoir de l’employeur d’établir de la réglementation d’entreprise relative au travail, lequel pouvoir est une manifestation concrète de ses droits de direction. Notre projet de recherche, qui se limite au contexte syndiqué, met donc en relation deux grandes dimensions lesquelles sont le pouvoir de réglementation de l’employeur et le phénomène de la constitutionnalisation du droit du travail. Mentionnons que notre projet de recherche s’attarde aux limites, se trouvant tant dans la législation que dans la convention collective, permettant l’encadrement du pouvoir de réglementation de l’employeur. Concernant le phénomène de la constitutionnalisation du droit du travail, notre projet de recherche s’attarde tant à ses fondements qu’à ses effets sur le pouvoir de réglementation de l’employeur, ces derniers effets découlant principalement de la décision Parry Sound, laquelle est à l’effet que tous les droits et obligations prévus dans les lois sont contenus implicitement dans chaque convention collective, quelles que soient les intentions des parties contractantes. Ainsi, notre projet de recherche vise à démontrer empiriquement, en observant la jurisprudence arbitrale, dans quelle mesure le phénomène de la constitutionnalisation du droit du travail, en contexte syndiqué, modifie l’encadrement du pouvoir de réglementation de l’employeur puisque ce dernier doit dorénavant composer avec des normes étatiques fondamentales qu’il n’a ni négociées, ni déterminées. Mentionnons que le concept central de notre recherche se trouve à être le contrôle arbitral du pouvoir de réglementation de l’employeur relativement à la réglementation d’entreprise susceptible de faire intervenir les dispositions 1, 3, 4 et 5 de la Charte des droits et libertés de la personne et qu’il vise la classification dudit contrôle arbitral en deux grandes logiques : la logique I préalablement à la décision Parry Sound et la logique II postérieurement à cette même décision. Ainsi, notre hypothèse dominante est à l’effet qu’en matière de contrôle arbitral du pouvoir de réglementation de l’employeur, deux logiques existent et que dans une logique II, le contrôle arbitral est modifié en ce que les arbitres, situent au sommet de la hiérarchie des aspects à évaluer, la conformité de la réglementation d’entreprise aux dispositions de la Charte susmentionnées.
Resumo:
Cette étude de cas, composée de trois articles, examine les diverses sources d’explication de l’écart salarial selon le genre chez les professeurs d’une grande université de recherche canadienne. Le premier article analyse les écarts selon le genre sur les primes “de marché” à partir de données d’un sondage réalisé auprès des professeurs en 2002. Une analyse des correspondances donne une solution à deux facteurs dans laquelle le second facteur oppose clairement les professeurs qui ont reçu une prime à ceux qui n’en n’ont pas reçue. Le genre est fortement associé à ce facteur, la catégorie “femme” se retrouvant du côté de l’axe associé à l’absence de primes de marché. Les résultats de la régression logistique confirment que le secteur d’activité, la fréquence des contrats de recherche, la valorisation du salaire ainsi que le rang combiné à l’ancienneté sont reliés à la présence de primes de marché, tel que proposé par les hypothèses. Toutefois, même après avoir contrôlé pour ces relations, les femmes sont toujours près de trois fois moins susceptibles de s’être vu attribuer des primes de marché que leurs homologues masculins. Dans l’ensemble, les résultats suggèrent que dans un contexte où les salaires sont déterminés par convention collective, la réindividualisation du processus de détermination des salaires — en particulier le versement de primes de marché aux professeurs d’université — peut favoriser la réapparition d’écarts de salaire selon le genre. Le second article est réalisé à partir de données administratives portant sur les années 1997 à 2006. Les contributions respectives de quatre composantes de la rémunération à l’écart salarial selon le genre y sont analysées, soit le salaire de base, l’accès au rang de professeur titulaire, l’accès aux primes de marché et chaires de recherche du Canada, de même que les montants reçus. Les composantes varient quant à leur degré de formalisation. Ceci permet de tester l’hypothèse selon laquelle l’ampleur de l’écart salarial selon le genre varie en fonction du degré de formalisation des composantes salariales. Nous déterminons également dans quelle mesure l’écart selon le genre sur les diverses composantes de la rémunération varie en fonction de la représentation relative des femmes professeurs au sein des unités. Les résultats démontrent l’existence de variations dans l’ampleur des différences selon le genre en fonction du degré de formalisation des pratiques de rémunération. Qui plus est, après contrôles, la rémunération est plus faible dans les unités où les femmes sont fortement représentées. Le dernier article examine les mécanismes pouvant mener à un écart selon le genre en ce qui a trait à l’accès aux primes de marché chez les professeurs de l’institution. Les processus d’attribution de ces suppléments salariaux sont examinés à partir d’entretiens réalisés avec 17 administrateurs à tous les niveaux hiérarchiques de l’institution et dans une diversité d’unités académiques. Les résultats suggèrent que les différences selon le genre pourraient être liées à des caractéristiques spécifiques du processus d’attribution et à une distribution inégale des primes aux unités à forte représentation féminine. De façon générale, les résultats démontrent que l’écart de rémunération selon le genre chez les professeurs de cette université n’est pas totalement expliqué par des différences dans les caractéristiques individuelles des hommes et femmes. L’analyse révèle que l’écart réside dans des différences selon le genre en ce qui a trait à l’accès aux primes de marché et aux chaires de recherches du Canada et, dans une moindre mesure, au rang de professeur titulaire. Aucune différence n’est observée sur le salaire de base et le montant des primes salariales reçues, que celles-ci soient dites de “marché” ou associées à une chaire de recherche du Canada. Qui plus est, on constate que la rémunération est plus faible dans les unités où les femmes sont le mieux représentées. L’accès différencié selon le genre aux primes de marché qui est observé pourrait être lié à certains processus organisationnels qui limitent les probabilités d’octrois à des femmes. Les femmes pourraient être particulièrement désavantagées dans ce système d’octroi, pour plusieurs raisons. L’existence de différences selon le genre en ce qui a trait aux dispositions ou habiletés des individus à négocier leur salaire est évoquée et supposée par certains administrateurs. Un accès limité aux informations concernant la politique de primes pourrait réduire la probabilité que des femmes tentent d’obtenir ces suppléments salariaux. Les directeurs d’unités, qui sont en majorité des hommes, pourraient être biaisées en faveur des professeurs masculins dans leurs évaluations s’ils tendent à favoriser ceux qui leurs ressemblent. Il est également possible que les directeurs d’unités où les femmes sont les mieux représentées n’aient pas reçu d’information sur les primes de marché ou que des traditions disciplinaires les aient rendu réticents à demander des primes.
Resumo:
Dans les pays africains en général et au Niger en particulier, l’ordinateur commence à trouver sa place au sein de l’école. Ce processus d’intégration pédagogique des technologies de l’information et de la communication est fortement dépendant des paramètres technologiques, pédagogiques et humains. Réussir ce processus, c’est connaitre les jugements et les attitudes des acteurs de cette école vis-à-vis de ces technologies. À partir des représentations sociales, nous pouvons connaître la manière de penser, de s'approprier, d'interpréter la réalité quotidienne d’un groupe d’individus vis-à-vis d’un objet, en l’occurrence ici, les TIC. Le premier objectif de notre recherche est de connaitre les représentations sociales que les enseignants du secondaire ont de l’ordinateur. Pour cela, nous avons mené une investigation auprès de vingt enseignants. À l’issue des entrevues, nous avons identifié des représentations sociales sur les attitudes des enseignants à l’égard de l’ordinateur, sur les risques de l’ordinateur à l’école et enfin sur les avantages de l’ordinateur à l’école. L’ensemble de ces représentations sociales met en évidence une attitude positive des enseignants vis-à-vis de l’ordinateur à l’école même si pour certains enseignants, l’ordinateur est un outil qui favorise la démotivation des élèves et qui est vu comme un concurrent potentiel. Notre second objectif est de connaître les représentations sociales des TIC chez des élèves. Cinquante élèves provenant de deux écoles ont constitué la population de notre étude. Après avoir soumis les entretiens recueillis à une analyse de contenu, nous sommes parvenu à des résultats qui mettent en évidence des représentations sociales sur les connaissances des TIC et sur son utilisation dans le cadre de l’apprentissage. Notre recherche devait aussi déterminer si les représentations sociales étaient fonction de la formation aux TIC. Les résultats du test d’hypothèse du Khi-carré montrent que la formation aux TIC n’influence pas l’émergence des représentations sociales. Le troisième objectif de notre recherche porte sur la construction d’une échelle de mesure des représentations sociales des TIC chez des élèves. Après avoir été élaborée l’échelle de mesure a été administrée à 265 élèves de deux lycées. Les résultats de l’analyse factorielle exploratoire montrent que l’échelle a une assez bonne cohérence interne. L’ensemble des résultats garantit la validité et la fidélité de l’échelle. L’ensemble des résultats montre que, bien que son utilisation soit très récente dans les écoles nigériennes, des représentations sociales ont été engendrées à l’endroit des TIC. Les contenus de ces représentations montrent des attitudes favorables aux TIC dans l’apprentissage.
Resumo:
Cette thèse a pour but de documenter la réorganisation des services effectuée au programme Enfants et adolescents (PEA) du Centre de réadaptation Estrie, Sherbrooke. Une démarche de recherche-action participative (RAP) est utilisée afin de collaborer au développement, à l’implantation et à l’évaluation d’un nouveau modèle de services visant à accroître l’accessibilité et la qualité des services de réadaptation offerts aux enfants ayant une déficience physique. Spécifiquement, les objectifs sont : 1) de documenter les retombées de la réorganisation des services; 2) de réaliser une analyse critique du processus de changement. Des méthodes quantitatives et qualitatives sont utilisées afin d’atteindre ces objectifs. Tout d’abord, la Mesure des processus de soins (MPOC) documente la perception de la qualité avant (2007), pendant (2008) et après (2009) l’implantation du nouveau modèle de services. Au total, cet outil est employé auprès de 222 familles et 129 intervenants. À quatre reprises, les intervenants et les gestionnaires répondent également à un questionnaire sur leurs perceptions des forces, des faiblesses, des opportunités et des menaces au PEA. En 2008 et en 2009, des focus groups et des entrevues téléphoniques sont réalisées auprès des familles (n=5), des intervenants (n=19) et des gestionnaires (n=13) afin de documenter leurs perceptions sur le processus de changement et sur les retombées de la réorganisation des services. Quant à l’observation participante, elle permet de recueillir de l’information sur le processus de réorganisation des services tout au long de ces trois années. Enfin, les informations recueillies sont analysées à l’aide de différentes approches, dont des tests statistiques et des analyses de contenu utilisant une grille de codification inspirée de la théorie des systèmes d’actions organisées. Les résultats indiquent que davantage d’enfants reçoivent des services en 2009 en comparaison à 2007. De plus, la qualité des services s’est maintenue selon les perceptions évaluées par la MPOC (article 1). L’utilisation d’interventions de groupe contribue fort probablement à augmenter le nombre d’enfants qui reçoivent des services, mais plusieurs défis doivent être adressés afin que cette modalité d’intervention soit réellement efficiente (article 2). Les résultats font ressortir que le processus de réorganisation des services est complexe. L’évaluation des forces, des faiblesses, des opportunités et des menaces d’un programme, de même que l’implication des acteurs dans le processus de développement d’un nouveau modèle de services, favorisent l’amélioration continue de la qualité (article 3). Or, les facilitateurs et les obstacles à l’implantation du nouveau modèle de services évoluent durant la réorganisation des services. Considérant cela, il est important de poser les actions nécessaires afin de soutenir le changement tout au long du processus (article 4). En résumé, cette thèse contribue à l’avancement des connaissances en réadaptation en comblant une lacune dans les écrits scientifiques. En effet, peu de projets visant le développement et l’implantation de nouveaux modèles de services sont évalués et documentés. Pourtant, des modèles tels que celui développé par le PEA semblent prometteurs afin d’améliorer l’accessibilité, et éventuellement, la qualité des services de réadaptation chez l’enfant.
Resumo:
Ce mémoire est une analyse socio-juridique de la discrimination en milieu de travail et de son impact sur le devoir juridique de représentation syndicale, ou plus précisément, sur la responsabilité syndicale en contexte de diversité. Partant d’une première approche sociométrique du phénomène, suivie d’une deuxième davantage socio-juridique, le constat est à l’effet que la discrimination en milieu de travail a des répercussions jusque dans les milieux syndiqués,où les flux d’immigration semblent, à plusieurs égards, bousculer l’ordre établi. La revue de littérature permet de dégager deux grands axes de recherche : un premier concernant les forums : dans l’état actuel du droit, ce sont les Tribunaux des droits de la personne qui élaborent les normes applicables au devoir juridique de représentation syndicale dans les cas allégués de discrimination au travail, les Commissions des relations de travail s’adaptant mais lentement, sinon avec réticence, à la nouvelle donne ; le deuxième concernant spécifiquement la partie syndicale : cette dernière pondère l’effet des normes applicables en matière de discrimination au travail tant en fonction de ses propres intérêts stratégiques, que de l’attente des membres, que des préjugés et stéréotypes présents dans le milieu de travail. L’analyse globale porte sur 689 décisions en provenance de quatre Commissions des relations de travail — Québec, Fédéral, Ontario et Colombie-Britannique — et ainsi que des quatre Tribunaux des droits de la personne correspondants, sur une période de dix ans, allant du 1er janvier 2000 au 31 décembre 2009. Quant aux forums, la conclusion est à l’effet qu’au cours de la période étudiée, aucune institution n’a de préséance sur l’autre en ce qui a trait aux motifs illicites de discrimination. Les deux se complétent sans presque se chevaucher, et chacune à leur manière, contribuent fortement à faire progresser les droits de la personne. Par contre, les Commissions des relations de travail ont préséance quant au harcèlement, tandis que les Tribunaux des droits de la personne sont prépondérants face aux mesures d’accommodement. Quant à la partie syndicale, si elle a toujours agi, pour des raisons historiques, en fonction de ses intérêts stratégiques, de l’attente des membres, et des préjugés et stéréotypes présents sur les lieux de travail. Mais, ce qui change au fil du temps, c’est tout ce qui entoure le devoir juridique de représentation syndicale, c’est-à-dire tout le climat général d’application, ainsi que tout le contexte d’analyse et d’évaluation des situations. Quel est donc l’impact de la discrimination en milieu de travail sur le devoir juridique de représentation syndicale ? Dans la mesure où le contexte d’analyse et d’évaluation des situations est la lecture que font les agents, du climat général d’application, et des changements qu’ils y apportent en fonction de leurs propres intérêts stratégiques, du point de vue syndical, cet impact est triple : d’abord, devant chaque cas d’espèce, (1) l’acteur syndical doit désormais jongler avec beaucoup plus de facteurs qu’auparavant ; deuxièmement, (2) envers les salariés de l’unité de négociation, la marge de manoeuvre est beaucoup plus restreinte en contexte de lutte contre la discrimination ; enfin, et c’est le point le plus important, (3) l’économie générale des droits de la personne a pour effet d’introduire une hiérarchie dans les normes applicables, ce qui oblige l’acteur syndical à s’adapter, de façon constante, à un climat général d’application sans cesse changeant, auquel tous les agents contribuent, y compris lui-même.
Resumo:
Huit instruments d’évaluation du risque ont été appliqués sur 580 délinquants sexuels. Il s’agit du VRAG, du SORAG, du RRASOR, de la Statique-99, de la Statique-2002, du RM-2000, du MnSORT-R et du SVR-20. De plus, les sujets ont été cotés sur la PCL-R, qui vise la mesure de la psychopathie, mais qui a fait ses preuves en matière de prédiction de la récidive (Gendreau, Little, et Goggin, 1996). En vue de mesurer l’efficacité de ces instruments et de la PCL-R, une période de suivi de 25 ans a été observée. Aussi, une division de l’échantillon a été faite par rapport à l’âge au moment de la libération, afin de mesurer les différences entre les délinquants âgés de 34 ans et moins et ceux de 35 ans et plus. Le présent travail vise à répondre à trois objectifs de recherche, soit 1) Décrire l’évolution du risque en fonction de l’âge, 2) Étudier le lien entre l’âge, le type de délinquant et la récidive et 3) Comparer l’efficacité de neuf instruments structurés à prédire quatre types de récidive en fonction de l’âge. Les résultats de l’étude suggèrent que l’âge influence le niveau de risque représenté par les délinquants. Par ailleurs, les analyses des différents types de récidive indiquent que le type de victime privilégié par les délinquants influence également ce niveau de risque. Les implications théoriques et pratiques seront discutées.
Resumo:
Les seize détecteurs MPX constituant le réseau ATLAS-MPX ont été placés à différentes positions dans le détecteur ATLAS et sa averne au CERN dans le but de mesurer en emps réel les champs de radiation produits ar des particules primaires (protons des faisceaux) et des particules secondaires (kaons, pions, g, protons) issues des collisions proton-proton. Des films de polyéthylène (PE) et de fluorure de lithium (6LiF) recouvrent les détecteurs afin d’augmenter leur sensibilité aux neutrons produits par les particules primaires et secondaires interagissant avec les matériaux présents dans l’environnement d’ATLAS. La reconnaissance des traces laissées par les particules dans un détecteur ATLAS-MPX se fait à partir des algorithmes du logiciel MAFalda (“Medipix Analysis Framework”) basé sur les librairies et le logiciel d’analyse de données ROOT. Une étude sur le taux d’identifications erronées et le chevauchement d’amas a été faite en reconstruisant les activités des sources 106Ru et 137Cs. L’efficacité de détection des neutrons rapides a été mesurée à l’aide des sources 252Cf et 241AmBe (neutrons d’énergie moyenne de 2.13 et 4.08 MeV respectivement). La moyenne des efficacités de détection mesurées pour les neutrons produits par les sources 252C f et 241AmBe a été calculée pour les convertisseurs 6LiF et PE et donnent (0.8580 ± 0.1490)% et (0.0254 ± 0.0031)% pour LiF et (0.0510 ± 0.0061)% et (0.0591 ± 0.0063)% pour PE à bas et à haut seuil d’énergie respectivement. Une simulation du calcul de l’efficacité de détection des neutrons dans le détecteur MPX a été réalisée avec le logiciel GEANT4. Des données MPX correspondant aux collisions proton-proton à 2.4 TeV et à 7 TeV dans le centre de masse ont été analysées. Les flux détectés d’électrons et de photons sont particulièrement élevés dans les détecteurs MPX01 et MPX14 car ils sont plus près du point de collision. Des flux de neutrons ont été estimés en utilisant les efficacités de détection mesurées. Une corrélation avec la luminosité du LHC a été établie et on prédit que pour les collisions à 14 TeV dans le centre de masse et avec une luminosité de 10^34 cm-1*s-1 il y aura environ 5.1x10^8 ± 1.5x10^7 et 1.6x10^9 ± 6.3x10^7 particules détectées par les détecteurs MPX01 et MPX14 respectivement.
Resumo:
Objectif : Déterminer la fiabilité et la précision d’un prototype d’appareil non invasif de mesure de glucose dans le tissu interstitiel, le PGS (Photonic Glucose Sensor), en utilisant des clamps glycémiques multi-étagés. Méthodes : Le PGS a été évalué chez 13 sujets avec diabète de type 1. Deux PGS étaient testés par sujet, un sur chacun des triceps, pour évaluer la sensibilité, la spécificité, la reproductibilité et la précision comparativement à la technique de référence (le Beckman®). Chaque sujet était soumis à un clamp de glucose multi-étagé de 8 heures aux concentrations de 3, 5, 8 et 12 mmol/L, de 2 heures chacun. Résultats : La corrélation entre le PGS et le Beckman® était de 0,70. Pour la détection des hypoglycémies, la sensibilité était de 63,4%, la spécificité de 91,6%, la valeur prédictive positive (VPP) 71,8% et la valeur prédictive négative (VPN) 88,2%. Pour la détection de l’hyperglycémie, la sensibilité était de 64,7% et la spécificité de 92%, la VPP 70,8% et la VPN : 89,7%. La courbe ROC (Receiver Operating Characteristics) démontrait une précision de 0,86 pour l’hypoglycémie et de 0,87 pour l’hyperglycémie. La reproductibilité selon la « Clark Error Grid » était de 88% (A+B). Conclusion : La performance du PGS était comparable, sinon meilleure que les autres appareils sur le marché(Freestyle® Navigator, Medtronic Guardian® RT, Dexcom® STS-7) avec l’avantage qu’il n’y a pas d’aiguille. Il s’agit donc d’un appareil avec beaucoup de potentiel comme outil pour faciliter le monitoring au cours du traitement intensif du diabète. Mot clés : Diabète, diabète de type 1, PGS (Photonic Glucose Sensor), mesure continue de glucose, courbe ROC, « Clark Error Grid».