705 resultados para échelle de mesure
Resumo:
Cette thèse vise à comprendre comment et dans quelle mesure l’agrément des établissements de santé est-il efficace pour développer les capacités des acteurs, nécessaires pour améliorer la qualité des soins et des services. Au cours des dix dernières années, il y a eu une croissance rapide, à l'échelle mondiale de la mise en œuvre de programmes d'agrément en santé pour l’amélioration de la qualité. L'expérience de la dernière décennie prouve que l'agrément est une technique valable pour l'amélioration de la qualité dans beaucoup d’organismes de santé. Il est également utilisé pour soutenir les réformes en santé. Malgré cela, les outils de gestion comme l’agrément sont souvent critiqués, car elles sont adoptées avec enthousiasme négligeant fréquemment une implantation favorisant la mise en place de comportements durables et la démonstration de meilleurs résultats. Le développement des capacités (DC) est un processus délibéré, multidimensionnel, dynamique dont le but est d’améliorer la performance des individus, des équipes, de l’organisation et d’un système. Le DC constitue une des trois assises de l’implantation d’une démarche institutionnalisée de la qualité, au même niveau que la communication et la reconnaissance. Cette recherche c’est déroulée dans un organisme d’Arabie Saoudite dans le cadre de leur première démarche avec le Conseil canadien d’agrément (CCASS) des services de santé. Une étude de cas unique d’implantation de l’agrément a été menée utilisant une approche mixte. Quatre niveaux d’analyse ont été étudiés en détail (individu, équipe, organisation et système) afin de mesurer 28 effets escomptés du DC puisés dans la littérature. Des entretiens semi-structurés, des groupes de discussion, une revue de la documentation ont été réalisés. Dans le but de mesurer trois des effets escomptés, un questionnaire sur le niveau d’implantation de la qualité (NIQ) a été administré pour la première fois en Arabie Saoudite dans cinq organismes. La performance du cas a été évaluée en relation avec les autres et en fonction de son positionnement dans le cycle d’agrément. Des analyses qualitatives et quantitatives utilisant la technique de polissage par la médiane ont été exécutées. Au niveau des individus, l’agrément a motivé la participation à de nouvelles formations. L’auto-évaluation est l’étape qui encourage l’apprentissage par l’autocritique. Le sentiment de fierté est le changement affectif le plus souvent répertorié. Les équipes ont amélioré leur communication par l’implantation d’une « chaîne de commandement ». Elle a introduit des notions de respect et de clarté des rôles telles qu’exigées par les normes. Au moyen de la mesure du NIQ, nous avons constaté que la majorité des organismes saoudiens se positionnent au niveau minimal d’implantation (assurance qualité). Le plus expérimenté avec l’agrément démontre les meilleurs résultats tout près du second niveau. Enfin, plus les organismes progressent dans la démarche d’agrément, plus les écarts de perception entre les 8 domaines mesurés par le questionnaire du NIQ et entre les différentes catégories d’emploi s’amincissent. En conclusion, l’agrément a démontré de l’efficacité à développer de nouvelles capacités par l’intégration des transformations des individus et par l’impact de l’acquisition des nouvelles capacités sur le changement des pratiques, majoritairement au niveau des individus, des équipes et de l’organisation. Le processus d’agrément a également fait preuve d’importants pouvoirs de convergence au niveau de l’adoption des pratiques édictées par les normes d’agrément qui contribuent positivement à l’amélioration de la qualité.
Resumo:
Objectifs : Ce mémoire propose de répertorier par une revue systématique les instruments de mesure clinique des conduites addictives établies et émergentes; de les comparer au moyen d’une grille d’analyse afin de de déterminer si ces conduites sont cohésives au plan conceptuel. Méthode : La stratégie analytique employée s’est déroulée en trois étapes : 1) Via les moteurs de recherche Pubmed, Psychinfo, HAPI et Embase, nous avons cherché, pour l’ensemble des conduites addictives, les questionnaires ayant fait l’objet d’une étude de validation interne au plan psychométrique. 2) Une grille d’analyse a été développée et validée, couvrant 21 paramètres tirés de 4 catégories conceptuelles : les critères diagnostiques de dépendance (DSM-IVTR), le tempérament (Cloninger et Zuckerman), le processus de production du handicap social (Fougeyrollas) et une grille d’analyse cognitivo-comportementale (Beck). 3) tous les instruments ont été analysés et comparés au moyen de cette grille qui a été développée est validée par un accord inter-juge élevé. Résultats : Nous avons répertorié 191 questionnaires répartis sur 21 conduites addictives. On constate que les conduites les plus prévalentes sont également celles pour lesquelles on retrouve le plus grand nombre de questionnaires. Les catégories que les questionnaires évaluent le plus sont celles des critères de la dépendance et l’analyse cognitivo-comportementale, les catégories beaucoup moins bien représentées étant celles du tempérament et du processus de production du handicap social. On note des tendances semblables pour les paramètres entre les questionnaires portant sur la toxicomanie et ceux portant sur les addictions sans drogues. Conclusion : Ce mémoire confirme une cohésion clinique dans la mesure des addictions, tel que déterminé par une grille validée appliquée sur un ensemble exhaustif de questionnaires répertoriés par une revue systématique.
Resumo:
Associée à d'autres techniques observationnelles, la polarimétrie dans le visible ou dans le proche infrarouge permet d'étudier la morphologie des champs magnétiques à la périphérie de nombreuses régions de formation stellaire. A l'intérieur des nuages molécualires la morphologie des champs est connue par polarimétrie submillimétrique, mais rarement pour les mêmes régions. Habituellement, il manque une échelle spatiale intermédiaire pour pouvoir comparer correctement la morphologie du champ magnétique galactique avec celle située à l'intérieur des nuages moléculaires. -- Cette thèse propose les moyens nécessaires pour réaliser ce type d'analyse multi-échelle afin de mieux comprendre le rôle que peuvent jouer les champs magnétiques dans les processus de formation stellaire. La première analyse traite de la région GF 9. Vient ensuite une étude de la morphologie du champ magnétique dans les filaments OMC-2 et OMC-3 suivie d'une analyse multi-échelle dans le complexe de nuages moléculaires Orion A dont OMC-2 et OMC-3 font partie. -- La synthèse des résultats couvrant GF 9 et Orion A est la suivante. Les approches statistiques employées montrent qu'aux grandes échelles spatiales la morphologie des champs magnétiques est poloïdale dans la région GF 9, et probablement hélicoïdale dans la région Orion A. A l'échelle spatiale des enveloppes des nuages moléculaires, les champs magnétiques apparaissent alignés avec les champs situés à leur périphérie. A l'échelle spatiale des coeurs, le champ magnétique poloïdal environnant la région GF 9 est apparemment entraîné par le coeur en rotation, et la diffusion ambipolaire n'y semble pas effective actuellement. Dans Orion A, la morphologie des champs est difficilement détectable dans les sites actifs de formation d'OMC-2, ou bien très fortement contrainte par les effets de la gravité dans OMC-1. Des effets probables de la turbulence ne seont détectés dans aucune des régions observées. -- Les analyses multi-échelles suggèrent donc qu'indépendamment du stade évolutif et de la gamme de masse des régions de formation stellaires, le champ magnétique galactique subit des modifications de sa morphologie aux échelles spatiales comparables à celles des coeurs protostellaires, de la même façon que les propriétés structurelles des nuages moléculaires suivent des lois d'autosimilarité jusqu'à des échelles comparables à celles des coeurs.
Resumo:
Les pyréthrinoïdes et les pyréthrines sont des insecticides neurotoxiques auxquels on attribue également des effets néfastes sur les systèmes immunitaire, hormonal et reproducteur. Ils sont abondamment utilisés en agriculture, mais aussi en horticulture, en extermination et dans le traitement d’infestations parasitaires humaines et animales (gale, poux). Il y a donc un intérêt en santé environnementale à connaître l’ampleur de l’exposition humaine à ces pesticides. La mesure des métabolites urinaires des pyréthrinoïdes et des pyréthrines apparaît une approche de choix pour arriver à cette fin puisqu’elle permet, en théorie, d’obtenir un portrait global de l’exposition. Or,traditionnellement et par soucis de simplicité les concentrations volumiques ou ajustées pour la créatinine) de ces biomarqueurs dans des urines ponctuelles sont déterminées, mais l’effet de l’utilisation de ces unités sur la validité des estimations de dose quotidienne absorbée n’a jamais été vérifié. L’objectif général de cette thèse était donc de développer, appliquer et valider une nouvelle stratégie de mesure et d’analyse de biomarqueurs pour améliorer la précision et la fiabilité des évaluations de l’exposition individuelles et populationnelles aux pyréthrinoïdes et pyréthrines. Les objectifs spécifiques étaient : i) de caractériser l’exposition humaine à ces contaminants en région urbaine et rurale au Québec et ii) de comparer la validité de la nouvelle stratégie de mesure et d’analyse de biomarqueurs urinaires proposée avec les autres méthodes plus usuelles utilisées pour estimer l’exposition individuelle et populationnelle et les doses absorbées de pyréthrinoïdes. Des adultes et des enfants, recrutés dans la population de l’Île de Montréal et de la Montérégie ont recueilli leurs urines pendant une période d’au moins douze heures et complété un questionnaire documentant les sources potentielles d’exposition. Les quantités de métabolites de pyréthrinoïdes et pyréthrines (pmol) mesurées dans les urines ont été ajustées pour une période de douze heures exactement et pour le poids corporel. Les quantités excrétées en région urbaine ont été comparées à celles excrétées en région rurale et les données individuelles et populationnelles ont été comparées à celles qui auraient été obtenues si des concentrations volumiques ou ajustées pour la créatinine avaient été mesurées. Les résultats montrent que l’exposition à ces pesticides est ubiquiste puisque plus de 90% des participants excrétaient les principaux métabolites de pyréthrinoïdes et pyréthrines à un niveau supérieur au seuil de détection analytique. Les résultats suggèrent que l’alimentation pourrait être à l’origine de ce niveau de base puisque les autres sources d’exposition connues n’ont été que rarement rapportées. Au Québec, l’exposition en milieu rural apparaissait légèrement plus importante qu’en milieu urbain et certains facteurs d’exposition, comme l’utilisation de pesticides domestiques, ont été rapportés plus fréquemment en milieu rural. Enfin, il a été démontré que la mesure des concentrations volumiques ou ajustées pour la créatinine de biomarqueurs est une approche qui peut entraîner des biais importants (jusqu’à 500% d’erreur et plus) en particulier lors de l’évaluation de l’exposition individuelle. Il est évident que les autorités de santé publique et de santé environnementale employant des biomarqueurs urinaires afin d’évaluer l’exposition aux pyréthrinoïdes et aux pyréthrines (ainsi qu’à d’autres molécules ayant des demi-vies d’élimination similaire)devraient diriger leurs efforts vers la mesure des quantités excrétées pendant une période d’au moins douze heures pour obtenir un portrait le plus valide possible de l’exposition. Il serait aussi souhaitable de mieux documenter la toxicocinétique de ces molécules chez l’humain afin d’établir avec une plus grande confiance la relation entre les quantités excrétées de biomarqueurs et les doses absorbées de ces contaminants.
Resumo:
La Turquie va-t-elle adhérer à l'Union européenne? Sa candidature a toujours été sujette à critiques: droits de l'homme non respectés, restrictions des droits et libertés, notamment de la liberté d'expression, de religion et des droits politiques. Les dossiers sensibles comme le problème kurde et la question chypriote sont à l'origine des multiples plaintes contre l'État turc devant la Cour européenne des droits de l'homme. Dotée des caractéristiques essentielles d'un État moderne et laïque, le pays dispose de structures formellement démocratiques, mais sa démocratie se révèle fragile: ses politiques tant internes qu'externes sont décidées par un Conseil national de sécurité composé pour l'essentiel de militaires. En outre, l'armée qui a pris le pouvoir à maintes reprises a donné au régime une dimension autoritaire. Cela non seulement en vertu des principes fondateurs de la République (tradition centralisatrice de l'État turc), mais aussi de la priorité que l'institution militaire accorde à la sécurité, à l'unité et à l'identité nationales. En effet, les mesures d'exception (état d'urgence, cours de sûreté de l'État, loi anti-terroriste) ont contribué aux violations des droits de l'homme, d'où l'opposition entre le droit conventionnel et le droit national. De plus, le système judiciaire et administratif instauré par les militaires en 1982 n'est pas conçu dans l'intérêt des justiciables. Certes, l'accès à la modernité n'a pu se faire que sous la contrainte et le contrôle de l'armée, mais le régime en Turquie peut-il continuer à s'appuyer sur les«piliers de l'ordre» que sont l'armée, la police et la justice ? L’État semble cependant se réorganiser progressivement pour permettre au pouvoir politique d'assurer un contrôleur les forces de sécurité et pour donner une meilleure indépendance à la justice. Le processus mis en route et les critères imposés pour l'adhésion à l'UE devraient contribuer à mettre en œuvre les réformes institutionnelles capables d'harmoniser la démocratie à l'État de droit, à l'image des pays européens. En effet, les changements récents sont liés à l'agenda européen. Le gouvernement turc semble être déterminé et ambitieux dans sa vocation européenne. Les progrès réalisés pour intégrer l'UE lui sont un moteur de propulsion devant servir au pays et à sa population.
Resumo:
En 1992, la Cour suprême du Canada souligne l'importance de faire la distinction entre l'obligation principale de conseil qui est l'objet principal du contrat et l'obligation d'information qui est accessoire. L'obligation principale de conseil est reconnue à l'égard des professionnels des professions dites libérales à l'époque, comme les avocats et notaires dans un contrat de mandat. Par contre, l'évolution jurisprudentielle récente démontre que l'obligation de conseil ne se limite plus à l'objet principal du contrat, et que la notion de «professionnel» n'a plus le sens restrictif d'autrefois. Au Québec, l'obligation principale de conseil est reconnue dans un premier temps à l'égard des professionnels soumis au Code des professions, notamment avocats et notaires. On reconnaît aussi une telle obligation accessoire de conseil à l'égard d'autres personnes qui, bien qu'elles ne soient pas des «professionnels» au sens du Code des professions, exercent tout de même des activités de nature professionnelle. C'est le cas, par exemple, des courtiers en valeurs mobilières, des courtiers en assurances ou des institutions financières. D'ailleurs, une controverse semble régner dans le domaine bancaire sur l'étendue de l'obligation de conseil et d'information des institutions financières envers un client dans le cadre d'un contrat de prestation de services. Plus particulièrement, les tribunaux semblent partagés sur la reconnaissance ou non d'une obligation de conseil de la banque dans le cadre d'un emprunt. Certaines décisions sont à l'effet que seule une obligation d'information s'impose alors que d'autres préconisent le conseil. Afin d'élucider la confusion qui règne présentement en jurisprudence dans le domaine bancaire ainsi que dans le contrat de services et d'entreprise en général, il faut faire une étude jumelée de l'évolution de l'obligation de conseil accessoire et de l'obligation de conseil principale. Notre étude porte sur l'évolution jurisprudentielle qui tend vers une théorisation dans le contrat de services ou d'entreprise, de l'obligation de conseil qui devient alors une variante ou une intensité de l'obligation accessoire d'information. Par le fait même, on constate qu'une obligation de conseil principale semble également s'étendre à une catégorie plus large de professionnels. Dans ce cas, l'obligation de conseil est similaire, dans son fondement, au devoir de conseil du «professionnel» traditionnel, au sens du Code des professions. On constate alors que l'obligation principale de conseil n'est plus restreinte aux professionnels au sens classique du terme.
Resumo:
L’insuffisance cardiaque (IC), une maladie chronique caractérisée par un mauvais fonctionnement du muscle cardiaque, entraîne des symptômes comme l’essoufflement, l’œdème et la fatigue. L’IC nécessite l’adoption de comportements d’auto-soins pour prévenir les épisodes de décompensation. Le but de cette recherche est d’évaluer l’intervention infirmière motivationnelle selon les stades de changements (MSSC) sur les comportements d’auto-soins chez des patients IC. Afin de guider l’intervention MSSC, la théorie spécifique aux auto-soins chez les patients IC de Riegel et Dickson (2008) a été retenue ainsi que le modèle d’intervention de Bédard et al. (2006) combinant le modèle transthéorique (Prochaska & DiClemente, 1984) et l’entrevue motivationnelle (Miller & Rollnick, 2006). Il s’agit d’un devis expérimental randomisé (pré et post-test) avec groupe contrôle (N = 15/groupe). Les patients du groupe contrôle ont reçu les soins usuels et les patients du groupe intervention (GI) ont reçu l’intervention MSSC durant trois entretiens. Les mesures de résultats ont été collectées à un mois suite à la randomisation par une assistante de recherche aveugle à la randomisation. L’effet de l’intervention a été évalué par des analyses de covariance sur cinq mesures de résultats : la réalisation et la gestion (générale et spécifique à l’IC) des auto-soins, la confiance aux auto-soins (générale et spécifique à l’IC) et la conviction. L’acceptabilité et la faisabilité ont été évaluées. Les résultats indiquent un effet significatif sur la mesure de confiance à effectuer les auto-soins spécifiques à l’IC. La majorité des participants du GI ont progressé dans leurs stades de changement. Ces résultats soulignent le potentiel de cette approche pour favoriser l’adoption des auto-soins mais une étude à plus large échelle est proposée afin d’évaluer l’effet de cette approche dans un essai clinique randomisé.
Resumo:
L'évolution des soins médicaux auprès de la population ayant une lésion médullaire (LM) s'est traduite par une amélioration du profil fonctionnel des personnes atteintes. Ainsi une proportion importante retrouve une capacité à se tenir debout et à marcher qu'il convient d'évaluer adéquatement. Si quelques outils spécifiques à la population lésée médullaire existent pour évaluer leur ambulation, aucune évaluation de l'équilibre debout n'a été validée auprès de cette clientèle. L'échelle de Berg est un outil recommandé auprès de diverses populations, entre autres celles possédant des pathologies d'origine neurologique; et le score obtenu semble lié au niveau d'autonomie à la marche ainsi qu'aux aides techniques utilisées. L'objectif de ce projet de recherche était donc d'établir la validité concomitante de l'échelle de Berg auprès de la population LM et d'explorer les liens entre le score Berg et l'aide technique utilisée. Pour ce faire, trente-deux sujets BM ASIA D ont été recrutés parmi la clientèle hospitalisée de l'Institut de réadaptation Gingras-Lindsay de Montréal. L'évaluation de l'équilibre debout a été réalisée à l'aide de l'échelle de Berg ainsi que des tests statiques, dynamiques et des limites de stabilité du Balance Master. Le Walking Index for Spinal Cord Injury (WISCI), le Spinal Cord Injury Functional Ambulation Inventory (SCI-FAI), la vitesse de marche sur 10m et le Timed up and go ont été utilisés pour évaluer l'ambulation. Des analyses descriptives et corrélatives ont été effectuées sur les données obtenues. Une corrélation forte (0.714
Resumo:
Cette thèse constitue à la fois un apport de nature clinique et technologique dans l’approche diagnostique du glaucome. Plus précisément, nous nous proposons d’étudier une nouvelle façon de détecter le glaucome par la mesure de l’asymétrie du rapport de la surface de l’anneau neurorétinien et de la surface de la papille ou du disque optique ou rim to disc area asymmetry ratio (RADAAR). Pour atteindre cet objectif, nous avons recours à une base de données composée d’une population subdivisée en 4 différents groupes de diagnostic (normal, glaucome possible, glaucome probable et glaucome définitif). Les mesures du RADAAR sont calculées de différentes façons à partir des paramètres stéréométriques de la tête du nerf optique des sujets, produits par la microscopie confocale à balayage laser (Heidelberg Retina Tomograph (HRT) (Heidelberg Engineering, Germany)). Nous procédons à une analyse de données grâce au logiciel SPSS où nous mettons en exergue la distribution du RADAAR dans les différentes populations, sa validité et son utilité dans le dépistage du glaucome. Nous enrôlons donc 523 sujets dans cette étude avec 82 sujets atteints de glaucome définitif. La moyenne d’âge est de 62 ans. Il y a plus de femmes que d’hommes et plus de Caucasiens que d’Africains Caribéens. Nous trouvons que la distribution de la mesure du RADAAR est différente des sujets d’un groupe de diagnostic à l’autre. En termes de performance, la sensibilité de la mesure du RADAAR est très basse c'est-à-dire que sa capacité de détecter la maladie est basse. En revanche la mesure du RADAAR est plus spécifique c'est-à-dire que sa capacité d’identifier les sujets exempts de la maladie est plus grande. Elle tendrait à être aussi plus performante chez les Africains Caribéens que chez les Caucasiens. De même, elle serait plus sensible chez les hommes que chez les femmes. La mesure du RADAAR est utile si on l’associe à une autre méthode de diagnostic comme l’analyse de Régression de Moorfields (MRA) incluse dans le logiciel du HRT3 spécialement lors de la détection du glaucome dans la population à haut risque. En définitive, nous déterminons que la mesure du RADAAR se veut un outil d’aide au diagnostic. Elle est particulièrement intéressante dans le contexte de dépistage de glaucome.
Resumo:
Le programme -Une école adaptée à tous ses élèves-, qui s'inscrit dans la réforme actuelle de l'éducation au Québec, nous a amenée à nous intéresser aux représentations dans les grandeurs en mesure en mathématiques des élèves en difficulté d'apprentissage. Nous nous sommes proposés de reconduire plusieurs paramètres de la recherche de Brousseau (1987, 1992) auprès de cette clientèle. La théorie des champs conceptuels (TCC) de Vergnaud (1991), appliquée aux structures additives, a été particulièrement utile pour l'analyse et l'interprétation de leurs représentations. Comme méthode de recherche, nous avons utilisé la théorie des situations didactiques en mathématiques (TSDM), réseau de concepts et de méthode de recherche appuyé sur l'ingénierie didactique qui permet une meilleure compréhension de l'articulation des contenus à enseigner. Grâce à la TSDM, nous avons observé les approches didactiques des enseignants avec leurs élèves. Notre recherche est de type exploratoire et qualitatif et les données recueillies auprès de 26 élèves de deux classes spéciales du deuxième cycle du primaire ont été traitées selon une méthode d'analyse de contenu. Deux conduites ont été adoptées par les élèves. La première, de type procédural a été utilisée par presque tous les élèves. Elle consiste à utiliser des systèmes de comptage plus ou moins sophistiqués, de la planification aux suites d'actions. La deuxième consiste à récupérer directement en mémoire à long terme le résultat associé à un couple donné et au contrôle de son exécution. L'observation des conduites révèle que les erreurs sont dues à une rupture du sens. Ainsi, les difficultés d'ordre conceptuel et de symbolisation nous sont apparues plus importantes lorsque l'activité d'échange demandait la compétence "utilisation" et renvoyait à la compréhension de la tâche, soit les tâches dans lesquelles ils doivent eux-mêmes découvrir les rapports entre les variables à travailler et à simuler les actions décrites dans les énoncés. En conséquence, les problèmes d'échanges se sont révélés difficiles à modéliser en actes et significativement plus ardus que les autres. L'étude des interactions enseignants et élèves a démontré que la parole a été presque uniquement le fait des enseignants qui ont utilisé l'approche du contrôle des actes ou du sens ou les deux stratégies pour aider des élèves en difficulté. Selon le type de situation à résoudre dans ces activités de mesurage de longueur et de masse, des mobilisations plurielles ont été mises en oeuvre par les élèves, telles que la manipulation d'un ou des étalon(s) par superposition, par reports successifs, par pliage ou par coupure lorsque l'étalon dépassait; par retrait ou ajout d'un peu de sable afin de stabiliser les plateaux. Nous avons également observé que bien que certains élèves aient utilisé leurs doigts pour se donner une perception globale extériorisée des quantités, plusieurs ont employé des procédures très diverses au cours de ces mêmes séances. Les résultats présentés étayent l'hypothèse selon laquelle les concepts de grandeur et de mesure prennent du sens à travers des situations problèmes liées à des situations vécues par les élèves, comme les comparaisons directes. Eles renforcent et relient les grandeurs, leurs propriétés et les connaissances numériques.
Resumo:
Sous l'ère moderne, où le commerce n'a plus de frontières physiques, les catastrophes causant des dommages à grande échelle se sont multipliées. Lorsque de telles catastrophes surviennent, l'utilisation de procédures de recours collectif pour juger de l'ensemble des litiges semble être la solution indiquée. Pourtant, l'expérience nous démontre qu'il n'en est rien... Bien que le même événement cause des dommages à de multiples victimes, le recours judiciaire demeure l'exercice d'un droit personnel. Le tribunal devra alors rechercher l'application de règles matérielles spécifiques à ce recours. En l'absence de règles spécifiques, les règles de conflit de lois du tribunal saisi seront applicables. Or, ces règles ne sont pas uniformes et entraînent une multiplicité de lois applicables. Conséquemment, il est opportun de s'interroger sur la pertinence de réunir des recours individuels en un seul recours. L'expérience américaine nous démontre les difficultés engendrées par la multiplicité de lois applicables à un recours collectif, bien que des solutions législatives et jurisprudentielles aient été proposées. Ces solutions demeurent imparfaites, tant au niveau de leur constitutionalité que du respect des droits fondamentaux. Devant la complexité occasionnée par le regroupement de ces litiges, les tribunaux sont réfractaires à leur autorisation, dès lors qu'une multiplicité de lois applicables est démontrée. Ainsi, la solution juridique la mieux adaptée aux recours collectifs internationaux demeure celle de saisir les tribunaux, de plusieurs recours collectifs distincts; chacun regroupé en fonction de la loi applicable à chaque recours, déterminée, au préalable, par l'analyse des règles de conflit de lois du tribunal saisi.
Resumo:
Essai cinique randomisé
Resumo:
Cette thèse examine les impacts sur la morphologie des tributaires du fleuve Saint-Laurent des changements dans leur débit et leur niveau de base engendrés par les changements climatiques prévus pour la période 2010–2099. Les tributaires sélectionnés (rivières Batiscan, Richelieu, Saint-Maurice, Saint-François et Yamachiche) ont été choisis en raison de leurs différences de taille, de débit et de contexte morphologique. Non seulement ces tributaires subissent-ils un régime hydrologique modifié en raison des changements climatiques, mais leur niveau de base (niveau d’eau du fleuve Saint-Laurent) sera aussi affecté. Le modèle morphodynamique en une dimension (1D) SEDROUT, à l’origine développé pour des rivières graveleuses en mode d’aggradation, a été adapté pour le contexte spécifique des tributaires des basses-terres du Saint-Laurent afin de simuler des rivières sablonneuses avec un débit quotidien variable et des fluctuations du niveau d’eau à l’aval. Un module pour simuler le partage des sédiments autour d’îles a aussi été ajouté au modèle. Le modèle ainsi amélioré (SEDROUT4-M), qui a été testé à l’aide de simulations à petite échelle et avec les conditions actuelles d’écoulement et de transport de sédiments dans quatre tributaires du fleuve Saint-Laurent, peut maintenant simuler une gamme de problèmes morphodynamiques de rivières. Les changements d’élévation du lit et d’apport en sédiments au fleuve Saint-Laurent pour la période 2010–2099 ont été simulés avec SEDROUT4-M pour les rivières Batiscan, Richelieu et Saint-François pour toutes les combinaisons de sept régimes hydrologiques (conditions actuelles et celles prédites par trois modèles de climat globaux (MCG) et deux scénarios de gaz à effet de serre) et de trois scénarios de changements du niveau de base du fleuve Saint-Laurent (aucun changement, baisse graduelle, baisse abrupte). Les impacts sur l’apport de sédiments et l’élévation du lit diffèrent entre les MCG et semblent reliés au statut des cours d’eau (selon qu’ils soient en état d’aggradation, de dégradation ou d’équilibre), ce qui illustre l’importance d’examiner plusieurs rivières avec différents modèles climatiques afin d’établir des tendances dans les effets des changements climatiques. Malgré le fait que le débit journalier moyen et le débit annuel moyen demeurent près de leur valeur actuelle dans les trois scénarios de MCG, des changements importants dans les taux de transport de sédiments simulés pour chaque tributaire sont observés. Ceci est dû à l’impact important de fortes crues plus fréquentes dans un climat futur de même qu’à l’arrivée plus hâtive de la crue printanière, ce qui résulte en une variabilité accrue dans les taux de transport en charge de fond. Certaines complications avec l’approche de modélisation en 1D pour représenter la géométrie complexe des rivières Saint-Maurice et Saint-François suggèrent qu’une approche bi-dimensionnelle (2D) devrait être sérieusement considérée afin de simuler de façon plus exacte la répartition des débits aux bifurcations autour des îles. La rivière Saint-François est utilisée comme étude de cas pour le modèle 2D H2D2, qui performe bien d’un point de vue hydraulique, mais qui requiert des ajustements pour être en mesure de pleinement simuler les ajustements morphologiques des cours d’eau.
Resumo:
Ce mémoire est composé de trois articles qui s’unissent sous le thème de la recommandation musicale à grande échelle. Nous présentons d’abord une méthode pour effectuer des recommandations musicales en récoltant des étiquettes (tags) décrivant les items et en utilisant cette aura textuelle pour déterminer leur similarité. En plus d’effectuer des recommandations qui sont transparentes et personnalisables, notre méthode, basée sur le contenu, n’est pas victime des problèmes dont souffrent les systèmes de filtrage collaboratif, comme le problème du démarrage à froid (cold start problem). Nous présentons ensuite un algorithme d’apprentissage automatique qui applique des étiquettes à des chansons à partir d’attributs extraits de leur fichier audio. L’ensemble de données que nous utilisons est construit à partir d’une très grande quantité de données sociales provenant du site Last.fm. Nous présentons finalement un algorithme de génération automatique de liste d’écoute personnalisable qui apprend un espace de similarité musical à partir d’attributs audio extraits de chansons jouées dans des listes d’écoute de stations de radio commerciale. En plus d’utiliser cet espace de similarité, notre système prend aussi en compte un nuage d’étiquettes que l’utilisateur est en mesure de manipuler, ce qui lui permet de décrire de manière abstraite la sorte de musique qu’il désire écouter.