639 resultados para Intervalle de confiance simultané
Resumo:
Introduction: Les professionnels de la réadaptation de l’accident vasculaire cérébral (AVC) ont la responsabilité d’offrir des services de qualité ancrés dans les données probantes. Cette responsabilité relève du rôle d’érudit selon le cadre de compétences CanMEDS. Quelle place occupe par ce rôle en clinique? Objectifs : 1) Documenter les perceptions, expériences et vécus en lien avec le rôle d’érudit chez les professionnels de la réadaptation de l’AVC. 2) Identifier les facteurs perçus comme facilitant ou entravant ce rôle clinique. Méthodologie : Étude qualitative exploratoire d’orientation phénoménologique par entrevue individuelle de professionnels travaillant en réadaptation de l’AVC depuis au moins deux ans. Codification des verbatim avec le logiciel QDA-Miner. Résultats : Les participants (âge moyen 40,7 ans ± 11,2) sont majoritairement des femmes (9/11) et leur expérience de travail en AVC varie de 3 à 23 ans. Les principaux thèmes identifiés sont: 1) Les savoirs tacites sont perçus comme synonyme du rôle d’érudit; 2) L’expérience de travail et l’intuition clinique amènent confiance et confort dans les pratiques; 3) L’insatisfaction quant au manque de partage des connaissances; 4) L’importance de la diversification dans les tâches cliniques et 5) La pratique réflexive est peu développée. Les quatre facteurs influençant le rôle d’érudit sont: la motivation; l’incident critique, les stagiaires et le manque de temps. Conclusion : Le rôle d’érudit apparaît peu valorisé par les participants. Il existe un écart entre le rôle d’érudit tel que décrit dans les cadres de compétences et la façon dont il est actualisé en pratique clinique.
Resumo:
Depuis quelques années, l'évolution moléculaire cherche à caractériser les variations et l'intensité de la sélection grâce au rapport entre taux de substitution synonyme et taux de substitution non-synonyme (dN/dS). Cette mesure, dN/dS, a permis d'étudier l'histoire de la variation de l'intensité de la sélection au cours du temps ou de détecter des épisodes de la sélection positive. Les liens entre sélection et variation de taille efficace interfèrent cependant dans ces mesures. Les méthodes comparatives, quant a elle, permettent de mesurer les corrélations entre caractères quantitatifs le long d'une phylogénie. Elles sont également utilisées pour tester des hypothèses sur l'évolution corrélée des traits d'histoire de vie, mais pour être employées pour étudier les corrélations entre traits d'histoire de vie, masse, taux de substitution ou dN/dS. Nous proposons ici une approche combinant une méthode comparative basée sur le principe des contrastes indépendants et un modèle d'évolution moléculaire, dans un cadre probabiliste Bayésien. Intégrant, le long d'une phylogénie, sur les reconstructions ancestrales des traits et et de dN/dS nous estimons les covariances entre traits ainsi qu'entre traits et paramètres du modèle d'évolution moléculaire. Un modèle hiérarchique, a été implémenté dans le cadre du logiciel coevol, publié au cours de cette maitrise. Ce modèle permet l'analyse simultané de plusieurs gènes sans perdre la puissance donnée par l'ensemble de séquences. Un travail deparallélisation des calculs donne la liberté d'augmenter la taille du modèle jusqu'à l'échelle du génome. Nous étudions ici les placentaires, pour lesquels beaucoup de génomes complets et de mesures phénotypiques sont disponibles. À la lumière des théories sur les traits d'histoire de vie, notre méthode devrait permettre de caractériser l'implication de groupes de gènes dans les processus biologique liés aux phénotypes étudiés.
Resumo:
Les modèles pharmacocinétiques à base physiologique (PBPK) permettent de simuler la dose interne de substances chimiques sur la base de paramètres spécifiques à l’espèce et à la substance. Les modèles de relation quantitative structure-propriété (QSPR) existants permettent d’estimer les paramètres spécifiques au produit (coefficients de partage (PC) et constantes de métabolisme) mais leur domaine d’application est limité par leur manque de considération de la variabilité de leurs paramètres d’entrée ainsi que par leur domaine d’application restreint (c. à d., substances contenant CH3, CH2, CH, C, C=C, H, Cl, F, Br, cycle benzénique et H sur le cycle benzénique). L’objectif de cette étude est de développer de nouvelles connaissances et des outils afin d’élargir le domaine d’application des modèles QSPR-PBPK pour prédire la toxicocinétique de substances organiques inhalées chez l’humain. D’abord, un algorithme mécaniste unifié a été développé à partir de modèles existants pour prédire les PC de 142 médicaments et polluants environnementaux aux niveaux macro (tissu et sang) et micro (cellule et fluides biologiques) à partir de la composition du tissu et du sang et de propriétés physicochimiques. L’algorithme résultant a été appliqué pour prédire les PC tissu:sang, tissu:plasma et tissu:air du muscle (n = 174), du foie (n = 139) et du tissu adipeux (n = 141) du rat pour des médicaments acides, basiques et neutres ainsi que pour des cétones, esters d’acétate, éthers, alcools, hydrocarbures aliphatiques et aromatiques. Un modèle de relation quantitative propriété-propriété (QPPR) a été développé pour la clairance intrinsèque (CLint) in vivo (calculée comme le ratio du Vmax (μmol/h/kg poids de rat) sur le Km (μM)), de substrats du CYP2E1 (n = 26) en fonction du PC n octanol:eau, du PC sang:eau et du potentiel d’ionisation). Les prédictions du QPPR, représentées par les limites inférieures et supérieures de l’intervalle de confiance à 95% à la moyenne, furent ensuite intégrées dans un modèle PBPK humain. Subséquemment, l’algorithme de PC et le QPPR pour la CLint furent intégrés avec des modèles QSPR pour les PC hémoglobine:eau et huile:air pour simuler la pharmacocinétique et la dosimétrie cellulaire d’inhalation de composés organiques volatiles (COV) (benzène, 1,2-dichloroéthane, dichlorométhane, m-xylène, toluène, styrène, 1,1,1 trichloroéthane et 1,2,4 trimethylbenzène) avec un modèle PBPK chez le rat. Finalement, la variabilité de paramètres de composition des tissus et du sang de l’algorithme pour les PC tissu:air chez le rat et sang:air chez l’humain a été caractérisée par des simulations Monte Carlo par chaîne de Markov (MCMC). Les distributions résultantes ont été utilisées pour conduire des simulations Monte Carlo pour prédire des PC tissu:sang et sang:air. Les distributions de PC, avec celles des paramètres physiologiques et du contenu en cytochrome P450 CYP2E1, ont été incorporées dans un modèle PBPK pour caractériser la variabilité de la toxicocinétique sanguine de quatre COV (benzène, chloroforme, styrène et trichloroéthylène) par simulation Monte Carlo. Globalement, les approches quantitatives mises en œuvre pour les PC et la CLint dans cette étude ont permis l’utilisation de descripteurs moléculaires génériques plutôt que de fragments moléculaires spécifiques pour prédire la pharmacocinétique de substances organiques chez l’humain. La présente étude a, pour la première fois, caractérisé la variabilité des paramètres biologiques des algorithmes de PC pour étendre l’aptitude des modèles PBPK à prédire les distributions, pour la population, de doses internes de substances organiques avant de faire des tests chez l’animal ou l’humain.
Resumo:
Dans certaines circonstances, des actions de groupes sont plus performantes que des actions individuelles. Dans ces situations, il est préférable de former des coalitions. Ces coalitions peuvent être disjointes ou imbriquées. La littérature économique met un fort accent sur la modélisation des accords où les coalitions d’agents économiques sont des ensembles disjoints. Cependant on observe dans la vie de tous les jours que les coalitions politiques, environnementales, de libre-échange et d’assurance informelles sont la plupart du temps imbriquées. Aussi, devient-il impératif de comprendre le fonctionnement économique des coalitions imbriquées. Ma thèse développe un cadre d’analyse qui permet de comprendre la formation et la performance des coalitions même si elles sont imbriquées. Dans le premier chapitre je développe un jeu de négociation qui permet la formation de coalitions imbriquées. Je montre que ce jeu admet un équilibre et je développe un algorithme pour calculer les allocations d’équilibre pour les jeux symétriques. Je montre que toute structure de réseau peut se décomposer de manière unique en une structure de coalitions imbriquées. Sous certaines conditions, je montre que cette structure correspond à une structure d’équilibre d’un jeu sous-jacent. Dans le deuxième chapitre j’introduis une nouvelle notion de noyau dans le cas où les coalitions imbriquées sont permises. Je montre que cette notion de noyau est une généralisation naturelle de la notion de noyau de structure de coalitions. Je vais plus loin en introduisant des agents plus raffinés. J’obtiens alors le noyau de structure de coalitions imbriquées que je montre être un affinement de la première notion. Dans la suite de la thèse, j’applique les théories développées dans les deux premiers chapitres à des cas concrets. Le troisième chapitre est une application de la relation biunivoque établie dans le premier chapitre entre la formation des coalitions et la formation de réseaux. Je propose une modélisation réaliste et effective des assurances informelles. J’introduis ainsi dans la littérature économique sur les assurances informelles, quatre innovations majeures : une fusion entre l’approche par les groupes et l’approche par les réseaux sociaux, la possibilité d’avoir des organisations imbriquées d’assurance informelle, un schéma de punition endogène et enfin les externalités. Je caractérise les accords d’assurances informelles stables et j’isole les conditions qui poussent les agents à dévier. Il est admis dans la littérature que seuls les individus ayant un revenu élevé peuvent se permettre de violer les accords d’assurances informelles. Je donne ici les conditions dans lesquelles cette hypothèse tient. Cependant, je montre aussi qu’il est possible de violer cette hypothèse sous d’autres conditions réalistes. Finalement je dérive des résultats de statiques comparées sous deux normes de partage différents. Dans le quatrième et dernier chapitre, je propose un modèle d’assurance informelle où les groupes homogènes sont construits sur la base de relations de confiance préexistantes. Ces groupes sont imbriqués et représentent des ensembles de partage de risque. Cette approche est plus générale que les approches traditionnelles de groupe ou de réseau. Je caractérise les accords stables sans faire d’hypothèses sur le taux d’escompte. J’identifie les caractéristiques des réseaux stables qui correspondent aux taux d’escomptes les plus faibles. Bien que l’objectif des assurances informelles soit de lisser la consommation, je montre que des effets externes liés notamment à la valorisation des liens interpersonnels renforcent la stabilité. Je développe un algorithme à pas finis qui égalise la consommation pour tous les individus liés. Le fait que le nombre de pas soit fini (contrairement aux algorithmes à pas infinis existants) fait que mon algorithme peut inspirer de manière réaliste des politiques économiques. Enfin, je donne des résultats de statique comparée pour certaines valeurs exogènes du modèle.
Resumo:
La papillomatose respiratoire récurrente (PRR) juvénile est causée par les génotypes 6 et 11 du virus du papillome humain (VPH). Cette maladie est caractérisée par des verrues récurrentes généralement au larynx. La forme sévère peut avoir un impact dévastateur sur la santé et la qualité de vie de l’enfant atteint et de sa famille en raison des conséquences des multiples chirurgies nécessaires et du risque d'obstruction des voies respiratoires. Objectif: Examiner les facteurs de risque associés aux manifestations sévères de la PRR. Méthode: Étude rétrospective des 31 cas diagnostiqués entre janvier 1995 et décembre 2008. Les données démographiques, cliniques, génétiques et virologiques ont été évaluées. Des régressions logistiques furent effectuées afin d'évaluer le rôle des variables indépendantes sur la sévérité de la maladie. Résultats: Nos données suggèrent que les facteurs de risque de sévérité de la PRR seraient associés au genre féminin (Rapport de cotes (RC)=2.60, intervalles de confiance (IC) 95% : 0.44-15.44), au fait d’être premier-né (RC=3.51, IC 95% : 0.17-72.32), à un statut économique faible (RC=5.31, IC 95% : 0.17-164.19), à un jeune âge (RC=0.83, IC 95% : 0.68-1.01), à une charge virale élevée (RC=3.81, IC 95% : 0.23-63.16) et aux condylomes chez la mère pendant la grossesse (RC=12.05, IC 95% : 0.97-149.85). Conclusion: La sévérité de la PRR serait le résultat d'une combinaison de déterminants qui favoriseraient la croissance cellulaire particulièrement chez les jeunes enfants. Des mesures préventives et thérapeutiques visant à restreindre la contamination et la réplication du virus pourraient réduire le fardeau de la maladie.
Resumo:
Cette thèse porte sur les gestes et attitudes qui ont caractérisé la figure aristocratique dans l’art européen entre 1661 et 1789. Cet intervalle correspond à la durée de vie d’un paradigme corporel noble appelé « le bon air et la bonne grâce », de son élaboration à la cour de Louis XIV et de sa diffusion hégémonique en Europe, jusqu’à son rejet définitif à la Révolution française. La société d’Ancien Régime a déployé tout un arsenal de moyens (exercices, instruments orthopédiques,…) pour intérioriser une grâce qui devait paraître innée et prouver la noblesse. Le maître à danser détenait le monopole de l’inculcation de cette grâce et de son élaboration suivant des critères hautement esthétiques. Les gestes et positions inventoriés ici, sont décrits et associés à leurs connotations d’origine, montrant qu’une connaissance approfondie et minutieuse de la gestuelle peut affiner notre compréhension d’un large pan de l’art des XVIIe et XVIIIe siècles. L’auteur démontre que cette hexis corporelle contemporaine transcende tous les domaines concernés par le corps noble (éducation, théâtre, danse, opéra, arts martiaux, etc.) et en vient à infiltrer la majorité des genres picturaux, bousculant les traditions artistiques déjà en place et s’affichant comme une alternative moderne à la grâce des Anciens. Le portrait, la gravure de mode, les figurines de porcelaine, les vues de villes et de jardins sont les plus touchés par ce phénomène. La bonne grâce s’affirme ainsi dans une culture visuelle qui, par ricochet, en vient à renforcer les pratiques sociales dont elle était le reflet. Cet aller-retour des attitudes aristocratiques entre l’art et la vie occasionne la standardisation de la figure et du corps aristocratiques. Dans la pastorale, la peinture d’histoire et la scène de genre, l’idéal aristocratique se manifeste, tantôt en négatif dans la figure du paysan, du Pierrot et de l’Arlequin, tantôt de manière idéalisée dans celles du berger et du héros galants. La substitution de gestes emphatiques et d’expressions faciales explicites par une gestuelle fondée sur la retenue et la dissimulation des passions, fondera une nouvelle historia moins lisible que la traditionnelle, mais plus subtile et insinuée, répondant ainsi mieux au goût et à la sensibilité aristocratique.
Resumo:
Objectif: Étudier l’association entre la consommation de café, la consommation de thé noir et le risque de cancer du poumon. Méthodologie: Cette recherche utilise les données obtenues lors d’une étude cas-témoin effectuée à Montréal avec des résidents canadiens âgés entre 35 et 75 ans recrutés entre 1996 et 2001. Les cas étaient des individus atteints du cancer et diagnostiqués entre 1996 et 1997 dans l’un des 18 hôpitaux de la région du Grand-Montréal. Les contrôles on été sélectionnés à partir de la liste électorale et appariés selon la fréquence de distribution des cas par groupe d’âge de 5 ans, par sexe et par district électoral. Au total, 1130 cas et 1484 contrôles ont été inclus dans cette étude. Les rapports de cote (RC) et les intervalles de confiance de 95% (CI) des associations entre la consommation de thé noir, de café et le cancer du poumon ont été estimés à l’aide de la régression logistique non conditionnelle. Quatre aspects de la consommation ont été analysés dans des modèles multivariés distincts: la fréquence de consommation, la consommation journalière moyenne, la durée de consommation et la consommation cumulative. Les covariables potentielles considérées incluaient : l’âge, le sexe, l’historique de tabagisme, le statut du répondant, l’ethnicité, la consommation d’alcool, la consommation de fruit et de légume, l’apport énergétique journalier, l’exposition a des agents professionnelle et les variables socio-économiques . Des analyses secondaires par le sexe, le tabagisme et le type histologique de cancer on été effectuées. Résultats : Aucune association statistiquement significative n’a été observée entre la consommation de thé noir et le cancer du poumon. Nos résultats suggèrent qu’une consommation de ≥ 50 ans était associée avec une augmentation du risque d’adénocarcinome comparée à aucune consommation. Nous avons observé une association inverse statistiquement significative entre la consommation occasionnelle de café et le cancer du poumon (RC : 0.32, 95%CI : 0.17-0.59). La durée de consommation de café n’était pas associée avec le cancer du poumon. Conclusion : Nos résultats suggèrent que la consommation à long terme de thé noir pourrait augmenter le risque d’adénocarcinome. D’un autre côté, la consommation occasionnelle de café pourrait réduire le risque de cancer du poumon.
Resumo:
En rivière à lit de graviers, le transport des sédiments en charge de fond est un processus intermittent qui dépend de plusieurs variables du système fluvial dont la prédiction est encore aujourd’hui inexacte. Les modèles disponibles pour prédire le transport par charriage utilisent des variables d’écoulement moyen et la turbulence n’est généralement pas considérée malgré que les tourbillons contenus dans les écoulements possèdent une quantité d’énergie importante. L’utilisation de nouvelles approches pour étudier la problématique du transport par charriage pourrait nous permettre d’améliorer notre connaissance de ce processus déterminant en rivière alluviale. Dans ce mémoire, nous documentons ces composantes de la dynamique fluviale dans un cours d’eau graveleux en période de crue. Les objectifs du projet de recherche sont : 1) d’examiner l’effet du débit sur les variables turbulentes et les caractéristiques des structures turbulentes cohérentes, 2) d’investiguer l’effet du débit sur les caractéristiques des événements de transport de sédiments individuels détectés à l’aide d’un nouvel algorithme développé et testé et 3) de relier les caractéristiques de l’écoulement turbulent aux événements de transport de sédiments individuels. Les données de turbulence montrent qu’à haut niveau d’eau, l’écoulement décéléré est peu cohérent et a une turbulence plus isotrope où les structures turbulentes cohérentes sont de courte durée. Ces observations se distinguent de celles faites à faible niveau d’eau, en écoulement accéléré, où la plus grande cohérence de l’écoulement correspond à ce qui est généralement observé dans les écoulements uniformes en rivières graveleuses. Les distributions de fréquence des variables associées aux événements de transport individuel (intensité de transport moyenne, durée d’événement et intervalle entre événements successifs) ont des formes différentes pour chaque intensité de crue. À haut niveau d’eau, le transport est moins intermittent qu’à faible débit où les événements rares caractérisent davantage les distributions. L’accélération de l’écoulement à petite échelle de temps joue un rôle positif sur le transport, mais surtout lorsque la magnitude de la crue mobilisatrice est en dessous du niveau plein bord. Les résultats de l’étude montrent que les caractéristiques de la turbulence ainsi que les liens complexes entre l’écoulement et le transport par charriage sont fonction du débit.
Resumo:
La perception de mouvements est associée à une augmentation de l’excitabilité du cortex moteur humain. Ce système appelé « miroir » sous-tendrait notre habileté à comprendre les gestes posés par une tierce personne puisqu’il est impliqué dans la reconnaissance, la compréhension et l’imitation de ces gestes. Dans cette étude, nous examinons de quelle façon ce système miroir s’implique et se latéralise dans la perception du chant et de la parole. Une stimulation magnétique transcrânienne (TMS) à impulsion unique a été appliquée sur la représentation de la bouche du cortex moteur de 11 participants. La réponse motrice engendrée a été mesurée sous la forme de potentiels évoqués moteurs (PÉMs), enregistrés à partir du muscle de la bouche. Ceux-ci ont été comparés lors de la perception de chant et de parole, dans chaque hémisphère cérébral. Afin d’examiner l’activation de ce système moteur dans le temps, les impulsions de la TMS ont été envoyées aléatoirement à l’intérieur de 7 fenêtres temporelles (500-3500 ms). Les stimuli pour la tâche de perception du chant correspondaient à des vidéos de 4 secondes dans lesquelles une chanteuse produisait un intervalle ascendant de deux notes que les participants devaient juger comme correspondant ou non à un intervalle écrit. Pour la tâche de perception de la parole, les participants regardaient des vidéos de 4 secondes montrant une personne expliquant un proverbe et devaient juger si cette explication correspondait bien à un proverbe écrit. Les résultats de cette étude montrent que les amplitudes des PÉMs recueillis dans la tâche de perception de chant étaient plus grandes après stimulation de l’hémisphère droit que de l’hémisphère gauche, surtout lorsque l’impulsion était envoyée entre 1000 et 1500 ms. Aucun effet significatif n’est ressorti de la condition de perception de la parole. Ces résultats suggèrent que le système miroir de l’hémisphère droit s’active davantage après une présentation motrice audio-visuelle, en comparaison de l’hémisphère gauche.
Resumo:
Les troubles du spectre autistique (TSA) sont actuellement caractérisés par une triade d'altérations, incluant un dysfonctionnement social, des déficits de communication et des comportements répétitifs. L'intégration simultanée de multiples sens est cruciale dans la vie quotidienne puisqu'elle permet la création d'un percept unifié. De façon similaire, l'allocation d'attention à de multiples stimuli simultanés est critique pour le traitement de l'information environnementale dynamique. Dans l'interaction quotidienne avec l'environnement, le traitement sensoriel et les fonctions attentionnelles sont des composantes de base dans le développement typique (DT). Bien qu'ils ne fassent pas partie des critères diagnostiques actuels, les difficultés dans les fonctions attentionnelles et le traitement sensoriel sont très courants parmi les personnes autistes. Pour cela, la présente thèse évalue ces fonctions dans deux études séparées. La première étude est fondée sur la prémisse que des altérations dans le traitement sensoriel de base pourraient être à l'origine des comportements sensoriels atypiques chez les TSA, tel que proposé par des théories actuelles des TSA. Nous avons conçu une tâche de discrimination de taille intermodale, afin d'investiguer l'intégrité et la trajectoire développementale de l'information visuo-tactile chez les enfants avec un TSA (N = 21, âgés de 6 à18 ans), en comparaison à des enfants à DT, appariés sur l’âge et le QI de performance. Dans une tâche à choix forcé à deux alternatives simultanées, les participants devaient émettre un jugement sur la taille de deux stimuli, basé sur des inputs unisensoriels (visuels ou tactiles) ou multisensoriels (visuo-tactiles). Des seuils différentiels ont évalué la plus petite différence à laquelle les participants ont été capables de faire la discrimination de taille. Les enfants avec un TSA ont montré une performance diminuée et pas d'effet de maturation aussi bien dans les conditions unisensorielles que multisensorielles, comparativement aux participants à DT. Notre première étude étend donc des résultats précédents d'altérations dans le traitement multisensoriel chez les TSA au domaine visuo-tactile. Dans notre deuxième étude, nous avions évalué les capacités de poursuite multiple d’objets dans l’espace (3D-Multiple Object Tracking (3D-MOT)) chez des adultes autistes (N = 15, âgés de 18 à 33 ans), comparés à des participants contrôles appariés sur l'âge et le QI, qui devaient suivre une ou trois cibles en mouvement parmi des distracteurs dans un environnement de réalité virtuelle. Les performances ont été mesurées par des seuils de vitesse, qui évaluent la plus grande vitesse à laquelle des observateurs sont capables de suivre des objets en mouvement. Les individus autistes ont montré des seuils de vitesse réduits dans l'ensemble, peu importe le nombre d'objets à suivre. Ces résultats étendent des résultats antérieurs d'altérations au niveau des mécanismes d'attention en autisme quant à l'allocation simultanée de l'attention envers des endroits multiples. Pris ensemble, les résultats de nos deux études révèlent donc des altérations chez les TSA quant au traitement simultané d'événements multiples, que ce soit dans une modalité ou à travers des modalités, ce qui peut avoir des implications importantes au niveau de la présentation clinique de cette condition.
Resumo:
Nous assistons depuis quelques années à une commercialisation de la recherche académique. Celle-ci est principalement due à une déficience marquée du financement public. Par conséquent, les universités se tournent vers d’autres sources de financement, tels les brevets et l’industrie privée. En parallèle, les gouvernements et les organismes subventionnaires favorisent cette commercialisation par la promotion de programmes de partenariats université-industrie et par la mise en place de stratégies pour l’innovation et le transfert des technologies. Prenant comme modèle le chercheur académique dans le domaine de la santé, nous avons évalué l’impact de cette commercialisation sur les responsabilités du chercheur envers la science et la société. Ce nouveau mode de fonctionnement comporte certes des avantages. Par exemple, il résulte en une injection de fonds nouveaux pour la recherche, un développement des infrastructures universitaires et un transfert de technologies plus efficace, permettant ainsi à la population de bénéficier plus rapidement des bienfaits de la recherche. Cependant, notre réflexion révèle que cette commercialisation comporte aussi des impacts négatifs sur la recherche académique. En effet, on observe l’apparition de conflits d’intérêts pour le chercheur. En plus de constituer une menace pour la sécurité de la population, ces situations causent l’effritement du lien de confiance entre la société et les chercheurs académiques, lien qui est essentiel pour assurer la progression du savoir humain. La commercialisation porte aussi atteinte à la liberté académique, effet que l’on peut observer tant au plan de l’orientation des recherches qu’à celui de la diffusion de ses résultats. Or, la liberté académique est une valeur fondamentale qui a été défendue depuis le Moyen Âge comme étant essentielle pour la progression du savoir humain. Le potentiel commercial devient un facteur dans l’évaluation des projets de recherche académique alors que, traditionnellement, l’avancement des connaissances la guidait essentiellement. Ainsi, la recherche appliquée devient favorisée au détriment de la recherche fondamentale. Ce virage commercial peut bénéficier à la société à court terme mais, à long terme, l’évolution de la société est menacée. La recherche appliquée et la recherche fondamentale sont toutes deux essentielles à l’avancement de la société, apportant chacune leur lot de bénéfices pour cette dernière. La commercialisation de la recherche académique ne doit donc pas résulter en une diminution progressive de la recherche fondamentale au profit de la recherche appliquée. Bien que les chercheurs académiques soient conscients de l’importance de préserver la recherche fondamentale, cette protection ne peut s’opérer sans le support actif des organismes subventionnaires, des gouvernements et de la société en général.
Resumo:
Mémoire présenté pour l’obtention du Master II de Droit International Public et dirigé par Monsieur Jean-François MARCHI, Maître de Conférences. Année 2005-2006. L’auteure souhaiterait, en premier lieu, remercier l’équipe du C.E.R.I.C. et tout particulièrement son directeur de recherche, monsieur Jean-François Marchi, pour lui avoir accordé sa confiance et son aide tout au long de cette étude passionnante et enrichissante. Elle désirerait également saluer Harith Al Dabbagh, Maître assistant à la Faculté de droit de l’Université de Mossoul (Irak) et Doctorant en droit privé à l’Université Aix-Marseille III, pour le temps consacré lors de leurs discussions, permettant à l’auteure d’en apprendre davantage sur son pays, l’Irak. Sans oublier enfin ses proches pour leur contribution à travers leur soutien constant et l’intérêt porté à l’égard de ce travail.
Resumo:
ans ce texte, l’auteur examine le régime de responsabilité des prestataires techniques au regard de la Loi pour la confiance dans l’économie numérique. Cette analyse est basée sur le rôle des fournisseurs d’accès et des fournisseurs de services de stockage. Par ailleurs, l’auteur présente les obligations légales d’identification et de coopération avec les services judiciaires mises à la charge des prestataires techniques.
Resumo:
Le dopage fait l’objet d’une intense lutte par les autorités sportives. Cet article s’intéresse à l’encadrement des renseignements personnels des athlètes qui y sont soumis. En effet, la lutte au dopage s’opère principalement par le traitement des nombreuses informations de santé que les athlètes fournissent dans le cadre de certaines procédures. L’article étudie dans une première partie les fondements de la lutte antidopage et la structure du sport aux niveaux international et canadien dans le but de contextualiser l’analyse de la protection des renseignements personnels. La seconde partie porte dans un premier temps sur le cadre général de la protection des renseignements personnels, puis sur les deux « outils » de la lutte au dopage : les autorisations pour usage à des fins thérapeutiques et les contrôles antidopage. Dans le premier cas, la protection des renseignements personnels s’effectue selon le modèle des aires de partage, où plusieurs personnes ont un accès simultané aux renseignements afin de fournir une prestation donnée. Dans le second cas, la protection est plus classique mais a la particularité de se confondre partiellement avec les mesures visant à protéger l’intégrité et la validité des contrôles.
Resumo:
Le sujet sur lequel porte la présente étude est inspiré de la problématique à la base du développement du commerce électronique : la confiance. En effet, l’accroissement exponentiel du nombre d’internautes et des sites Web commerciaux pose un sérieux problème à ce niveau. Ces sites présentent au public une information et des services divers, mais peu vérifiables. Ainsi, le principal obstacle au développement du commerce électronique avec les particuliers est le manque de confiance qu’inspirent les lieux visités. En effet, comment savoir si l’entreprise existe, quelles sont ses politiques concernant la sécurité ou la gestion des renseignements personnels, etc. La vérification et la certification des sites apparaissent comme une solution de plus en plus attrayante et utilisée pour ajouter cet élément de confiance. Déjà, de nombreux sceaux de qualité sont apparus sur les sites commerciaux. Certains sceaux portent sur la confidentialité tandis que d’autres ciblent la protection des consommateurs. La certification peut provenir de la compagnie même, d’un tiers certificateur ou d’un organisme public. Ces éléments constituent des balises et repères importants pour le consommateur sur Internet. Toutefois, les incidences légales sont multiples et certains concepts demeurent flous. Pour apporter une réponse à ces questions, nous définirons le concept de certification des sites Web et ses enjeux dont plus particulièrement la problématique de la confiance des consommateurs. Les différents objets de la certification seront analysés, tant au niveau de l’entité, du contenu du site que de la dimension transactionnelle de celui-ci. Les processus possibles et les impacts de la certification occupent la seconde partie du travail. Il s’agit d’examiner successivement les étapes menant à la certification, soit l’établissement des standards, de l’évaluation de l’entité et de la certification elle-même. L’analyse des impacts de la certification, tant sur le plan de la portée, de la responsabilité légale et des effets sur la concurrence de la certification constitue quant à eux, l’aboutissement de la recherche, soit de savoir quel est l’impact juridique d’un tel mécanisme. Le but de la recherche est de permettre au lecteur de mieux cerner ce phénomène de l’utilisation de la certification sur Internet avec ses avantages et ses limites. Certes, cet outil peut s’avérer très utile pour bâtir la confiance des consommateurs, promouvoir l’essor du commerce électronique et constituer une forme d’autoréglementation. Toutefois, mal utilisé ou mal encadré, il peut engendrer l’effet inverse et détruire cette confiance si fragile à construire dans un environnement dématérialisé.