510 resultados para Savoir
Resumo:
«Dans l'écosystème du numérique, le bibliothécaire doit redéfinir sa fonction en tant que médiateur entre le document et l'usager, non seulement au sein de son institution mais aussi à l'échelle de la société»
Resumo:
Les schémas en annexe ont été réalisés avec le logiciel Adobe Illustrator.
Resumo:
La cardiomyopathie/dysplasie arythmogène du ventricule droit (ARVC/D) est un désordre d’origine génétique caractérisé par le remplacement du myocarde par du tissus fibro-adipeux dans le ventricule droit. Ce désordre est responsable d’un grand pourcentage de mort subite, spécialement chez les plus jeunes. ARVC/D est difficile à diagnostiquer avec les outils cliniques actuels. Elle est causée en grande majorité par des mutations dans les protéines desmosomales. ARVC/D a donc des implications d’une grande importance chez les membres de la famille, qui peuvent sans le savoir, être aussi à risque de mort subite. Dans le but d’améliorer le diagnostique, un nouvel outil, le test génétique, est de plus en plus utilisé. Hypothèses: Dans le but d’évaluer la valeur du test génétique en complément du test clinique classique chez ARVC/D nous avons effectué une investigation clinique et génétique chez 23 cas-index atteints. Méthodes: Les cas-index sont diagnostiqué après une mort subite dans la famille ou après un examen clinique poussé pour arythmies. Le diagnostique d’ARVC/D a été fait avec les outils cliniques selon les critères. L’analyse génétique des protéines desmosomales associées à la maladie a été effectuée en séquençant leurs exons ainsi que les régions introniques nécessaires à l’épissage alternatif. Résultats: Le diagnostique clinique était clair dans 18/23 et incertain dans 5/23 des individus. Nous avons identifié 15 différentes mutations chez 10 cas-index. 64% des mutations n’avaient jamais été décrites. De plus, nous avons observé la présence de double ou triple mutant dans 40% des cas-index positifs. Les individus avec mutations sont plus jeunes et ont plus de symptômes que les individus sans mutation. Conclusion: Les tests génétiques sont positifs dans 43% des patients avec ARVC/D. L’utilisation de la technologie génétique basée sur l’identification de mutations connues a une valeur limitée vu le haut pourcentage des mutations nouvelles dans la maladie. La présence de double, même de triple mutant n’est pas associé avec un phénotype plus sévère, mais renforce l’idée de la nécessité d’un test génétique pour tous les gènes. Le test génétique est un outil fort utile à ajouter aux tests cliniques pour le diagnostique des patients qui ne remplissent pas tous les critères cliniques de la maladie. Mots clés: génétique, ARVC/D, mort subite, desmosome
Resumo:
Toujours en évolution le droit maritime est constamment en train de se moderniser. Depuis ses débuts Ie droit maritime essaie de s'adapter aux réalités de son temps. Le changement fut lent et difficile à atteindre. Au départ la pratique voulait qu'un transporteur maritime puisse échapper à presque toute responsabilité. L'application des coutumes du domaine et du droit contractuel avait laissé place aux abus et aux inégalités de pouvoir entre transporteurs maritimes et chargeurs/propriétaires de marchandises. La venue du vingtième siècle changea tout. L'adoption des Règles de la Haye, Haye / Nisby et Hambourg a transforme Ie système de transport de marchandise par mer tel qu'on Ie connaissait jusqu'à date. Ainsi une évolution graduelle marqua l'industrie maritime, parallèlement Ie droit maritime se développa considérablement avec une participation judiciaire plus active. De nos jours, les transporteurs maritimes sont plus responsables, or cela n'empêche pas qu'ils ne sont pas toujours capables de livrer leurs cargaisons en bonne condition. Chaque fois qu'un bateau quitte Ie port lui et sa cargaison sont en danger. De par ce fait, des biens sont perdus ou endommages en cours de route sous la responsabilité du transporteur. Malgré les changements et l'évolution dans les opérations marines et l'administration du domaine la réalité demeure telle que Ie transport de marchandise par mer n' est pas garanti it. cent pour cent. Dans les premiers temps, un transporteur maritime encourait toutes sortes de périls durant son voyage. Conséquemment les marchandises étaient exposées aux pertes et dangers en cours de route. Chaque année un grand nombre de navires sont perdu en mer et avec eux la cargaison qu'ils transportent. Toute la modernisation au monde ne peut éliminer les hauts risques auxquels sont exposes les transporteurs et leurs marchandises. Vers la fin des années soixante-dix avec la venue de la convention de Hambourg on pouvait encore constater que Ie nombre de navires qui sont perdus en mer était en croissance. Ainsi même en temps moderne on n'échappe pas aux problèmes du passe. "En moyenne chaque jour un navire de plus de 100 tonneaux se perd corps et biens (ceci veut dire: navire et cargaison) et Ie chiffre croit: 473 en 1978. Aces sinistres majeurs viennent s'ajouter les multiples avaries dues au mauvais temps et les pertes pour de multiples raisons (marquage insuffisant, erreurs de destination...). Ces périls expliquent : (1) le système de responsabilité des transporteurs ; (2) la limitation de responsabilité des propriétaires de navires; ... " L'historique légal du système de responsabilité et d'indemnité des armateurs démontre la difficulté encourue par les cours en essayant d'atteindre un consensus et uniformité en traitant ses notions. Pour mieux comprendre les différentes facettes du commerce maritime il faut avoir une compréhension du rôle des armateurs dans ce domaine. Les armateurs représentent Ie moyen par lequel le transport de marchandises par mer est possible. Leur rôle est d'une importance centrale. Par conséquent, le droit maritime se retrouve face à des questions complexes de responsabilités et d'indemnités. En particulier, la validité de l'insertion de clauses d'exonérations par les transporteurs pour se libérer d'une partie ou de toutes leurs responsabilités. A travers les années cette pratique a atteint un tel point d'injustice et de flagrant abus qu'il n'est plus possible d'ignorer Ie problème. L'industrie en crise se trouve obliger d'affronter ces questions et promouvoir Ie changement. En droit commun, l'armateur pouvait modifier son obligation prima facie autant qu'il le voulait. Au cours des ans, ces clauses d'exception augmentaient en nombre et en complexité au point qu'il devenait difficile de percevoir quel droit on pouvait avoir contre Ie transporteur. Les propriétaires de marchandise, exportateurs et importateurs de marchandises i.e. chargeurs, transporteurs, juristes et auteurs sont d'avis qu'il faut trouver une solution relative aux questions des clauses d'exonérations insérées dans les contrats de transport sous connaissement. Plus précisément ces clauses qui favorisent beaucoup plus les armateurs que les chargeurs. De plus, depuis longtemps la notion du fardeau de preuve était obscure. Il était primordial pour les pays de chargeurs d'atteindre une solution concernant cette question, citant qu'en pratique un fardeau très lourd leur était impose. Leur désir était de trouver une solution juste et équitable pour toutes les parties concernées, et non une solution favorisant les intérêts d’un coté seulement. Le transport par mer étant en grande partie international il était évident qu'une solution viable ne pouvait être laissée aux mains d'un pays. La solution idéale devait inclure toutes les parties concernées. Malgré le désir de trouver une solution globale, le consensus général fut long à atteindre. Le besoin urgent d'uniformité entre les pays donna naissance à plusieurs essais au niveau prive, national et international. Au cours des ans, on tint un grand nombre de conférences traitant des questions de responsabilités et d'indemnités des transporteurs maritimes. Aucun succès n'est atteint dans la poursuite de l'uniformité. Conséquemment, en 1893 les États Unis prennent la situation en mains pour régler le problème et adopte une loi nationale. Ainsi: «Les réactions sont venues des États Unis, pays de chargeurs qui supportent mal un système qui les désavantage au profit des armateurs traditionnels, anglais, norvégiens, grecs... Le Harter Act de 1893 établit un système transactionnel, mais impératif... »2 On constate qu'aux États Unis la question des clauses d'exonérations était enfin régie et par conséquent en grande partie leur application limitée. L'application du Harter Act n'étant pas au niveau international son degré de succès avait des limites. Sur Ie plan international la situation demeure la même et Ie besoin de trouver une solution acceptable pour tous persiste. Au début du vingtième siècle, I'utilisation des contrats de transport sous connaissement pour Ie transport de marchandise par mer est pratique courante. Au coeur du problème les contrats de transport sous connaissement dans lesquels les armateurs insèrent toutes sortes de clauses d'exonérations controversées. II devient évident qu'une solution au problème des clauses d'exonérations abusives tourne autour d'une règlementation de l'utilisation des contrats de transport sous connaissement. Ainsi, tout compromis qu'on peut envisager doit nécessairement régir la pratique des armateurs dans leurs utilisations des contrats de transport sous connaissement. Les années antérieures et postérieures à la première guerre mondiale furent marquées par I'utilisation croissante et injuste des contrats de transport sous connaissement. Le besoin de standardiser la pratique devenait alors pressant et les pays chargeurs s'impatientaient et réclamaient l'adoption d'une législation semblable au Harter Act des États Unis. Une chose était certaine, tous les intérêts en cause aspiraient au même objectif, atteindre une acceptation, certitude et unanimité dans les pratiques courantes et légales. Les Règles de la Haye furent la solution tant recherchée. Ils représentaient un nouveau régime pour gouverner les obligations et responsabilités des transporteurs. Leur but était de promouvoir un système bien balance entre les parties en cause. De plus elles visaient à partager équitablement la responsabilité entre transporteurs et chargeurs pour toute perte ou dommage causes aux biens transportes. Par conséquent, l'applicabilité des Règles de la Haye était limitée aux contrats de transport sous connaissement. Avec le temps on a reconnu aux Règles un caractère international et on a accepte leur place centrale sur Ie plan global en tant que base des relations entre chargeurs et transporteurs. Au départ, la réception du nouveau régime ne fut pas chaleureuse. La convention de la Haye de 1924 fut ainsi sujette à une opposition massive de la part des transporteurs maritimes, qui refusaient l'imposition d'un compromis affectant l'utilisation des clauses d'exonérations. Finalement Ie besoin d'uniformité sur Ie plan international stimula son adoption en grand nombre. Les règles de la Haye furent pour leur temps une vraie innovation une catalyse pour les reformes futures et un modèle de réussite globale. Pour la première fois dans 1'histoire du droit maritime une convention internationale régira et limitera les pratiques abusives des transporteurs maritimes. Les règles ne laissent pas place aux incertitudes ils stipulent clairement que les clauses d'exonération contraire aux règles de la Haye seront nulles et sans valeur. De plus les règles énoncent sans équivoque les droits, obligations et responsabilités des transporteurs. Néanmoins, Ie commerce maritime suivant son cours est marque par le modernisme de son temps. La pratique courante exige des reformes pour s'adapter aux changements de l'industrie mettant ainsi fin à la période d'harmonisation. Les règles de la Haye sous leur forme originale ne répondent plus aux besoins de l'industrie maritime. Par conséquent à la fin des années soixante on adopte les Règles de Visby. Malgré leur succès les règles n'ont pu échapper aux nombreuses critiques exprimant l'opinion, qu'elles étaient plutôt favorables aux intérêts des transporteurs et au détriment des chargeurs. Répondant aux pressions montantes on amende les Règles de la Haye, et Ie 23 février 1968 elles sont modifiées par Ie protocole de Visby. Essayant de complaire à l'insatisfaction des pays chargeurs, l'adoption des Règles de Visby est loin d'être une réussite. Leur adoption ne remplace pas le régime de la Haye mais simplement met en place un supplément pour combler les lacunes du système existant. Les changements qu'on retrouve dans Visby n'étant pas d'une grande envergure, la reforme fut critiquée par tous. Donnant naissance à des nouveaux débats et enfin à une nouvelle convention. Visby étant un échec, en 1978 la réponse arrive avec l'instauration d'un nouveau régime, différent de son prédécesseur (Hay/Haye-Visby). Les Règles de XI Hambourg sont Ie résultat de beaucoup d'efforts sur Ie plan international. Sous une pression croissante des pays chargeurs et plus particulièrement des pays en voie de développement la venue d'un nouveau régime était inévitables. Le bon fonctionnement de l'industrie et la satisfaction de toutes les parties intéressées nécessitaient un compromis qui répond aux intérêts de tous. Avec l'aide des Nations Unis et la participation de toutes les parties concernées les Règles de Hambourg furent adoptées. Accepter ce nouveau régime impliqua le début d'un nouveau système et la fin d'une époque centrée autour des règles de la Haye. II n'y a aucun doute que les nouvelles règles coupent les liens avec Ie passe et changent Ie système de responsabilité qui gouverne les transporteurs maritimes. L'article 4(2) de la Haye et sa liste d'exception est éliminé. Un demi-siècle de pratique est mis de coté, on tourne la page sur les expériences du passe et on se tourne vers une nouvelle future. Il est clair que les deux systèmes régissant Ie droit maritime visent Ie même but, une conformité internationale. Cette thèse traitera la notion de responsabilité, obligation et indemnisation des transporteurs maritimes sous les règles de la Haye et Hambourg. En particulier les difficultés face aux questions d'exonérations et d'indemnités. Chaque régime a une approche distincte pour résoudre les questions et les inquiétudes du domaine. D’un coté, la thèse démontrera les différentes facettes de chaque système, par la suite on mettra l'accent sur les points faibles et les points forts de chaque régime. Chaque pays fait face au dilemme de savoir quel régime devrait gouverner son transport maritime. La question primordiale est de savoir comment briser les liens du passe et laisser les Règles de la Haye dans leur place, comme prédécesseur et modèle pour Ie nouveau système. Il est sûr qu'un grand nombre de pays ne veulent pas se départir des règles de la Haye et continuent de les appliquer. Un grand nombre d'auteurs expriment leurs désaccords et indiquent qu'il serait regrettable de tourner le dos à tant d'années de travail. Pour se départir des Règles de la Haye, il serait une erreur ainsi qu'une perte de temps et d'argent. Pendant plus de 50 ans les cours à travers Ie monde ont réussi à instaurer une certaine certitude et harmonisation sur Ie plan juridique. Tout changer maintenant ne semble pas logique. Tout de même l'évident ne peut être ignorer, les Règles de la Haye ne répondent plus aux besoins du domaine maritime moderne. Les questions de responsabilité, immunité, fardeau de preuve et conflit juridictionnel demeurent floues. La législation internationale nécessite des reformes qui vont avec les changements qui marque l'évolution du domaine. Les précurseurs du changement décrivent les Règles de la Haye comme archaïques, injustes et non conforme au progrès. Elles sont connues comme Ie produit des pays industrialises sans l'accord ou la participation des pays chargeurs ou en voie de développement. Ainsi I'adoption des Règles de Hambourg signifie Ie remplacement du système précédent et non pas sa reforme. L'article 5(1) du nouveau système décrit un régime de responsabilité base sur la présomption de faute sans recours à une liste d'exonération, de plus les nouvelles règles étendent la période de responsabilité du transporteur. Les Règles de Hambourg ne sont peut être pas la solution idéale mais pour la première fois elle représente les intérêts de toutes les parties concernées et mieux encore un compromis accepte par tous. Cela dit, il est vrai que Ie futur prochain demeure incertain. II est clair que la plupart des pays ne sont pas presses de joindre ce nouveau régime aussi merveilleux soit-il. Le débat demeure ouvert Ie verdict délibère encore. Une chose demeure sure, l'analyse détaillée du fonctionnement de Hambourg avec ses défauts et mérites est loin d'être achevée. Seulement avec Ie recul on peut chanter les louanges, la réussite ou I'insuccès d'un nouveau système. Par conséquent, Ie nombre restreint des parties y adhérents rend l'analyse difficile et seulement théorique. Néanmoins il y'a de l'espoir qu'avec Ie temps l'objectif recherche sera atteint et qu'un commerce maritime régi par des règles et coutumes uniformes it. travers Ie globe sera pratique courante. Entre temps la réalité du domaine nous expose it. un monde divise et régi par deux systèmes.
Resumo:
Ce mémoire porte sur l’expérience de la maternité des Ouagalaises et son évolution. Il s’intéresse au déroulement de la première grossesse, de l’accouchement et de l’entrée en maternité de deux générations de femmes. Privilégiant une approche holistico-inductive en méthodologie qualitative, notre recherche s’est appuyée sur 31 entretiens semi-directifs avec des Ouagalaises, sur 15 d’heures d’observation participante à la maternité ainsi que sur 10 d’entretiens semi-directifs avec des sages-femmes. Les résultats de l’analyse montrent que le savoir de la maternité se transmet toujours de génération en génération, et qu’il demeure encore fortement encadré par les aînées. Toutefois, les transformations en cours dans le système de santé et dans la société burkinabè ne sont pas sans incidence dans la capitale. Les jeunes femmes étant plus renseignées en matière de santé reproductive, elles ont davantage reconnu les signes de la grossesse et le début des douleurs de l’accouchement. Les accompagnantes n’ayant plus accès à la salle d’accouchement et le pouvoir des sages-femmes s’agrandissant, l’expérience de l’accouchement se modifie. Bien que les vieilles femmes n’aient plus le même contrôle sur les parturientes durant l’accouchement, leur influence est toutefois toujours très importante pendant la période post-partum. Les femmes de la jeune génération n’étant généralement pas encore mariées ou installées dans leur propre maison au moment de la grossesse, la promiscuité avec leur belle-mère à l’issue de l’accouchement augmente et le pouvoir de cette dernière est plus important qu’il ne l’était à l’époque de la génération précédente.
Resumo:
Avec le développement exponentiel de l'Internet et son corollaire l'expansion du commerce en ligne, le sort de la protection du cyberconsommateur devient un sujet préoccupant en ce 21ième siècle. En effet, dans ce monde virtuel où l'on emploie des méthodes et technologies nouvelles et plus encore des clauses abusives dans les contrats unilatéraux, s'installe indubitablement un sentiment de méfiance entre le cyberconsommateur et le cybercommerçant. Pour rétablir cette confiance et favoriser le commerce par Internet, des lois nationales, internationales et des normes communautaires ont été adoptées aux fins de l'encadrement rigoureux du processus contractuel. Toutefois, en raison de la présence fréquente d'éléments d'extranéité dans les contrats de consommation en ligne, la question fondamentale qui vient tout naturellement à l'esprit de tous ceux qui entreprennent des études aujourd'hui, en la matière, est celle de savoir si les règles classiques de droit international privé sont dépassées par le développement trop rapide de ce type de commerce ou si au contraire elles y sont adaptées. On pourrait en outre se demander si l'encadrement juridique offert au cyberconsommateur est à même de lui procurer le même niveau de protection dont il bénéficie dans le commerce traditionnel. La présente étude tente d'apporter certains éléments de réponse en analysant dans un premier temps, le droit substantiel interne de protection du consommateur dans les systèmes juridiques européen, français, canadien et québécois en vu de scruter des zones de conflits susceptibles d'exister dans le cycle de vie de ce contrat. Dans la seconde partie, elle démontre que les méthodes classiques de résolution des conflits de juridiction et des conflits de lois en droit international privé, bien que nécessitant des adaptations, sont effectivement applicables au contexte de l'internet et ce, dans l'objectif privilégié de la protection du cyberconsommateur. Le bilan de l'analyse et de l'appréciation des critères de ces règles de conflits nous conduiront à l'examen des nouvelles mesures qui s'imposent.
Resumo:
Depuis les années 90, les Projets Intégrés de Conservation et Développement ont été présentés comme des modèles fonctionnels de développement durable pour un site spécifique dans une perspective de réalisation. Le but est d’intégrer les objectifs biologiques de la conservation aux objectifs sociaux et économiques du développement. Ces projets, qui répondent à de multiples dénominations et stratégies, sont implantés dans des contextes naturellement hétérogènes et dynamiques, où l’aménagement du territoire ne doit pas être un outil de planification étatique, désigné et imposé dans une logique conservationniste. Les aires protégées représentent une certaine vision du rapport entre l’être humain et la nature, apparue dans le contexte nord-américain avec la création des premiers grands parcs nationaux en 1870. Aujourd'hui, la forte volonté d'impliquer la population se heurte avec la difficulté de concilier la gestion de ces espaces avec les pratiques, les nécessités et les intérêts locaux. Le parc naturel Obô, qui occupe 30% du territoire de São Tomé et Principe, doit affronter la difficile intégration entre les représentations de la nature et les usages locaux avec les objectifs globaux des politiques conservationnistes, ainsi qu’avec les intérêts touristiques et économiques des investisseurs locaux et étrangers. Les représentations sociales de la nature, établissant une forme de connaissance pratique, déterminent la vision du monde et la relation qu'un certain groupe social peut avoir avec le territoire. Ainsi, chaque communauté possède ses propres mécanismes d'adaptation au milieu basés sur ce système représentationnel. Dans le cas des communautés sãotoméennes, la nature présente un caractère spirituel (associé à des croyances, des rites et des pratiques médicales traditionnelles) et utilitaire (la nature, à travers l'agriculture, la récolte ou la chasse, répond au besoin de subsistance). L’objectif de ce projet de thèse est donc de mieux comprendre la synergie existante entre savoir endogène et gestion de la biodiversité pour adapter l’aménagement du territoire à la réalité des populations qui y vivent.
Resumo:
Chez diverses espèces animales, les informations sensorielles peuvent déclencher la locomotion. Ceci nécessite l’intégration des informations sensorielles par le système nerveux central. Chez la lamproie, les réseaux locomoteurs spinaux sont activés et contrôlés par les cellules réticulospinales (RS), système descendant le plus important. Ces cellules reçoivent des informations variées provenant notamment de la périphérie. Une fois activées par une brève stimulation cutanée d’intensité suffisante, les cellules RS produisent des dépolarisations soutenues de durées variées impliquant des propriétés intrinsèques calcium-dépendantes et associées à l’induction de la nage de fuite. Au cours de ce doctorat, nous avons voulu savoir si les afférences synaptiques ont une influence sur la durée des dépolarisations soutenues et si l’ensemble des cellules RS partagent des propriétés d’intégration similaires, impliquant possiblement les réserves de calcium internes. Dans un premier temps, nous montrons pour la première fois qu’en plus de dépendre des propriétés intrinsèques des cellules réticulospinales, les dépolarisations soutenues dépendent des afférences excitatrices glutamatergiques, incluant les afférences spinales, pour perdurer pendant de longues périodes de temps. Les afférences cutanées ne participent pas au maintien des dépolarisations soutenues et les afférences inhibitrices glycinergique et GABAergiques ne sont pas suffisantes pour les arrêter. Dans un deuxième temps, nous montrons que suite à une stimulation cutanée, l’ensemble des cellules RS localisées dans les quatre noyaux réticulés possèdent un patron d’activation similaire et elles peuvent toutes produire des dépolarisations soutenues dont le maintien ne dépend pas des réserves de calcium internes. Enfin, les résultats obtenus durant ce doctorat ont permis de mieux comprendre les mécanismes cellulaires par lesquels l’ensemble des cellules RS intègrent une brève information sensorielle et la transforment en une réponse soutenue associée à une commande motrice.
Resumo:
Ce travail concerne la valorisation des résultats de la recherche universitaire. Il s'agit d'une terminologie qui concerne le processus ainsi que l'infrastructure - les bureaux de valorisation - permettant à un chercheur académique de commercialiser les résultats de sa recherche. Une étude de cas comparant la Belgique et le Québec dans ce domaine se trouvera au centre des réflexions. L'accent sera tout d'abord mis sur le cadre théorique permettant de comprendre l'origine et le sens de l'activité de valorisation. Différents concepts comme l'innovation et l'économie du savoir devront alors être introduits, notamment dans une perspective historique et normative. De plus, différents modèles théoriques se succèderont ; ce qui permettra au lecteur d'acquérir une vision complète du domaine étudié. La problématique qui anime ensuite la recherche est centrée sur les relations qui existent entre les bureaux de valorisation et les chercheurs universitaires qui font appel à leurs services et à l'impact de ces relations sur le processus de valorisation. Les différentes hypothèses proposées suggèrent l'importance des politiques universitaires de propriété intellectuelle ainsi que celle de la culture universitaire de la recherche académique. Ces différents points sont analysés au regard des entretiens semi-directifs effectués. Le but final de ce mémoire est la proposition de recommandations sur certaines bonnes pratiques dans le domaine de la valorisation. Ces dernières concernent d'une part la position organisationnelle des bureaux de valorisation au sein du processus de valorisation et, d'autre part, l'importance de la communication dans ce même processus.
Resumo:
Le thème de ce mémoire de Maîtrise en droit est « La dignité humaine: limite à la brevetabilité du corps humain». Dans ce travail, nous avons tenté d'apporter une contribution à un débat des plus importants de ce début du 21 e siècle. Deux parties composent ce mémoire. La première partie vise à présenter la thématique de la brevetabilité du corps humain. Elle fait l'analyse non seulement des normes juridiques interdisant la brevetabilité du corps humain, mais aussi elle se penche sur le corps humain comme source d'inventions brevetables. Dans la première sous-section, notre analyse porte sur l'étude des documents normatifs d'intérêt international, régional et national. Le modèle et les normes de la Communauté européenne ont largement retenu notre attention alors que le cas des États-Unis, du Canada et surtout de la France nous servait de guide de réflexion pour mieux comprendre l'état du droit au Canada. Par une argumentation serrée nous avons conclu cette partie en affirmant que le corps humain n'est pas brevetable. La prohibition de la brevetabilité du corps humain s'impose comme universelle. La dignité humaine a constitué un élément déterminant de cette prohibition. Ce qui nous a permis, dans la deuxième sous-section de considérer le brevetage de l'ADN. Après avoir présenté les trois critères juridiques de la brevetabilité, à savoir la nouveauté, l'utilité et l'inventivité, nous avons appliqué ces critères à l'ADN. Il s'est avéré que c'est à bon droit que la plupart des pays accordent le brevet sur l'ADN. Mais cet état de droit pose des problèmes sur le plan des valeurs éthiques. Il a notamment comme conséquence de relativiser la dignité humaine. Ces dernières considérations éthiques nous ont conduits à étendre à l'ADN les critères juridiques de la brevetabilité vus dans la première partie. Pour nous prononcer adéquatement sur ce sujet combien délicat, il a fallu considérer la question de la brevetabilité de l'ADN chez les vivants, depuis l'affaire Chakrabarty en 1980, aux États-Unis, en passant par la Directive européenne de 1998, l'affaire Harvard College au Canada jusqu'à Myriad Genetics Inc. En droit, la brevetabilité de l'ADN ne fait plus de doute. Mais elle continue de soulever des « gènes» sur le plan éthique. L'inquiétude que suscite la pente glissante nous a amenés, dans la deuxième partie, à nous pencher sur la brevetabilité dans son rapport avec la dignité humaine. La première sous-section se voulait une analyse permettant de montrer que la dignité humaine est une valeur absolue et inconditionnelle. Si nous considérons cette valeur comme absolue, il devient impossible de breveter le corps humain dans son ensemble. Par contre, en brevetant l'ADN humain, nos institutions se trouvent à relativiser la dignité humaine. C'est ce que la deuxième sous-section tendait à montrer. Soulignons que cette deuxième sous-section a été conçue également comme une conclusion. Elle s'articule autour notamment de la dignité humaine comme principe de précaution.
Resumo:
Les communautés inuites de la Baie d’Hudson au Nunavik (Québec) se distinguent des autres communautés autochtones par leur réappropriation des naissances depuis 1986 et par la création d’un programme de formation de sages-femmes locales. Cela a permis de mettre un terme à une longue période de transfert des femmes pour accouchement en structure hospitalière, à des kilomètres de leur village. De plus, ce programme a pour objectif de réintégrer les pratiques traditionnelles au sein d’une obstétrique moderne afin d’offrir aux femmes des services de qualité et culturellement appropriés. Le but de notre étude était d’établir si le programme de formation de sages-femmes autochtones du Nunavik a permis de concilier ces deux approches d’enseignement différentes : l’une axée sur le savoir traditionnel, et l’autre concernant les normes de qualité de soins à respecter. Une méthode de recherche qualitative a été adoptée et les données ont été recueillies à l’aide d’entrevues réalisées auprès de cinq sages-femmes inuites et de six étudiantes sages-femmes du programme de formation du Nunavik, au sein des trois villages de la Baie d’Hudson pourvus de centre de naissances. L’analyse qualitative des données ne permet pas de confirmer la réintégration du savoir traditionnel dans la pratique des sages-femmes autochtones. Les résultats révèlent, en effet, une rareté des pratiques traditionnelles connues et/ou utilisées par celles-ci (notamment l’utilisation de plantes ou de remèdes médicinaux, les postures d’accouchement, les manœuvres obstétricales, etc) en relation avec la période périnatale. Les croyances ou codes de conduite à respecter pendant la grossesse semblent bénéficier d’une meilleure transmission, mais ne font plus l’unanimité au sein des communautés. Concernant le volet de l’obstétrique moderne, le programme de formation semble conforme aux exigences actuelles occidentales, étant reconnu par l’Ordre des sages-femmes du Québec depuis septembre 2008. De plus, les sages-femmes et les étudiantes sont conscientes de la nécessité de recevoir une formation de qualité. Elles aimeraient bénéficier d’une plus grande rigueur dans l’enseignement théorique ainsi que d’une meilleure continuité du processus d’apprentissage. La difficulté retrouvée dans la mixité de l’enseignement de ces deux savoirs (traditionnel et moderne) semble donc être liée plus particulièrement au savoir traditionnel. Les sages-femmes et étudiantes inuites souhaitent protéger et promouvoir leur patrimoine culturel, mais plus dans une optique de responsabilité communautaire que dans le cadre d’un programme de formation. Une collaboration entre les volontés des communautés concernant la réintégration de ce patrimoine et la réalité actuelle de la biomédecine demeure primordiale pour continuer à garantir la sécurité et la qualité des services dispensés.
Resumo:
Avec le web, les moteurs de recherche, les blogues et les wikis, la relation à l’information s’est transformée au point où les repères habituels s’émoussent et doivent être redéfinis de fond en comble. Du coup, le travail des archivistes et des bibliothécaires doit l’être tout autant. Riches d’une solide tradition et conscientes des défis posés par la modernité la plus radicale, les sciences de l’information se sont élargies. Mais il ne s’agit plus seulement de conserver et de diffuser le savoir, il s’agit d’en repenser le traitement et l’accès. Conçu par l’École de bibliothéconomie et des sciences de l’information (EBSI) de l’Université de Montréal, cet ouvrage se situe au carrefour de deux grandes traditions, américaine et française, et a pour ambition de fournir les clés du monde des sciences de l’information en se fondant sur des savoirs pratiques et concrets. Les auteurs présentent ici un savoir à la fine pointe des sciences de l’information pour répondre à la complexité des enjeux actuels et futurs. Introduction, bibliographie, index et table des matières de l’ouvrage.
Resumo:
Les modèles kainate et pentylènetétrazole représentent deux modèles d’épilepsie du lobe temporal dont les conséquences à long terme sont différentes. Le premier est un modèle classique d’épileptogénèse avec crises récurrentes spontanées tandis que le second se limite aux crises aigües. Nous avons d’abord caractérisé les différents changements survenant dans les circuits excitateurs et inhibiteurs de l’hippocampe adulte de rats ayant subi des crises à l’âge immature. Ensuite, ayant observé dans le modèle fébrile une différence du pronostic lié au genre, nous avons voulu savoir si cette différence était aussi présente dans des modèles utilisant des neurotoxines. L’étude électrophysiologique a démontré que les rats KA et PTZ, mâles comme femelles, présentaient une hyperactivité des récepteurs NMDA au niveau des cellules pyramidales du CA1, CA3 et DG. Les modifications anatomiques sous-tendant cette hyperexcitabilité ont été étudiées et les résultats ont montré une perte sélective des interneurones GABAergiques contenant la parvalbumine dans les couches O/A du CA1 des mâles KA et PTZ. Chez les femelles, seul le DG était légèrement affecté pour les PTZ tandis que les KA présentaient, en plus du DG, des pertes importantes au niveau de la couche O/A. Les évaluations cognitives ont démontré que seuls les rats PTZ accusaient un déficit spatial puisque les rats KA présentaient un apprentissage comparable aux rats normaux. Cependant, encore une fois, cette différence n’était présente que chez les mâles. Ainsi, nos résultats confirment qu’il y a des différences liées au genre dans les conséquences des convulsions lorsqu’elles surviennent chez l’animal immature.
Resumo:
Nous montrons l’utilisation de la puce exon d’Affymetrix pour l’analyse simultanée de l’expression des gènes et de la variation d’isoformes. Nous avons utilisé les échantillons d’ARN du cerveau et des tissus de référence qui ont été antérieurement utilisés dans l’étude du consortium MicroArray Quality Control (MAQC). Nous démontrons une forte concordance de la quantification de l’expression des gènes entre trois plateformes d’expression populaires à savoir la puce exon d’Affymetrix, la puce Illumina et la puce U133A d’Affymetrix. Plus intéressant nous montrons que la majorité des discordances entre les trois plateformes résulterait des positions différentes des sondes à travers les plateformes et que les variations d’isoforme exactes ne peuvent être identifiées que par la puce exon. Nous avons détecté avec succès, entre les tissus de référence et ceux du cerveau, une centaine de cas d’évènements d’épissage alternatif. La puce exon est requise dans l’analyse de l’épissage alternatif associé aux pathologies telles que les cancers et les troubles neurologiques. Comme application de cette technologie, nous avons analysé les variations d’épissage dans la métastase du cancer de sein développé dans le model de la souris. Nous avons utilisé une gamme bien définie de trois lignées de tumeur mammaire ayant différents potentiels métastatiques. Par des analyses statistiques, nous avons répertorié 2623 transcripts présentant des variations d’expression et d’isoformes entre les types de tumeur. Une analyse du réseau de gènes montre qu’environ la moitié d’entre eux est impliquée dans plusieurs activités cellulaires, ainsi que dans nombreux cancers et désordres génétiques.
Resumo:
Cette étude traite de la complexité des enjeux de la mise en lumière urbaine et de sa conception. Le but est de déceler les mécanismes opératoires du projet d’éclairage afin de générer une analyse et une compréhension de ce type d’aménagement. Cette recherche met à jour les enjeux lumineux à différents niveaux comme l’urbanisme, l’environnement, la culture, la communication, la vision et la perception mais aussi au niveau des acteurs et de leurs pratiques sur le terrain. En utilisant une approche qualitative déductive, cette recherche théorique cherche à mieux comprendre les différentes significations du phénomène lumineux : comment dans la réalité terrain ces enjeux de la lumière sont compris, interprétés et traduits au travers de la réalisation des projets et des processus mis en place pour répondre aux besoins d’éclairage ? La pertinence de cette recherche est de questionner les enjeux complexes de la mise en lumière afin de savoir comment concevoir un « bon éclairage ». Comment se déroule un projet d’éclairage de sa conception à sa réalisation ? Quels sont les différents acteurs, leurs modes d’intervention et leurs perceptions du projet d’éclairage ? Le but est de vérifier comment ces enjeux se concrétisent sur le terrain, notamment au travers de l’activité et de l’interprétation des professionnels. Nous souhaitons créer un modèle opératoire qui rende compte des enjeux et du processus de ce type de projet. Modèle qui servira alors de repère pour la compréhension des mécanismes à l’œuvre comme le contexte, les acteurs, les moyens et les finalités des projets. Une étude des recherches théoriques nous permettra de comprendre la polysémie du phénomène lumineux afin d’en déceler la complexité des enjeux et de créer une première interprétation de ce type de projet. Nous déterminerons théoriquement ce que recouvre la notion de « bon éclairage » qui nous permettra de créer une grille analytique pour comparer notre approche avec la réalité sur le terrain. Ces recherches seront ensuite confrontées au recueil des données des études de cas, des stages en urbanisme et en conception lumière, et des interviews de professionnels dans le domaine. Nous confronterons les enjeux définis théoriquement aux collectes de données issues du terrain. Ces données seront collectées à partir de projets réalisés avec les professionnels durant la recherche immersive. La recherche-action nous permettra de collaborer avec les professionnels pour comprendre comment ils sélectionnent, déterminent et répondent aux enjeux des projets d’éclairage. Nous verrons grâce aux entretiens semi-dirigés comment les acteurs perçoivent leurs propres activités et nous interprèterons les données à l’aide de la « théorisation ancrée » pour dégager le sens de leurs discours. Nous analyserons alors les résultats de ces données de manière interprétative afin de déterminer les points convergeant et divergent entre les enjeux théoriques définis en amont et les enjeux définis en aval par la recherche-terrain. Cette comparaison nous permettra de créer une interprétation des enjeux de la mise en lumière urbaine dans toutes leurs complexités, à la fois du point de vue théorique et pratique. Cette recherche qualitative et complexe s’appuie sur une combinaison entre une étude phénoménologique et les méthodologies proposées par la « théorisation ancrée ». Nous procéderons à une combinaison de données issues de la pratique terrain et de la perception de cette pratique par les acteurs de l’éclairage. La recherche d’un « bon éclairage » envisage donc par une nouvelle compréhension l’amélioration des outils de réflexion et des actions des professionnels. En termes de résultat nous souhaitons créer un modèle opératoire de la mise en lumière qui définirait quels sont les différents éléments constitutifs de ces projets, leurs rôles et les relations qu’ils entretiennent entre eux. Modèle qui mettra en relief les éléments qui déterminent la qualité du projet d’éclairage et qui permettra de fournir un outil de compréhension. La contribution de ce travail de recherche est alors de fournir par cette nouvelle compréhension un repère méthodologique et analytique aux professionnels de l’éclairage mais aussi de faire émerger l’importance du phénomène de mise en lumière en suscitant de nouveaux questionnements auprès des activités liées au design industriel, à l’architecture et à l’urbanisme.