17 resultados para librer??a

em Université de Montréal, Canada


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Toujours en évolution le droit maritime est constamment en train de se moderniser. Depuis ses débuts Ie droit maritime essaie de s'adapter aux réalités de son temps. Le changement fut lent et difficile à atteindre. Au départ la pratique voulait qu'un transporteur maritime puisse échapper à presque toute responsabilité. L'application des coutumes du domaine et du droit contractuel avait laissé place aux abus et aux inégalités de pouvoir entre transporteurs maritimes et chargeurs/propriétaires de marchandises. La venue du vingtième siècle changea tout. L'adoption des Règles de la Haye, Haye / Nisby et Hambourg a transforme Ie système de transport de marchandise par mer tel qu'on Ie connaissait jusqu'à date. Ainsi une évolution graduelle marqua l'industrie maritime, parallèlement Ie droit maritime se développa considérablement avec une participation judiciaire plus active. De nos jours, les transporteurs maritimes sont plus responsables, or cela n'empêche pas qu'ils ne sont pas toujours capables de livrer leurs cargaisons en bonne condition. Chaque fois qu'un bateau quitte Ie port lui et sa cargaison sont en danger. De par ce fait, des biens sont perdus ou endommages en cours de route sous la responsabilité du transporteur. Malgré les changements et l'évolution dans les opérations marines et l'administration du domaine la réalité demeure telle que Ie transport de marchandise par mer n' est pas garanti it. cent pour cent. Dans les premiers temps, un transporteur maritime encourait toutes sortes de périls durant son voyage. Conséquemment les marchandises étaient exposées aux pertes et dangers en cours de route. Chaque année un grand nombre de navires sont perdu en mer et avec eux la cargaison qu'ils transportent. Toute la modernisation au monde ne peut éliminer les hauts risques auxquels sont exposes les transporteurs et leurs marchandises. Vers la fin des années soixante-dix avec la venue de la convention de Hambourg on pouvait encore constater que Ie nombre de navires qui sont perdus en mer était en croissance. Ainsi même en temps moderne on n'échappe pas aux problèmes du passe. "En moyenne chaque jour un navire de plus de 100 tonneaux se perd corps et biens (ceci veut dire: navire et cargaison) et Ie chiffre croit: 473 en 1978. Aces sinistres majeurs viennent s'ajouter les multiples avaries dues au mauvais temps et les pertes pour de multiples raisons (marquage insuffisant, erreurs de destination...). Ces périls expliquent : (1) le système de responsabilité des transporteurs ; (2) la limitation de responsabilité des propriétaires de navires; ... " L'historique légal du système de responsabilité et d'indemnité des armateurs démontre la difficulté encourue par les cours en essayant d'atteindre un consensus et uniformité en traitant ses notions. Pour mieux comprendre les différentes facettes du commerce maritime il faut avoir une compréhension du rôle des armateurs dans ce domaine. Les armateurs représentent Ie moyen par lequel le transport de marchandises par mer est possible. Leur rôle est d'une importance centrale. Par conséquent, le droit maritime se retrouve face à des questions complexes de responsabilités et d'indemnités. En particulier, la validité de l'insertion de clauses d'exonérations par les transporteurs pour se libérer d'une partie ou de toutes leurs responsabilités. A travers les années cette pratique a atteint un tel point d'injustice et de flagrant abus qu'il n'est plus possible d'ignorer Ie problème. L'industrie en crise se trouve obliger d'affronter ces questions et promouvoir Ie changement. En droit commun, l'armateur pouvait modifier son obligation prima facie autant qu'il le voulait. Au cours des ans, ces clauses d'exception augmentaient en nombre et en complexité au point qu'il devenait difficile de percevoir quel droit on pouvait avoir contre Ie transporteur. Les propriétaires de marchandise, exportateurs et importateurs de marchandises i.e. chargeurs, transporteurs, juristes et auteurs sont d'avis qu'il faut trouver une solution relative aux questions des clauses d'exonérations insérées dans les contrats de transport sous connaissement. Plus précisément ces clauses qui favorisent beaucoup plus les armateurs que les chargeurs. De plus, depuis longtemps la notion du fardeau de preuve était obscure. Il était primordial pour les pays de chargeurs d'atteindre une solution concernant cette question, citant qu'en pratique un fardeau très lourd leur était impose. Leur désir était de trouver une solution juste et équitable pour toutes les parties concernées, et non une solution favorisant les intérêts d’un coté seulement. Le transport par mer étant en grande partie international il était évident qu'une solution viable ne pouvait être laissée aux mains d'un pays. La solution idéale devait inclure toutes les parties concernées. Malgré le désir de trouver une solution globale, le consensus général fut long à atteindre. Le besoin urgent d'uniformité entre les pays donna naissance à plusieurs essais au niveau prive, national et international. Au cours des ans, on tint un grand nombre de conférences traitant des questions de responsabilités et d'indemnités des transporteurs maritimes. Aucun succès n'est atteint dans la poursuite de l'uniformité. Conséquemment, en 1893 les États Unis prennent la situation en mains pour régler le problème et adopte une loi nationale. Ainsi: «Les réactions sont venues des États Unis, pays de chargeurs qui supportent mal un système qui les désavantage au profit des armateurs traditionnels, anglais, norvégiens, grecs... Le Harter Act de 1893 établit un système transactionnel, mais impératif... »2 On constate qu'aux États Unis la question des clauses d'exonérations était enfin régie et par conséquent en grande partie leur application limitée. L'application du Harter Act n'étant pas au niveau international son degré de succès avait des limites. Sur Ie plan international la situation demeure la même et Ie besoin de trouver une solution acceptable pour tous persiste. Au début du vingtième siècle, I'utilisation des contrats de transport sous connaissement pour Ie transport de marchandise par mer est pratique courante. Au coeur du problème les contrats de transport sous connaissement dans lesquels les armateurs insèrent toutes sortes de clauses d'exonérations controversées. II devient évident qu'une solution au problème des clauses d'exonérations abusives tourne autour d'une règlementation de l'utilisation des contrats de transport sous connaissement. Ainsi, tout compromis qu'on peut envisager doit nécessairement régir la pratique des armateurs dans leurs utilisations des contrats de transport sous connaissement. Les années antérieures et postérieures à la première guerre mondiale furent marquées par I'utilisation croissante et injuste des contrats de transport sous connaissement. Le besoin de standardiser la pratique devenait alors pressant et les pays chargeurs s'impatientaient et réclamaient l'adoption d'une législation semblable au Harter Act des États Unis. Une chose était certaine, tous les intérêts en cause aspiraient au même objectif, atteindre une acceptation, certitude et unanimité dans les pratiques courantes et légales. Les Règles de la Haye furent la solution tant recherchée. Ils représentaient un nouveau régime pour gouverner les obligations et responsabilités des transporteurs. Leur but était de promouvoir un système bien balance entre les parties en cause. De plus elles visaient à partager équitablement la responsabilité entre transporteurs et chargeurs pour toute perte ou dommage causes aux biens transportes. Par conséquent, l'applicabilité des Règles de la Haye était limitée aux contrats de transport sous connaissement. Avec le temps on a reconnu aux Règles un caractère international et on a accepte leur place centrale sur Ie plan global en tant que base des relations entre chargeurs et transporteurs. Au départ, la réception du nouveau régime ne fut pas chaleureuse. La convention de la Haye de 1924 fut ainsi sujette à une opposition massive de la part des transporteurs maritimes, qui refusaient l'imposition d'un compromis affectant l'utilisation des clauses d'exonérations. Finalement Ie besoin d'uniformité sur Ie plan international stimula son adoption en grand nombre. Les règles de la Haye furent pour leur temps une vraie innovation une catalyse pour les reformes futures et un modèle de réussite globale. Pour la première fois dans 1'histoire du droit maritime une convention internationale régira et limitera les pratiques abusives des transporteurs maritimes. Les règles ne laissent pas place aux incertitudes ils stipulent clairement que les clauses d'exonération contraire aux règles de la Haye seront nulles et sans valeur. De plus les règles énoncent sans équivoque les droits, obligations et responsabilités des transporteurs. Néanmoins, Ie commerce maritime suivant son cours est marque par le modernisme de son temps. La pratique courante exige des reformes pour s'adapter aux changements de l'industrie mettant ainsi fin à la période d'harmonisation. Les règles de la Haye sous leur forme originale ne répondent plus aux besoins de l'industrie maritime. Par conséquent à la fin des années soixante on adopte les Règles de Visby. Malgré leur succès les règles n'ont pu échapper aux nombreuses critiques exprimant l'opinion, qu'elles étaient plutôt favorables aux intérêts des transporteurs et au détriment des chargeurs. Répondant aux pressions montantes on amende les Règles de la Haye, et Ie 23 février 1968 elles sont modifiées par Ie protocole de Visby. Essayant de complaire à l'insatisfaction des pays chargeurs, l'adoption des Règles de Visby est loin d'être une réussite. Leur adoption ne remplace pas le régime de la Haye mais simplement met en place un supplément pour combler les lacunes du système existant. Les changements qu'on retrouve dans Visby n'étant pas d'une grande envergure, la reforme fut critiquée par tous. Donnant naissance à des nouveaux débats et enfin à une nouvelle convention. Visby étant un échec, en 1978 la réponse arrive avec l'instauration d'un nouveau régime, différent de son prédécesseur (Hay/Haye-Visby). Les Règles de XI Hambourg sont Ie résultat de beaucoup d'efforts sur Ie plan international. Sous une pression croissante des pays chargeurs et plus particulièrement des pays en voie de développement la venue d'un nouveau régime était inévitables. Le bon fonctionnement de l'industrie et la satisfaction de toutes les parties intéressées nécessitaient un compromis qui répond aux intérêts de tous. Avec l'aide des Nations Unis et la participation de toutes les parties concernées les Règles de Hambourg furent adoptées. Accepter ce nouveau régime impliqua le début d'un nouveau système et la fin d'une époque centrée autour des règles de la Haye. II n'y a aucun doute que les nouvelles règles coupent les liens avec Ie passe et changent Ie système de responsabilité qui gouverne les transporteurs maritimes. L'article 4(2) de la Haye et sa liste d'exception est éliminé. Un demi-siècle de pratique est mis de coté, on tourne la page sur les expériences du passe et on se tourne vers une nouvelle future. Il est clair que les deux systèmes régissant Ie droit maritime visent Ie même but, une conformité internationale. Cette thèse traitera la notion de responsabilité, obligation et indemnisation des transporteurs maritimes sous les règles de la Haye et Hambourg. En particulier les difficultés face aux questions d'exonérations et d'indemnités. Chaque régime a une approche distincte pour résoudre les questions et les inquiétudes du domaine. D’un coté, la thèse démontrera les différentes facettes de chaque système, par la suite on mettra l'accent sur les points faibles et les points forts de chaque régime. Chaque pays fait face au dilemme de savoir quel régime devrait gouverner son transport maritime. La question primordiale est de savoir comment briser les liens du passe et laisser les Règles de la Haye dans leur place, comme prédécesseur et modèle pour Ie nouveau système. Il est sûr qu'un grand nombre de pays ne veulent pas se départir des règles de la Haye et continuent de les appliquer. Un grand nombre d'auteurs expriment leurs désaccords et indiquent qu'il serait regrettable de tourner le dos à tant d'années de travail. Pour se départir des Règles de la Haye, il serait une erreur ainsi qu'une perte de temps et d'argent. Pendant plus de 50 ans les cours à travers Ie monde ont réussi à instaurer une certaine certitude et harmonisation sur Ie plan juridique. Tout changer maintenant ne semble pas logique. Tout de même l'évident ne peut être ignorer, les Règles de la Haye ne répondent plus aux besoins du domaine maritime moderne. Les questions de responsabilité, immunité, fardeau de preuve et conflit juridictionnel demeurent floues. La législation internationale nécessite des reformes qui vont avec les changements qui marque l'évolution du domaine. Les précurseurs du changement décrivent les Règles de la Haye comme archaïques, injustes et non conforme au progrès. Elles sont connues comme Ie produit des pays industrialises sans l'accord ou la participation des pays chargeurs ou en voie de développement. Ainsi I'adoption des Règles de Hambourg signifie Ie remplacement du système précédent et non pas sa reforme. L'article 5(1) du nouveau système décrit un régime de responsabilité base sur la présomption de faute sans recours à une liste d'exonération, de plus les nouvelles règles étendent la période de responsabilité du transporteur. Les Règles de Hambourg ne sont peut être pas la solution idéale mais pour la première fois elle représente les intérêts de toutes les parties concernées et mieux encore un compromis accepte par tous. Cela dit, il est vrai que Ie futur prochain demeure incertain. II est clair que la plupart des pays ne sont pas presses de joindre ce nouveau régime aussi merveilleux soit-il. Le débat demeure ouvert Ie verdict délibère encore. Une chose demeure sure, l'analyse détaillée du fonctionnement de Hambourg avec ses défauts et mérites est loin d'être achevée. Seulement avec Ie recul on peut chanter les louanges, la réussite ou I'insuccès d'un nouveau système. Par conséquent, Ie nombre restreint des parties y adhérents rend l'analyse difficile et seulement théorique. Néanmoins il y'a de l'espoir qu'avec Ie temps l'objectif recherche sera atteint et qu'un commerce maritime régi par des règles et coutumes uniformes it. travers Ie globe sera pratique courante. Entre temps la réalité du domaine nous expose it. un monde divise et régi par deux systèmes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nombreuses études ont établi que la majorité des neurones libèrent plus qu’une substance chimique. Il est bien connu que les neurones peuvent co-exprimer et co-libérer des neuropeptides en plus de leur neurotransmetteur, mais des évidences de la co-libération de deux petits neurotransmetteurs à action rapide se sont accumulées récemment. Des enregistrements électrophysiologiques ont aussi montré que des neurones sérotoninergiques et dopaminergiques isolés peuvent libérer du glutamate quand ils sont placés en culture. De plus, la présence de glutamate et de glutaminase a été détectée dans des neurones sérotoninergiques, dopaminergiques et noradrénergiques par immunomarquage sur des tranches de cerveau. Malheureusement, en considérant le rôle métabolique du glutamate, sa détection immunologique n’est pas suffisante pour assurer le phénotype glutamatergique d’un neurone. Récemment, la découverte de trois transporteurs vésiculaires du glutamate (VGLUT1-3) a grandement facilité l’identification des neurones glutamatergiques. Ces transporteurs sont nécessaires pour la libération de glutamate et constituent les premiers marqueurs morphologiques du phénotype glutamatergique. Il a été démontré que des neurones noradrénergiques expriment VGLUT2 et que des neurones sérotoninergiques expriment VGLUT3. Mais aucune évidence d’expression d’un des sous-types de VGLUT n’a été reportée pour les neurones dopaminergiques. Le but de notre travail était d’identifier quel sous-type de VGLUT est exprimé par les neurones dopaminergiques mésencéphaliques, et de déterminer si le phénotype glutamatergique de ces neurones peut être modulé dans des conditions particulières. Premièrement, nous avons utilisé des microcultures pour isoler les neurones dopaminergiques et des doubles marquages immunocytochimiques pour observer l’expression de VGLUT dans les neurones positifs pour la tyrosine hydroxylase (TH). Nous avons montré que la majorité (80%) des neurones TH+ isolés exprime spécifiquement VGLUT2. Cette expression est précoce au cours du développement in vitro et limitée aux projections axonales des neurones dopaminergiques. Toutefois, cette forte expression in vitro contraste avec la non-détection de ce transporteur dans les rats adultes in vivo. Nous avons décidé ensuite de regarder si l’expression de VGLUT2 pouvait être régulée pendant le développement cérébral de jeunes rats et sous des conditions traumatiques, par double hybridation in situ. Entre 14 et 16 jours embryonnaires, les marquages de VGLUT2 et de TH montraient une superposition significative qui n’était pas retrouvée à des stades ultérieurs. Dans le mésencéphale de jeunes rats postnataux, nous avons détecté l’ARNm de VGLUT2 dans environs 1-2% des neurones exprimant l’ARNm de TH dans la substance noire et l’aire tegmentaire ventrale (ATV). Pour explorer la régulation de l’expression de VGLUT2 dans des conditions traumatiques, nous avons utilisé la 6-hydroxydopamine (6-OHDA) pour léser les neurones dopaminergiques dans les jeunes rats. Dix jours après la chirurgie, nous avons trouvé que 27% des neurones dopaminergiques survivants dans l’ATV exprimaient l’ARNm de VGLUT2 dans les rats 6-OHDA. Finalement, nous avons observé la colocalisation de la protéine VGLUT2 dans les terminaisons TH positives par microscopie électronique. Dans les rats normaux, la protéine VGLUT2 est retrouvée dans 28% des terminaisons axonales TH dans le noyau accumbens. Dans les rats lésés à la 6-OHDA, nous avons observé une diminution considérable des terminaisons TH positives, et une augmentation dans la proportion (37%) des terminaisons dopaminergiques présentant du VGLUT2. Nos résultats suggèrent que le phénotype glutamatergique des neurones dopaminergiques est régulé au cours du développement, peut être réactivé dans des états pathologiques, et que ces neurones peuvent libérer du glutamate dans conditions spécifiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Plusieurs agents anticancéreux très puissants sont caractérisés par une solubilité aqueuse limitée et une toxicité systémique importante. Cette dernière serait liée d’une part à la solubilisation des agents anticancéreux à l’aide de surfactifs de bas poids moléculaire, connus pour leur toxicité intrinsèque, et d’autre part, par le manque de spécificité tissulaire des anticancéreux. Les vecteurs colloïdaux à base de polymères permettraient de résoudre certains défis liés à la formulation d’agents anticancéreux hydrophobes. D’abord, les polymères peuvent être sélectionnés afin de répondre à des critères précis de compatibilité, de dégradation et d’affinité pour le médicament à formuler. Ensuite, le fait d’encapsuler l’agent anticancéreux dans un vecteur peut améliorer son efficacité thérapeutique en favorisant son accumulation au niveau du tissu cible, i.e. la tumeur, et ainsi limiter sa distribution au niveau des tissus sains. Des travaux antérieurs menés au sein de notre laboratoire ont mené à la mise au point de micelles à base de poly(N-vinyl-pyrrolidone)-bloc-poly(D,L-lactide) (PVP-b-PDLLA) capables de solubiliser des agents anticancéreux faiblement hydrosolubles dont le PTX. Ce dernier est commercialisé sous le nom de Taxol® et formulé à l’aide du Crémophor EL (CrEL), un surfactif de bas poids moléculaire pouvant provoquer, entre autres, des réactions d’hypersensibilité sévères. Bien que les micelles de PVP-b-PDLLA chargées de PTX aient démontré une meilleure tolérance comparée au Taxol®, leur potentiel de ciblage tumoral et leur efficacité thérapeutique étaient similaires à la forme commerciale à doses égales. Ceci était possiblement dû au fait que les micelles étaient rapidement déstabilisées et ne pouvaient retenir leur cargo suite à leur administration intraveineuse. Nous avons donc décidé de poursuivre les travaux avec un autre type de vecteur, soit des nanoparticules, qui possèdent une stabilité intrinsèque supérieure aux micelles. L’objectif principal de cette thèse de doctorat était donc de mettre au point des nanoparticules polymères pour l’administration parentérale d’agents anticancéreux faiblement solubles dans l’eau. Les nanoparticules devaient permettre d’encapsuler des agents anticancéreux hydrophobes et de les libérer de manière contrôlée sur plusieurs jours. De plus, elles devaient démontrer un temps de circulation plasmatique prolongée afin de favoriser l’accumulation passive du médicament encapsulé au niveau de la tumeur. La première partie du travail visait à employer pour la première fois le copolymère amphiphile PVP-b-PDLLA comme émulsifiant dans la préparation de nanoparticules polymères. Ainsi, une méthode de fabrication des nanoparticules par émulsion huile-dans-eau a été appliquée afin de produire des nanoparticules à base de PDLLA de taille inférieure à 250 nm. Grâce aux propriétés lyoprotectrices de la couronne de PVP présente à la surface des nanoparticules, celles-ci pouvaient retrouver leur distribution de taille initiale après lyophilisation et redispersion en milieu aqueux. Deux anticancéreux hydrophobes, soit le PTX et l’étoposide (ETO), ont été encapsulés dans les nanoparticules et libérés de ces dernières de façon contrôlée sur plusieurs jours in vitro. Une procédure de « salting-out » a été appliquée afin d’améliorer le taux d’incorporation de l’ETO initialement faible étant donnée sa solubilité aqueuse légèrement supérieure à celle du PTX. Le second volet des travaux visait à comparer le PVP comme polymère de surface des nanoparticules au PEG, le polymère le plus fréquemment employé à cette fin en vectorisation. Par le biais d’études d’adsorption de protéines, de capture par les macrophages et de biodistribution chez le rat, nous avons établi une corrélation in vitro/in vivo démontrant que le PVP n’était pas un agent de surface aussi efficace que le PEG. Ainsi, malgré la présence du PVP à la surface des nanoparticules de PDLLA, ces dernières étaient rapidement éliminées de la circulation sanguine suite à leur capture par le système des phagocytes mononucléés. Par conséquent, dans le troisième volet de cette thèse, le PEG a été retenu comme agent de surface, tandis que différents polymères biodégradables de la famille des polyesters, certains synthétiques (PDLLA et copolymères d’acide lactique/acide glycolique), d’autres de source naturelle (poly(hydroxyalkanoates)(PHAs)), ont été investiguées comme matériaux formant le cœur des nanoparticules. Il en est ressorti que les propriétés physicochimiques des polyesters avaient un impact majeur sur l’efficacité d’encapsulation du PTX et son profil de libération des nanoparticules in vitro. Contrairement aux PHAs, les polymères synthétiques ont démontré des taux d’incorporation élevés ainsi qu’une libération contrôlée de leur cargo. Des études de pharmacocinétique et de biodistribution ont démontré que les nanoparticules de PDLLA dotées d’une couronne de PEG conféraient un temps de circulation plasmatique prolongé au PTX et favorisaient son accumulation tumorale. Les nanoparticules polymères représentent donc une alternative intéressante au Taxol®.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En janvier 2008, une éclosion de réactions anaphylactoïdes (RA) potentiellement mortelles associées à l’injection intraveineuse d’héparine manufacturées en Chine et contaminée par le chondroïtine sulfate hypersulfaté (CSHS) a forcé le rappel de ces dernières par la U.S. Food and Drug Administration. Ces RA ont rapidement été attribuées à la libération de la bradykinine (BK) suite à l’activation du système de contact par le CSHS. Cependant, aucune évidence expérimentale définitive n’est à ce jour venue appuyer directement cette hypothèse. En se basant sur le nombre de morts déclaré et associé à la contamination (>150 morts au niveau mondial) ainsi qu’aux données épidémiologiques, qui stipulent que 25% des patients ayant développés une RA aux États-Unis étaient essentiellement des insuffisant rénaux en dialyse traités au moyen d’un inhibiteur de l’enzyme de conversion de l’angiotensine (iECA), nous avons émis l’hypothèse suivante : les RA causées par l’injection intraveineuse d’héparine contaminée au CSHS sont de nature multifactorielle et complexe. Le but de notre travail est donc, dans un premier temps, d’évaluer le pouvoir kininoformateur du CSHS en présence d’un iECA et de le comparer à celui du sulfate de dextran, un activateur de référence du système de contact. Comme les RA associées à l’injection intraveineuse d’héparine contaminée par le CSHS se produisent généralement dans les premières minutes des séances de dialyse, nous allons étudier l’effet de la dilution du plasma sur la quantité de BK libérée en présence ou en absence d’un iECA. Nous allons également mesurer les profils cinétiques de la libération de la BK sur un plasma stimulé par différents lots d’héparine contaminée, et associée à des RA, et nous comparerons cette cinétique avec celles d’une héparine de référence complémentée ou non avec différentes concentrations de CSHS synthétique. Enfin, nous allons caractériser le profil de libération de la BK et de son métabolite actif, la des-Arg9-BK, dans le plasma de patients dialysé ayant présenté une RA associée à une membrane de dialyse chargée négativement. L’application de méthodes expérimentales développées dans notre laboratoire nous a permis de montrer, pour la première fois, que l’héparine contaminée au CSHS a la capacité de libérer la BK à des concentrations susceptibles d’expliquer le rôle de ce peptide inflammatoire dans la physiopathologie des RA causées par l’injection intraveineuse d’héparine d’origine chinoise contaminée au CSHS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les liposomes sont des structures sphériques formés par l'auto-assemblage de molécules amphiphiles sous forme d'une bicouche. Cette bicouche sépare le volume intérieur du liposome du milieu extérieur, de la même manière que les membranes cellulaires. Les liposomes sont donc des modèles de membranes cellulaires et sont formulés pour étudier les processus biologiques qui font intervenir la membrane (transport de molécules à travers la membrane, effets des charges en surface, interactions entre la matrice lipidique et d'autres molécules, etc.). Parce qu'ils peuvent encapsuler une solution aqueuse en leur volume intérieur, ils sont aussi utilisés aujourd'hui comme nanovecteurs de principes actifs. Nous avons formulé des liposomes non-phospholipidiques riches en stérol que nous avons appelés stérosomes. Ces stérosomes sont composés d'environ 30 % d'amphiphiles monoalkylés et d'environ 70 % de stérols (cholestérol, Chol, et/ou sulfate de cholestérol, Schol). Quand certaines conditions sont respectées, ces mélanges sont capables de former une phase liquide ordonnée (Lo) pour donner, par extrusion, des vésicules unilamellaires. Certaines de ces nouvelles formulations ont été fonctionnalisées de manière à libérer leur contenu en réponse à un stimulus externe. En incorporant des acides gras dérivés de l’acide palmitique possédant différents pKa, nous avons pu contrôler le pH auquel la libération débute. Un modèle mathématique a été proposé afin de cerner les paramètres régissant leur comportement de libération. En incorporant un amphiphile sensible à la lumière (un dérivé de l’azobenzène), les liposomes formés semblent répondre à une radiation lumineuse. Pour ce système, il serait probablement nécessaire de tracer le diagramme de phase du mélange afin de contrôler la photo-libération de l’agent encapsulé. Nous avons aussi formulé des liposomes contenant un amphiphile cationique (le chlorure de cétylpyridinium). En tant que nanovecteurs, ces stérosomes montrent un potentiel intéressant pour la libération passive ou contrôlée de principes actifs. Pour ces systèmes, nous avons développé un modèle pour déterminer l’orientation des différentes molécules dans la bicouche. La formation de ces nouveaux systèmes a aussi apporté de nouvelles connaissances dans le domaine des interactions détergents-lipides. Aux nombreux effets du cholestérol (Chol) sur les systèmes biologiques, il faut ajouter maintenant que les stérols sont aussi capables de forcer les amphiphiles monoalkylés à former des bicouches. Cette nouvelle propriété peut avoir des répercussions sur notre compréhension du fonctionnement des systèmes biologiques. Enfin, les amphiphiles monoalkylés peuvent interagir avec la membrane et avoir des répercussions importantes sur son fonctionnement. Par exemple, l'effet antibactérien de détergents est supposé être dû à leur insertion dans la membrane. Cette insertion est régie par l'affinité existant entre le détergent et cette dernière. Dans ce cadre, nous avons voulu développer une nouvelle méthode permettant d'étudier ces affinités. Nous avons choisi la spectroscopie Raman exaltée de surface (SERS) pour sa sensibilité. Les hypothèses permettant de déterminer cette constante d’affinité se basent sur l’incapacité du détergent à exalter le signal SERS lorsque le détergent est inséré dans la membrane. Les résultats ont été comparés à ceux obtenus par titration calorimétrique isotherme (ITC). Les résultats ont montré des différences. Ces différences ont été discutées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En vue de saisir la pensée kantienne dans toute sa virulence, on ne peut jamais faire abstraction de la place éminente de Jean-Jacques Rousseau dans cette philosophie qui ne cesse pas à marquer, à définir et à poser des jalons de la pensée moderne. À cet égard, si le Genevois communique les grandes leçons de sa théorie de l’homme sous la guise d’une éducation, il s’agit ici non pas d’une philosophie de l’éducation mais bien plus d’une philosophie comme éducation. C’est effectivement cette thèse que Kant reprend, suit et enrichie d’une manière sui generis pour renverser l’ordre théorique mais surtout pratique de religion-moralité-devoir et libérer une fois pour toutes la morale des dogmes théologiques et finalement pour édifier une philosophie pratique comme l’éducation de l’espèce humaine. Le but de cette étude est de jeter quelques lumières sur la place sans pareille de Jean-Jacques Rousseau dans la philosophie kantienne de l’éducation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Notre analyse porte sur la notion d’éveil au sein du Sûtra de Vimalakîrti. Premièrement, nous présentons et comparons les modèles d’éveil exposés dans ce texte, soit la figure du bouddha et – surtout – celle du bodhisattva; nous analysons leurs deux grands traits caractéristiques, c’est-à-dire la connaissance transcendante et les méthodes habiles, puis élaborons leur rôle par rapport à l’éveil. Il apparaît d’emblée que la connaissance transcendante est une connaissance non discursive de la réelle nature de toute chose et qu’elle est une condition nécessaire à l’éveil, alors que les méthodes habiles – aussi appelées expédients salvifiques – constituent la myriade de moyens rusés et provisoires conçus et employés par les bouddhas et bodhisattva dans le but d’amener les êtres ignorants à l’éveil et d’ainsi les libérer de l’attachement et de la souffrance. Dans le second chapitre, nous caractérisons l’état de conscience de l’éveillé à l’aide de notions telles la non-dualité, la non-discrimination et la non-pensée, puis présentons la conception de la pratique méditationnelle soutenue dans notre sûtra. Nous montrons que l’état d’éveil est un état de conscience non discriminateur au sein duquel l’identité personnelle et les phénomènes – ou la dualité sujet-objet – sont reconnus comme étant des illusions ou, plus précisément, des constructions mentales et langagières. Ainsi, la méditation apparaît comme étant une méthode habile provisoire dont les buts sont essentiellement la déconstruction du paradigme dualiste de la pensée discursive et la réalisation qu’il n’existe, ultimement et paradoxalement, aucune réelle entrave à l’éveil et aucune pratique méditationnelle nécessaire à l’expérience de l’éveil.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mon mémoire "Colonial Ideology and Legacy and Feminine Resistance in Jamaica Kincaid" est une lecture féminine de la colonisation. Il définit, en premier lieu, l'idéologie coloniale comme une idéologie manichéiste et déshumanisante. Étant critique de cette idéologie binaire et réductrice, mon mémoire déchiffre et propose une résistance féminine, riche et diverse, à travers quelques écrits eux même divers de l'écrivaine Jamaica Kincaid. Ce mémoire conteste toute idée reçue sur la femme, en s'appuyant sur des théories anticoloniales et féministes. Il s'agit en effet d'un travail déconstructif où je vise inlassablement à décortiquer et à délégitimer ces hiérarchies qui habitent nos pensées et nos corps, et qui, entravent l'épanouissement de l'être humain. Les trois chapitres qui forment le corps de mon mémoire sont organisés à chaque fois en terme d'oppression et de résistance; de déshumanisation et humanisation, où le sujet colonisé essaie de se libérer des différentes formes d'oppression pour vivre pleinement son humanité. Cette relation hiérarchique est représentée métaphoriquement à travers la relation mère-fille, une relation que j'étudie dans le deuxième chapitre. Le troisième chapitre s'intéresse au mouvement du corps féminin, qui devient l'espace de résistance à une identité limitatrice.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans la Recherche du temps perdu, toute relation filiale est une relation où le fils fait inévitablement souffrir sa mère en commettant, selon Proust, une forme de parricide. La lecture des œuvres pré-Recherche de l’auteur, telles la nouvelle « La confession d’une jeune fille » et l’article « Sentiments filiaux d’un parricide » permettent de comprendre cette relation ambigüe, au cœur de laquelle se trouve l’amour incommensurable que ressent le fils pour le parent, un amour si intense qu’il en est étouffant. Dans ces conditions, le parent en vient à symboliser aux yeux de l’enfant la Loi contre laquelle il doit se rebeller à coup de gestes de cruauté. Le fils, s’il est de ceux qui peuvent soutenir la vue de leurs crimes, entre alors dans un cercle vicieux : par sa cruauté, il tue – symboliquement ou réellement – le parent aimé et il en jouit. Suite à ce sadisme, il ressent une insupportable culpabilité qui le mène à une dévotion masochiste encore plus grande pour son parent. Or, par le personnage du narrateur de la Recherche du temps perdu, Proust démontre que la seule manière de se libérer de cette douloureuse culpabilité, c’est l’Art. Le crime ultime qu’est la création excuse les actes de cruauté antérieurs et les justifie même. C’est la seule manière de transformer la souffrance vécue (issue entre autres de la culpabilité d’avoir pris plaisir à faire souffrir un parent aimé) en idées universelles, en œuvre d’art.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire a pour but d’élucider l’analyse et l’évaluation nietzschéennes du sens et de la portée de la figure de Socrate dans les cultures antique et moderne. Pour ce faire, nous nous pencherons d’abord sur la question de l’identité de Socrate, ce qui permettra d’introduire une distinction centrale à l’analyse de Nietzsche, soit celle entre la doctrine et la personnalité du célèbre Athénien. En effet, Nietzsche isole la personnalité de Socrate, qu’il circonscrit à partir des notions d’instinct, de pulsion et d’affect, de sa doctrine, qu’il appelle le socratisme et qu’il définit à partir de l’équation socratique raison = vertu = bonheur. Ensuite, nous développerons les trois éléments sur lesquels il s’appuie pour expliquer que Socrate ait pu séduire les Grecs, soit le fait qu’il fut un grand érotique, qu’il introduisit une nouvelle forme de joute à Athènes et qu’il apparut comme étant un médecin pour ses contemporains. Cette question des raisons permettant d’expliquer que Socrate ait pu séduire les Grecs est déterminante pour Nietzsche, puisque c’est de là qu’il est amené à se demander qui est ce Socrate et quel a été son véritable impact sur la culture, soit les deux questions qui sont au cœur de ce qu’il appelle « le problème de Socrate ». Enfin, nous nous pencherons sur le diagnostic que le philosophe allemand pose sur le célèbre Athénien ainsi que sur son évaluation de l’impact du socratisme sur les cultures antique et moderne, après quoi nous présenterons l’inversion des valeurs que Nietzsche tente d’opérer dans sa propre culture. Nous verrons alors qu’il cherche entre autres par cette inversion des valeurs à nous libérer du socratisme, car il est d’avis que cette doctrine dévalorise toute forme d’agir puisant ses motifs dans ce qui relève de l’inconscient et survalorise une morale luttant contre les pulsions dominantes en nous.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presse coloniale hispano-américaine a joué un rôle significatif dans la propagation d’idées étrangères dans les colonies d’Amérique. Elle est devenue le porte-parole de certaines idéologies, lesquelles se sont renforcées par le biais de la traduction de nouvelles provenant surtout d’Europe et des États-Unis. Notre thèse porte sur les interventions du sujet traducteur dans la Gaceta de Caracas (GdC) du Venezuela. Publié de 1808 à 1822, ce périodique est le plus emblématique de l’époque émancipatrice. Créé pour diffuser des nouvelles et des idées pro-monarchie dans la province vénézuélienne, ce périodique dépasse ses objectifs premiers et témoigne des changements politiques, économiques et sociaux pendant le processus d’indépendance du pays qui, en quatorze ans, connaît successivement des périodes royalistes et des périodes républicaines. Comme les autres périodiques de la Province, la GdC a connu une importante activité traductive par l’emploi de sources étrangères (périodiques publiés en Europe, aux États-Unis et dans les Caraïbes). La traduction dans la GdC fait partie d’un projet politique, raison pour laquelle les traducteurs n’hésitent pas à s’en servir pour communiquer leurs idéaux. La traduction sert toutefois deux projets bien distincts dépendamment de l’étape politique que vit le pays : pendant l’époque royaliste, elle cherche à maintenir le pouvoir de la monarchie espagnole sur la colonie, tandis que durant l’époque patriotique, elle cherche à s’en libérer. Des études précédentes ponctuelles suggèrent que le traducteur de la GdC emploie une stratégie d’appropriation à des fins politiques et intervient délibérément dans le processus de traduction (Bastin, Navarro & Iturriza, 2010; Iturriza, 2011; Navarro, 2008, 2010, 2011). Dans le cadre des études descriptives de la traduction – EDT (Toury, 1995), nous étudions les choix traductionnels des rédacteurs-traducteurs. Plus précisément, nous examinons les raisons, les manifestations et les effets de ces choix afin de déterminer le rôle de la traduction dans le processus indépendantiste au Venezuela.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire examine la question de la formation de l'identité en tant que procédure compliquée dans laquelle plusieurs éléments interviennent. L'identité d'une personne se compose à la fois d’une identité propre et d’une autre collective. Dans le cas où l’identité propre est jugée sévèrement par les autres comme étant déviante, cela poussera la personne à, ou bien maintenir une image compatible avec les prototypes sociaux ou bien résister et affirmer son identité personnelle. Mon travail montre que l'exclusion et la répression de certains aspects de l'identité peuvent causer un disfonctionnement psychique difficile à surmonter. Par contre, l'acceptation de soi et l’adoption de tous les éléments qui la constituent conduisent, certes après une longue lutte, au salut de l’âme et du corps. Le premier chapitre propose une approche psychosociale qui vise à expliquer le fonctionnement des groupes et comment l'interaction avec autrui joue un rôle décisif dans la formation de l'identité. Des éléments extérieurs comme par exemple les idéaux sociaux influencent les comportements et les choix des gens. Toutefois, cette influence peut devenir une menace aux spécificités personnelles et aux traits spécifiques. Le deuxième chapitre examine la question des problèmes qu’on risque d’avoir au cas où les traits identitaires franchiraient les normes sociales. Nous partons du problème épineux de la quête de soi dans Giovanni's Room de James Baldwin. L'homosexualité de David était tellement refusée par la société qu’elle a engendrée chez lui des sentiments de honte et de culpabilité. Il devait choisir entre le sacrifice des aspects de soi pour satisfaire les paradigmes sociaux ou bien perdre ce qu’il a de propre. David n'arrive pas à se libérer. Il reste prisonnier des perceptions rigides au sujet de la masculinité et de la sexualité. Mon analyse se focalise essentiellement sur l'examen des différents éléments théoriques qui touchent la question du sexe et de la sexualité. Le résultat est le suivant : plus les opinions dominantes sont rigides et fermes, plus elles deviennent une prison pour l’individu. Par contre, plus elles sont tolérantes et flexibles, plus elles acceptent les diversités de l'identité humaine. Dans le dernier chapitre, j'examine la question de la représentation des relations entre les caractères masculins dans Just Above My Head. L'homosexualité est présentée comme un moyen sacré pour exprimer l'amour. Les caractères révèlent leurs sentiments implicitement à travers les chants spirituel tel que le gospel ou bien explicitement à travers la connexion physique. Dans ce roman, Baldwin montre que c'est seulement grâce à la sincérité et à l'amour que l'individu peut atteindre la libération du soi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le cadre de cette thèse, nous nous proposons d’explorer la patiente explication que Heidegger a poursuivie avec Hegel à propos de l’origine de la négativité – problème qui s’impose de fait à titre d’« unique pensée d’une pensée qui pose la question de l’être ». Partant du constat d’une affinité insoupçonnée entre les deux penseurs quant au rôle insigne qui doit revenir à la négation en philosophie, nous entendons percer à jour les motifs de la constante fin de non-recevoir que Heidegger oppose néanmoins à la méthode dialectique de son plus coriace adversaire. Afin de rendre justice aux différents rebondissements d’une explication en constante mutation, et qui, de surcroît, traverse l’ensemble de l’œuvre de Heidegger, nous procédons à une division chronologique qui en circonscrit les quatre principaux moments. I. En un premier temps, notre regard se porte ainsi sur l’opposition résolue que le jeune Heidegger manifeste à l’égard de la montée du néo-hégélianisme, au nom d’une appropriation toute personnelle de l’intuitionnisme husserlien. Les transformations auxquelles il soumet la méthode phénoménologique de son maître doivent néanmoins laisser transparaître un furtif emprunt à la dialectique hégélienne, dont le principal mérite serait d’avoir conféré une fonction productrice à la négation. II. Le propos d’Être et temps demeure toutefois bien discret quant à cette dette méthodologique, bien que ses vestiges se laissent exhumer, notamment sous la forme d’une négation contre-déchéante dont l’intervention essentielle ponctue l’analytique existentiale. C’est qu’un désaccord subsiste entre Heidegger et son prédécesseur quant à l’origine ontologique de la néantité, qui semble devoir se dérober à toute forme de sursomption dialectique. III. Loin d’être alors définitivement réglé, le problème de l’origine du négatif rejaillit au cœur d’une nouvelle mouture métaphysique du projet heideggérien, la minant peut-être même en son fond. Il s’agit en l’occurrence de disputer à Hegel une compréhension plus originaire du néant, comprise comme témoignage de la finitude de l’être lui-même et s’inscrivant en faux face à l’accomplissement spécifiquement hégélien de la métaphysique. IV. Des tensions qui ne sont pas étrangères à cette délicate entreprise entraînent toutefois Heidegger sur la voie d’un dépassement de l’onto-théo-logie et de l’achèvement technique que Hegel lui a préparé. Il s’agit dès lors de situer l’origine abyssale du négatif auprès d’un irréductible retrait de l’estre, à l’encontre de l’oubli nihiliste auquel Hegel l’aurait confinée en la résorbant au sein de l’absolue positivité de la présence. Par là même, Heidegger propose un concept de négation qu’il juge plus originaire que son contrepoids dialectique, négation à laquelle il attribue la forme d’une réponse interrogative, patiente et attentive à la réticence hésitante de l’événement appropriant. Mais est-ce suffisant pour soutenir qu’il parvient, en définitive, à se libérer de l’embarras dialectique qui semble coller à sa pensée et qui exige de lui un constant effort de distanciation ? Cette thèse entend contribuer à établir les conditions d’une décision à cet égard.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La non-violence fait référence à une idéologie et un ensemble de pratiques qui ont pour caractéristique commune de rejeter la violence sous toutes ses formes dans l’actualisation quotidienne. La non-violence est cependant devenue également un outil auquel certains recourrent dans des objectifs qui ne servent pas nécessairement le bien commun. En d’autres termes, la non-violence n’est pas systématiquement un outil de paix. Elle est un moyen d’obtenir ce que l’on veut, sans recourir à la violence. Cette thèse propose une vision de la non-violence au service du bien commun. Elle puise dans l’historicité de grands événements et acteurs qui ont utilisé la non-violence pour libérer une collectivité de formes d’oppression qui amenuisaient la dignité humaine. Elle fait référence à des auteurs et acteurs qui ont influencé le théologien processuel David Ray Griffin dans sa propre démarche d’enseignement et de recherche théologiques sur une quarantaine d’années, soient de la guerre du Vietnam à celle d’Iraq. Les dates survolées vont de 1968 à 2008. Une première démarche entreprise par la recherche est de comprendre le plus précisément possible quelles sont les avenues les plus récentes concernant la non-violence et d’explorer ses influences sur la vie et la carrière du théologien processuel États-Unien David Ray Griffin. En second lieu, une rétrospective historique des événements marquants aux États-Unis permet de cerner le contexte au sein duquel Griffin a évolué et comment son discours a laissé transparaître ces influences historiques, sociales et académiques. Une analyse plus centrée sur la politique extérieure des États-Unis en matière d’économie et de militarisme aiguille vers l’identification de signes que Griffin qualifie lui-même d’anti-théologiques, ce qui l’incite à élaborer une vision paradigmatique globalisante, équilibrée selon lui, où les ressources planétaires sont redistribuées dans un souci d’équité et de justice. Pour ce faire, un tribunal international, une religion globale, à l’image de ce que propose la pensée processuelle whiteheadienne-hartshornienne sont proposés. Griffin en brosse les grands traits dans un discours où l’exhortation s’assortit d’une méthodologie et d’une pédagogie éprouvés depuis 40 ans. Une grille d’analyse des textes griffiniens est par la suite élaborée, structurant les différentes composantes fondamentales de sa pensée. Un modèle d’intégration des valeurs de la non-violence est dégagé des lectures, applicable à d’autres disciplines. Appuyé sur une tradition authentique d’auteurs non-violents, David Ray Griffin présente les caractéristiques d’un homme de paix, duquel les idéaux débordent le cadre national pour rejoindre le planétaire, dans une visée résolument sotériologique. Cette visée devient urgente alors que les événements des attentats terroristes du World Trade Center du 11 septembre 2001 font dire à Griffin que non seulement les États-Unis sont engagés dans une démarche impérialiste démoniaque, mais qu’ils contribuent de manière accélérée à la destruction de la planète. Il faut absolument, croit-il, renverser le courant et devenir, pour le monde, un leader de la réparation des écosystèmes, des économies et des sociétés. S’adjoignant des auteurs d’autres disciplines, et toujours dans un cadre processuel, Griffin entreprend le long périple pédagogique qu’est celui de convaincre le plus grand nombre d’individus possible que le temps est venu d’agir.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Des travaux récents démontrent que certains neurones dopaminergiques du mésencéphale ont la capacité de libérer du glutamate en plus de la dopamine (DA). Ce phénomène de « co-transmission » requiert l’expression du transporteur vésiculaire du glutamate de type 2 (VGLUT2) dans les neurones dopaminergiques. Certaines observations montrent que l’expression de VGLUT2 dans les neurones dopaminergiques survient tôt durant leur développement et est essentiellement limitée aux neurones de l’aire tegmentaire ventrale (VTA). De plus, cette libération de glutamate se retrouve principalement au niveau des terminaisons de ces neurones dans le striatum ventral, mais pas dans le striatum dorsal. Ces données suggèrent d’une part un rôle développemental possible du glutamate dans les neurones dopaminergiques, et d’autre part, que les signaux dérivés des neurones cibles puissent réguler le double phénotype des neurones dopaminergiques menant ainsi à une plasticité phénotypique. Par ailleurs, il est toujours inconnu si cette libération de glutamate se fait à partir des terminaisons qui relâchent la DA ou à partir de terminaisons axonales distinctes. De plus, le rôle physiologique de ce surprenant phénomène de co-transmission reste également inconnu. Ainsi, dans cette étude, nous avons d’abord démontré in vitro et in vivo que l’expression de VGLUT2 est nécessaire pour la survie et la croissance d’une sous-population de neurones dopaminergiques. En utilisant une lignée de souris ayant une délétion génique spécifique de VGLUT2 dans les neurones dopaminergiques, nous avons observé une diminution du nombre de terminaisons dopaminergiques et glutamatergiques dans le striatum, une baisse de libération de DA dans le striatum ventral, une diminution de la coordination motrice ainsi qu’une diminution de l’activité locomotrice induite par les drogues d’abus. D’autre part, nous avons démontré in vitro et in vivo que les neurones dopaminergiques au double phénotype établissent des terminaisons distinctes afin de relâcher le glutamate et la DA. De plus, nous démontrons que ce phénomène de ségrégation des sites de libération semble être induit par une interaction avec les neurones du striatum ventral. Ces travaux démontrent le rôle physiologique déterminant de la co-transmission DA-glutamate pour l’homéostasie du système DAergique et dévoile une caractéristique fondamentale de l’établissement des terminaisons axonales de ces neurones. Ces travaux permettent ainsi de mieux comprendre les rôles physiologiques de la co-libération de glutamate par les neurones du système nerveux central et présentent une nouvelle perspective sur les dysfonctions potentielles de ces neurones dans les maladies du cerveau.