315 resultados para déficience intellectuelle
Resumo:
La variabilité interindividuelle dans la réponse aux médicaments constitue une problématique importante pouvant causer des effets indésirables ou l’échec d’un traitement. Ces variabilités peuvent être causées par une diminution de l’activité de l’enzyme responsable du métabolisme de certains médicaments, fréquemment les cytochromes P450, un système enzymatique majeur dans le métabolisme de ces derniers. Ces enzymes sont sujets à des mutations génétiques appelées polymorphismes, qui altèrent l’activité métabolique. Il est donc important d’évaluer le rôle de ces enzymes dans le métabolisme des médicaments afin d’identifier leur responsabilité dans la variabilité interindividuelle de la réponse au traitement. Parmi l’important système enzymatique que représentent les cytochromes P450, l’isoenzyme CYP2D6 est particulièrement étudiée, ses variations métaboliques revêtant une haute importance clinique. L’un des substrats du CYP2D6 est l’oxycodone, un analgésique narcotique largement prescrit en clinique. Une grande variabilité est observée dans la réponse analgésique à l’oxycodone, variabilité pouvant être causée par un polymorphisme génétique. Il est connu que des variations génétiques dans le CYP2D6 compromettent la réponse analgésique à la codéine en rendant moins importante la formation de son métabolite actif, la morphine. Par analogie, plusieurs études supportent l’hypothèse selon laquelle le métabolite oxymorphone, formée par l’isoenzyme CYP2D6, serait responsable de l’analgésie de l’oxycodone. Une déficience génétique de l’enzyme compromettrait la réponse analgésique au médicament. Les travaux effectués dans le cadre de ce mémoire ont démontré que l’inhibition du CYP2D6 chez des sujets volontaires réduit de moitié la production d’oxymorphone, confirmant l’importante implication de l’enzyme dans le métabolisme de l’oxycodone. Ces résultats démontrent une forte ressemblance avec le métabolisme de la codéine, suggérant que l’oxymorphone pourrait être responsable de l’analgésie. Cependant, les travaux effectués n’ont pu établir de relation entre la concentration plasmatique d’oxymorphone et le niveau d’analgésie ressenti par les sujets. La continuation des études sur le mécanisme d’action de l’oxycodone dans la réponse analgésique est essentielle afin d’établir la source des variabilités interindividuelles expérimentées par les patients et ainsi d’éviter des effets secondaires ou lacunes dans le traitement.
Resumo:
Le but de ce mémoire est d’expliciter en détail et de voir la portée d'un passage bien précis du traité des Topiques, ouvrage où Aristote tente d'élaborer une méthode qui permettra de raisonner de manière dialectique. Dans le deuxième chapitre du premier livre (I, 2), il énonce de manière succincte trois utilités que le traité en question peut procurer à celui qui possède et maîtrise adéquatement cette méthode. En premier lieu, la dialectique servirait de gymnastique intellectuelle pour former l'esprit et lui donner plus de souplesse dans ses raisonnements. Dans un second temps, elle serait utile dans les rencontres de tous les jours avec autrui parce qu’elle permettrait de discuter et d'argumenter sur un sujet donné avec le premier venu. Enfin, il semble également que la dialectique soit utile pour les «connaissances de caractère philosophique», en ce sens qu'elle permettrait de développer les apories et ultimement, d'établir les principes ou les notions premières de chaque science. Dans ce travail, je me propose donc d’examiner chacune de ces prétendues utilités afin de voir comment, et dans quelle mesure, nous pouvons réellement affirmer que la dialectique s’avère profitable pour chacun des services énumérés en Topiques I, 2.
Resumo:
L’objectif principal de cette thèse est d’explorer et d’analyser la réception de l’œuvre d’Eugen Wüster afin d’expliquer comment ses travaux ont influencé le développement disciplinaire de la terminologie. Du point de vue historique, les travaux de Wüster, en particulier la Théorie générale de la terminologie, ont stimulé la recherche en terminologie. Malgré des opinions divergentes, on s’entend pour reconnaître que les travaux de Wüster constituent la pierre angulaire de la terminologie moderne. Notre recherche vise spécifiquement à explorer la réception de l’œuvre wüsterienne en étudiant les écrits relatifs à cette œuvre dans la littérature universitaire en anglais, en espagnol et en français entre 1979 et 2009, en Europe et en Amérique. Réalisée dans le cadre du débat sur la réception de l’œuvre de Wüster, cette étude se concentre exclusivement sur l’analyse des critiques et des commentaires de son œuvre. Pour ce faire, nous avons tenu compte de la production intellectuelle de Wüster, de sa réception positive ou négative, des nouvelles approches théoriques en terminologie ainsi que des études portant sur l’état de la question en terminologie entre 1979 et 2009. Au moyen d’une recherche qualitative de type exploratoire, nous avons analysé un corpus de textes dans lesquels les auteurs : a. ont cité textuellement au moins un extrait d’un texte écrit par Wüster ; b. ont référé aux travaux de Wüster dans la bibliographie de l’article ; ou c. ont fait un commentaire sur ces travaux. De cette manière, nous avons cerné les grandes lignes du débat autour de la réception de son œuvre. Les résultats de notre étude sont éloquents. Ils offrent une idée claire de la réception des travaux de Wüster dans la communauté scientifique. Premièrement, Wüster représente une figure centrale de la terminologie moderne en ce qui concerne la normalisation terminologique. Il fut le premier à proposer une théorie de la terminologie. Deuxièmement, la contextualisation appropriée de son œuvre constitue un point de départ essentiel pour une appréciation éclairée et juste de sa contribution à l’évolution de la discipline. Troisièmement, les résultats de notre recherche dévoilent comment les nouvelles approches théoriques de la terminologie se sont adaptées aux progrès scientifiques et techniques. Quatrièmement, une étude menée sur 166 articles publiés dans des revues savantes confirme que l’œuvre de Wüster a provoqué des réactions variées tant en Europe qu’en Amérique et que sa réception est plutôt positive. Les résultats de notre étude font état d’une tendance qu’ont les auteurs de critiquer les travaux de Wüster avec lesquels, dans la plupart des cas, ils ne semblent cependant pas être bien familiarisés. La « méthodologie des programmes de recherche scientifique », proposée par Lakatos (1978) et appliquée comme un modèle interprétatif, nous a permis de démontrer que Wüster a joué un rôle décisif dans le développement de la terminologie comme discipline et que la terminologie peut être perçue comme un programme de recherche scientifique. La conclusion principale de notre thèse est que la terminologie a vécu des changements considérables et progressifs qui l’ont aidée à devenir, en termes lakatosiens, une discipline forte tant au plan théorique que descriptif.
Resumo:
Ce mémoire propose une analyse de la théorie de la volonté en relation avec le mal dans la pensée de Thomas d’Aquin. Le mal est une privation d’être et l’être est identique au bien. La volonté est une forme intellectuelle d’appétit, ainsi que la gouvernante des puissances inférieures, mais aussi de la raison qui est à la fois son principe. L’appétit est un mouvement vers ce qui est le bien d’une nature, il est donc difficile d’accepter que la volonté puisse élire son contraire qui est le mal. La thèse de Platon selon laquelle le mal n’est désiré que par ignorance est écartée, puisque le propos de Thomas est d’expliquer le consentement en faveur du mal connu. Or, si le mal peut être voulu, on ne peut le vouloir sans le référer au bien. Ainsi, le libre arbitre, bien qu’ayant Dieu pour principe, est le principe du premier mauvais choix. La compréhension de la problématique passe par la division de ce qui appartient à l’extérieur de la volonté et ensuite à l’intérieur. De soi, un acte extérieur peut être immoral, comme le vol, mais la volonté d’une intention bonne qui choisit cet acte devient mauvaise, bien qu’elle garde le mérite de sa bonne intention. Son choix mauvais est parfois dû à une certaine ignorance, mais, puisque nous n’ignorons pas toujours le mal, il faut attribuer une faiblesse à la volonté, car elle n’accomplit pas pleinement sa nature. Quand elle répète ses actes de faiblesse à l’égard du mal, elle se dispose à accueillir l’habitus de la malice, et alors elle cherche d’elle-même le mal. Aucun de ces principes, cependant, ne peut s’appliquer à l’homme originel ni au diable. Ceux-ci n’auront pour principe de leurs choix que l’orgueil dans le libre exercice de la volonté.
Resumo:
L’excitotoxicité est un mécanisme physiopathologique majeur impliqué dans la pathogenèse de la déficience en thiamine (DT). Dans les régions cérébrales vulnérables à la DT, on observe une mort cellulaire induite par excitotoxicité dont l’origine semble être la conséquence d’une perturbation du métabolisme énergétique mitochondrial, d’une dépolarisation membranaire soutenue et d’une diminution de l’absorption du glutamate par les astrocytes suite à la diminution de l’expression des transporteurs EAAT1 et EAAT2. Il est clairement établi que le glutamate joue un rôle central dans l’excitotoxicité lors de la DT. Ainsi, la mise en évidence des mécanismes impliqués dans la diminution de l’expression des transporteurs du glutamate est essentielle à la compréhension de la physiopathologie de la DT. L’objectif de cette thèse consiste en l’étude de la régulation des transporteurs astrocytaires du glutamate et la mise au point de stratégies thérapeutiques ciblant la pathogenèse de l’excitotoxicité lors de l’encéphalopathie consécutive à la DT. Les principaux résultats de cette thèse démontrent des perturbations des transporteurs du glutamate à la fois dans des modèles animaux de DT et dans des astrocytes en culture soumis à une DT. La DT se caractérise par la perte du variant d’épissage GLT-1b codant pour un transporteur du glutamate dans le thalamus et le colliculus inférieur, les régions cérébrales affectées lors d’une DT, en l’absence de modification des niveaux d’ARNm. Ces résultats suggèrent une régulation post-transcriptionnelle de l’expression des transporteurs du glutamate en condition de DT. Les études basées sur l’utilisation d’inhibiteurs spécifiques des facteurs de transcription NFkB et de l’enzyme nucléaire poly(ADP)ribose polymérase-1 (PARP-1) démontrent que la régulation de l’expression du transporteur GLT-1 est sous le contrôle de voies de signalisation NFkB dépendantes de PARP-1. Cette étude démontre une augmentation de l’activation de PARP-1 et de NFkB dans les régions vulnérables chez le rat soumis à une DT et en culture d’astrocytes DT. L’inhibition pharmacologique du facteur de transcription NFkB par le PDTC induit une augmentation des niveaux d’expression de GLT-1, tandis que l’inhibition de PARP-1 par le DPQ conduit à l’inhibition de l’hyperactivation de NFkB observée lors de DT. L’ensemble de ces résultats met en évidence un nouveau mécanisme de régulation des transporteurs du glutamate par l’activation de PARP-1. L’accumulation de lactate est une caractéristique de la DT. Un traitement avec le milieu de culture d’astrocytes en condition de DT sur des cultures d’astrocytes naïfs induit une diminution de l’expression de GLT-1 ainsi qu’une inhibition de la capacité d’absorption du glutamate par les astrocytes naïfs. En revanche, l’administration de lactate exogène ne modifie pas le niveau d’expression protéique de GLT-1. Ainsi, des facteurs solubles autres que le lactate sont sécrétés par des astrocytes en condition de perturbation métabolique et peuvent potentiellement réguler l’activité des transporteurs du glutamate et contribuer à la pathogenèse du syncytium astroglial. En outre, la ceftriaxone, un antibiotique de la famille des β-lactamines, augmente de façon différentielle l’expression du variant-d’épissage GLT-1 dans le colliculus inférieur chez le rat DT et en culture d’astrocytes DT. Ces résultats suggèrent que la ceftriaxone peut constituer une avenue thérapeutique dans la régulation de l’activité des transporteurs du glutamate lors de DT. Pour conclure, la mort cellulaire d’origine excitotoxique lors de DT survient en conséquence d’une dysfonction mitochondriale associée à une perturbation du métabolisme énergétique cérébral. La modification de l’expression des transporteurs du gluatamate est sous le contrôle des voies de signalisation NFkB dépendantes du facteur PARP-1. De plus, l’inhibition métabolique et l’augmentation des sécrétions de lactate observées lors de DT peuvent également constituer un autre mécanisme physiopathologique expliquant la diminution d’expression des transporteurs de glutamate. Enfin, la ceftriaxone pourrait représenter une stratégie thérapeutique potentielle dans le traitement de la régulation de l’expression des transporteurs du glutamate et de la perte neuronale associés à l’excitotoxicité observée lors de DT.
Resumo:
La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
Étude de cas / Case study
Resumo:
Les premières cellules progénitrices lympho-myéloïdes (LMPP) entrent dans le thymus et commencent leur processus de différenciation au stade double négatif (DN, CD4-CD8-). Après un réarrangement fonctionnel de la chaine bêta de leur récepteur des cellules T (RCT), les cellules reçoivent des signaux de différenciation, de prolifération, de survie et de sélection et passent au stade double positif (DP, CD4+CD8+). Ensuite, la chaine alpha du RCT est réarrangée et testée via les sélections positive et négative. Si le RCT reçoit un signal ni trop fort, ni trop faible, les cellules passent au stade simple positif où elles exprimeront soit la molécule CD4 ou CD8. ERK3, une MAPK non-conventionnelle, joue un rôle important dans le développement thymique. Des études précédentes ont démontré qu’une déficience en ERK3 diminue de 50 % la cellularité thymique et de 75% le nombre de cellules simples positives CD4 (CD4SP). Nous avons posé comme hypothèses qu’il y a une augmentation de l’apoptose chez les thymocytes DP de souris Erk3-/- et que cette déficience chez les thymocytes DP affecterait la sélection positive des cellules DP, réduisant ainsi le nombre de thymocytes CD4SP. Afin de vérifier la première hypothèse, nous avons regardé les niveaux d’apoptose grâce à la cytométrie en flux et par immunohistochimie. Dans les deux cas, nous étions incapables de détecter une différence du niveau d’apoptose chez les thymocytes DP entre les souris Erk3+/+ et Erk3-/-. Ensuite, nous nous sommes posés la question suivante : La demi-vie des thymocytes DP Erk3-/- était-elle plus courte que le type sauvage? La demi-vie des thymocytes DP a été mesurée à l’aide de l’étude des réarrangements secondaires de la chaine alpha du RCT par PCR semi-quantitatif et à l’aide de cultures de thymus fœtaux. En effet, ERK3 semble important pour prolonger la demi-vie des thymocytes DP. Ensuite, nous avons utilisé des marqueurs cellulaires différentiels (CD69, CD5 et RCT) pour regarder si les thymocytes DP sont capables de passer la sélection positive. En effet, il y a moins de thymocytes DP Erk3-/- qui sont CD69fort, CD5fort et RCTfort. Finalement, nous voulons savoir si les fonctions de ERK3 passent par MK5, son seul partenaire d’interaction connu à ce jour. Après la caractérisation du thymus de la souris Mk5-/-, nous observons que seulement la réduction du nombre de thymocytes CD4SP est identique à celle des thymocytes CD4SP de la souris Erk3-/-. En conclusion, ces résultats révèlent des fonctions importantes pour la molécule ERK3 lors du processus de sélection positive, le maintient de la demi-vie des thymocytes DP et lors de la régulation de développement thymique de manière MK5-dépendante et -indépendante.
Resumo:
"L’auteur présente une analyse générale de l’évolution historique et des développements récents du régime des droits d’auteur au Canada. Avec le développement des nouvelles technologies de l’information, et plus spécifiquement de l’Internet, le régime canadien des droits d’auteur nécessiterait d’importantes réformes. L’auteur déplore toutefois les modifications récentes issues de la loi C-60. En effet, selon lui, ces changements ne correspondent pas au régime international proposé par l’Organisation Mondiale de Propriété Intellectuelle. En fait, ceux-ci cadrent beaucoup plus avec la perspective américaine de protection limitative des droits d’auteur. Michael Geist trace d’abord l’historique du développement du régime de protection des droits d’auteur au Canada. Il souligne notamment les modifications législatives importantes de la fin des années 1980 et 1990 qui visaient à renforcer les règles de reconnaissance et de protection des droits que les auteurs canadiens possèdent sur leurs œuvres. Parallèlement, à ces modifications législatives, la Cour Suprême du Canada s’est aussi prononcée sur la question des droits d’auteur en interprétant limitativement la portée de ce régime, facilitant ainsi l’accès des œuvres artistiques au domaine public. L’auteur souligne les divergences et les contradictions entre la conception législative et celle jurisprudentielle de la fonction du régime canadien des droits d’auteur. Le législateur canadien a récemment proposé une nouvelle modification du régime de droits d’auteurs qui consisterait en l’extension des délais obligatoire avant qu’une œuvre couverte par le régime ne soit incluse dans le domaine public. Michael Geist s’oppose à une telle modification et soutient qu’elle entraînerait de nombreuses conséquences négatives pour les auteurs et les artistes canadiens. En effet, cette modification limiterait l’accès des auteurs aux oeuvres antérieures, elle entraverait les opportunités et les capacités commerciales des œuvres canadiennes et restreindrait les domaines de recherche académique. L’auteur aborde par la suite la problématique reliée aux ""Mesures de Protection Techniques"" et à la législation qui les encadre. En analysant les problèmes causés par ces mesures aux États-Unis, il présente leurs effets nuisibles pour les domaines fondamentaux de la liberté de parole et de la recherche académique. Les réformes possibles du régime canadien des droits d’auteur se situent dans une perspective plus ouverte du régime de protection et de promotion des œuvres canadiennes. Ces réformes auraient l’avantage de promouvoir et de protéger les œuvres canadiennes tout en évitant les problèmes causés par les mesures trop limitatives. À ce sujet, l’auteur propose l’établissement d’une bibliothèque digitale nationale, l’abrogation des droits d’auteur de la couronne et un nouveau régime permettant l’utilisation du matériel radiodiffusé de la Société Radio-Canada."
Resumo:
Nous assistons depuis quelques années à une commercialisation de la recherche académique. Celle-ci est principalement due à une déficience marquée du financement public. Par conséquent, les universités se tournent vers d’autres sources de financement, tels les brevets et l’industrie privée. En parallèle, les gouvernements et les organismes subventionnaires favorisent cette commercialisation par la promotion de programmes de partenariats université-industrie et par la mise en place de stratégies pour l’innovation et le transfert des technologies. Prenant comme modèle le chercheur académique dans le domaine de la santé, nous avons évalué l’impact de cette commercialisation sur les responsabilités du chercheur envers la science et la société. Ce nouveau mode de fonctionnement comporte certes des avantages. Par exemple, il résulte en une injection de fonds nouveaux pour la recherche, un développement des infrastructures universitaires et un transfert de technologies plus efficace, permettant ainsi à la population de bénéficier plus rapidement des bienfaits de la recherche. Cependant, notre réflexion révèle que cette commercialisation comporte aussi des impacts négatifs sur la recherche académique. En effet, on observe l’apparition de conflits d’intérêts pour le chercheur. En plus de constituer une menace pour la sécurité de la population, ces situations causent l’effritement du lien de confiance entre la société et les chercheurs académiques, lien qui est essentiel pour assurer la progression du savoir humain. La commercialisation porte aussi atteinte à la liberté académique, effet que l’on peut observer tant au plan de l’orientation des recherches qu’à celui de la diffusion de ses résultats. Or, la liberté académique est une valeur fondamentale qui a été défendue depuis le Moyen Âge comme étant essentielle pour la progression du savoir humain. Le potentiel commercial devient un facteur dans l’évaluation des projets de recherche académique alors que, traditionnellement, l’avancement des connaissances la guidait essentiellement. Ainsi, la recherche appliquée devient favorisée au détriment de la recherche fondamentale. Ce virage commercial peut bénéficier à la société à court terme mais, à long terme, l’évolution de la société est menacée. La recherche appliquée et la recherche fondamentale sont toutes deux essentielles à l’avancement de la société, apportant chacune leur lot de bénéfices pour cette dernière. La commercialisation de la recherche académique ne doit donc pas résulter en une diminution progressive de la recherche fondamentale au profit de la recherche appliquée. Bien que les chercheurs académiques soient conscients de l’importance de préserver la recherche fondamentale, cette protection ne peut s’opérer sans le support actif des organismes subventionnaires, des gouvernements et de la société en général.
Resumo:
Dans cet article, l’auteur Ejan Mackaay présente les caractéristiques fondamentales du cyberespace et analyse les relations économiques et juridiques entre les acteurs du marché virtuel de l’Internet. Cette analyse s'inscrit en marge des travaux de Niva Elkin-Koren et Eli Salzberger, dont elle suit le plan. D'une part, il y est précisé que le marché virtuel de l’Internet remet en question l’analyse classique des interactions entre les acteurs économiques. La nouvelle analyse néo-institutionnel présente un cadre analytique qui relève plus adéquatement les relations complexes entre les acteurs économiques du marché virtuel que les théories économiques classiques. Cette nouvelle approche se fonde sur le concept que les acteurs économiques utilisent les ressources afin d’être intégrés au sein des institutions les plus actives et efficaces. D'autre part, il est fait mention que le cyberespace présente plusieurs caractéristiques d’un marché économique. Toutefois, étant virtuel, le cyberespace ne présente pas les mêmes limites qu’un marché physique. En effet, dans ce dernier, certaines limites physiques imposent diverses règles de comportement. Le législateur doit donc prendre conscience de l’absence de telles limites et des normes qu’elles imposaient afin de légiférer adéquatement sur les échanges dans le cyberespace. Ensuite, afin d’illustrer les divergences entre les marchés physiques et virtuels, une analyse est faite au regard des principaux échecs de marchés, soit l’établissement d’un monopole, l’accès aux biens publics, les informations imparfaites et les externalités négatives. Un monopole est un échec de marché qui restreint considérablement la compétition, peut être accrut par l’effet boule de neige et, s’il n’est pas contrôlé, peut mener à un effet de blocage ou d’exclusion de certains acteurs. Le second échec analysé est l’accès aux biens publics. Dans le cyberespace, le principal bien public est l’information qui peut être échangée entre les utilisateurs. Toutefois, certaines règles de droits d’auteur et de propriété intellectuelle peuvent considérablement limiter l’accès à ce bien. L’information incomplète des acteurs économiques constitue un autre échec de marché, mais le cyberespace offre plusieurs moyens d’accéder à l’information pertinente aux transactions éclairées. Enfin, les externalités négatives peuvent généralement être considérées comme des effets secondaires des échanges commerciaux. Toutefois il est souligné que ces dernières ont un effet très limité dans le cyberespace, étant donné le plus grand nombre d’options de retrait et la facilité accrue de l’exercer. Enfin, il est rappelé que le commerce électronique et le cyberespace remettent en questions toutes les théories économiques et politiques traditionnelles et offrent une perspective nouvelle sur le phénomène de la formation des normes.
Resumo:
Chaque apparition d’une nouvelle technologie remet inévitablement en cause le cadre législatif établi pour protéger les droits de propriété. Cependant, avec la numérisation de l’information et l’avènement d’Internet, il est de plus en plus facile de reproduire et de distribuer librement des œuvres protégées. Toutefois, depuis le 20 décembre 1996, l’Organisation Mondiale de la Propriété Intellectuelle (OMPI) a adopté deux traités ayant pour objectif principal d’adapter le cadre juridique du droit d’auteur aux nouvelles technologies. C’est pour se conformer à ces traités que l’administration Clinton a adopté le Digital Millenium Copyright Act (DMCA) en 1998. Cet article examine d’abord les dimensions constitutionnelle du Copyright américain, et plus spécifiquement certaines limites qui viennent tempérer les prérogatives exclusives des titulaires de droits, notamment le domaine public et les usages équitables possibles d’ une œuvre. Sont ensuite examinés le DMCA et sa conformité aux principes énoncés à la clause constitutionnelle, source du pouvoir législatif du Congrès américain en matière de Copyright. De plus, comme le DMCA interdit non seulement le contournement de technologies protégeant une œuvre en format numérique, mais également la fabrication et la diffusion de technologies permettant d’arriver à cette fin, cet article analyse les répercussions de cette loi sur la liberté d’expression.
Resumo:
L’auteur se penche sur la question de la responsabilité civile des prestateurs de moteurs de recherches et des fournisseurs d’hyperliens eu égard aux contenus illicites situés sur les sites qu’ils répertorient. Pour ce faire, il analyse la disposition législative régissant la responsabilité de ces intermédiaires, à savoir l’article 22 de la Loi concernant le cadre juridique des technologies de l’information, et se questionne sur l’efficacité véritable de cette disposition eu égard à l’intention présumée du législateur et à la position adoptée à l’étranger. L’auteur constate effectivement que la rédaction de cet article de loi laisse place à plusieurs problématiques qui risquent d’avoir des répercussions indésirables pour ces intermédiaires. Dans la seconde partie de son exposé, l’auteur aborde certaines situations pratiques pouvant entraîner la responsabilité de ces intermédiaires, notamment les questions liées aux virus informatiques, à la diffamation et à la propriété intellectuelle.
Resumo:
"Le présent rapport a pour objet de fournir un commentaire détaillé sur la faisabilité globale d'un portail unique de dépôt électronique hébergé par le secteur privé (modèle transactionnel central de dépôt électronique) fondé sur la norme LegalXML. Le résultat attendu principal est une opinion concernant la faisabilité du modèle à guichet unique (portail électronique). D'autres résultats attendus comprennent : une connaissance accrue chez les intéressés du modèle de fournisseur de services et une évaluation préliminaire de l'appui que le modèle reçoit. Nous avons utilisé deux véhicules d'analyse principaux pour réaliser les objectifs de l'étude susmentionnés : des analyses documentaires et des entretiens auprès d'intéressés. Les analyses visent explicitement à : examiner des approches différentes au dépôt électronique, notamment un système de dépôt électronique comme extension de chaque instance, et l'hébergement par le secteur privé par opposition au secteur public d'un guichet unique; recenser les questions et les facteurs de risque critiques se rapportant à la mise en place de services de dépôt électronique dans les cours, notamment la protection des renseignements personnels, la propriété intellectuelle et la sécurité, et en discuter; opposer chacun de ces points au modèle de FSA; faire des recommandations sur la stratégie permettant de régler les questions et les facteurs de risque critiques. L'étude a révélé que : de nombreux intéressés appuient le dépôt électronique; de nombreux intéressés (p. ex. les avocats) ne font aucune distinction entre les formes différentes de dépôt électronique, tandis que d'autres s'en soucient beaucoup (p. ex. administrateurs de certaines cours); un modèle de fournisseur de services de dépôt électronique (FSDE) à guichet unique offre quelques avantages importants par rapport à une approche de dépôt électronique individuelle, surtout pour ce qui concerne les coûts et la plate-forme de l'avenir; un modèle de FSDE du secteur privé offre des avantages considérables par rapport à un modèle de FSDE du secteur privé, surtout en matière de succès et de coût de la mise en œuvre."
Resumo:
Les innovations en matière variétale et de biotechnologie végétale sont présentées comme un moyen efficace et approprié susceptible de favoriser l'amélioration de la production alimentaire et des conditions de travail et de vie des agriculteurs ainsi que celles des collectivités coutumières dans les pays membres de l'Organisation africaine de la propriété intellectuelle (OAPI). Sur le plan juridique, il se pose le problème de la protection juridique de ces innovations ou obtentions végétales. Le législateur OAPI de 1977 n'avait pas envisagé de protection pour les obtentions végétales. À la différence de certains États industrialisés qui organisaient un régime de protection sui generis ou par le système des brevets, il n'évoquait les variétés végétales et les procédés d'obtention des végétaux que pour les exclure du domaine brevetable. L'accord sur les aspects des droits de propriété intellectuelle qui touchent au commerce (ADPIC) de l'organisation mondiale du commerce (OMC) est venu modifier la donne en imposant que les obtentions végétales puissent être protégées par les brevets, par un système sui generis ou par une combinaison des deux moyens. Le législateur OAPI de 1999 a voulu intégrer ces nouvelles exigences internationales en révisant l'Accord de Bangui. Ce faisant, l'exclusion de la brevetabilité des variétés végétales a été maintenue. Il ne restait plus au législateur qu'une seule option, l'adoption d'un régime de protection sui generis. Son choix s'est matérialisé par l'adoption de l'annexe X de l'Accord de Bangui de 1999 consacrée à « la protection des obtentions végétales ». Cette annexe est calquée sur la version de 1991 de la Convention Internationale pour la protection des obtentions végétales, mise en place par les pays européens. Il s'agit là d'un choix discutable. En effet, l'annexe X introduit dans l'espace OAPI une législation désincarnée, parce que à la fois incomplète et inadaptée à l'environnement socio-économique des pays membres de l'OAPI.