965 resultados para Diffusion de la lumière
Resumo:
L’Amérique centrale, théâtre des dernières batailles rangées de la guerre froide, est aujourd’hui la région la plus violente au monde, selon les Nations unies. Notre étude s’intéresse à la forme de guerre irrégulière livrée par l’État guatémaltèque contre sa propre population pendant la deuxième moitié du vingtième siècle. À la lumière de rares témoignages d’exécutants et d’archives militaires et policières, nous examinons un mécanisme clandestin de répression dont les trois principales composantes – les enlèvements, la torture et les exécutions sommaires – pouvaient s’abattre sur toute personne soupçonnée, à tort ou à raison, de conspirer contre un statu quo d’exclusion. Au moment de leur articulation, ces moyens répressifs ont constitué un dispositif qui, à partir de 1966, s’est avéré d’une redoutable efficacité. Arme de prédilection des adeptes de la guerre antisubversive pendant plus de vingt ans, le dispositif permettait, telle une chaîne de production, l’accumulation des renseignements jugés indispensables à cette forme de guerre, ainsi que les cadavres dont l’absence éternelle ou la présence outrageuse sur la place publique servaient d’avertissement funeste à l’ensemble du corps social. Où chercher les origines d’un tel dispositif? À partir des ouvrages de référence cités dans le manuel de guerre contre-subversive de l’armée guatémaltèque, la réponse à cette question nous fera découvrir des parachutistes français pour qui la défaite militaire en Indochine et en Algérie pendant les années 1950 n’était pas une option et pour qui la victoire justifiait absolument tous les moyens. Le penchant de ces pionniers de la guerre hors-norme pour les cours magistraux, les entrevues et les articles, nous a permis d’étudier les méthodes qu’ils préconisaient et de repérer leurs traces au Guatemala. Alors que la guerre qui avait servi de prétexte au maintien du dispositif est terminée, sa très réputée efficacité assure encore aujourd’hui sa pérennité auprès de ceux qui peuvent s’offrir le service. En ce sens, la contre-insurrection se poursuit, et ce, malgré l’absence depuis une quinzaine d’années d’un conflit armé. Cette thèse aborde l’histoire de la guerre irrégulière et son déroulement au Guatemala. Les archives et les témoignages à notre disposition contredisent le déni des crimes commis dans les villes et les campagnes guatémaltèques, dont le génocide de 1982. Finalement, certains signes avant-coureurs indiquent que la violence et l’impunité actuelles au pays pourraient mener à la répétition de tels crimes à l’avenir.
Resumo:
La réduction de la taille des particules jusqu’à l’obtention de nanocristaux est l’une des approches utilisées afin d’améliorer la pénétration cutanée des médicaments à usage topique. Nous proposons que la fabrication d’une formulation semi solide (hydrogel) à base de nanosuspension de docosanol, aboutira à une diffusion du principe actif supérieure à celle du produit commercial Abreva®, à travers des membranes synthétiques de polycarbonates. Le broyage humide est la technique proposée pour la production des nanoparticules de docosanol. Nous proposons aussi la préparation d’une formulation semi-solide (hydrogel) à usage topique à partir de la nanosuspension de docosanol. La nanosuspension de docosanol est obtenue par dispersion du docosanol en solution aqueuse en présence du polymère stabilisant hydroxypropylcellulose (HPC) et du surfactant laurylsulfate de sodium (SDS) suivi d’un broyage humide à faible ou à haute énergie. L’hydrogel de docosanol nanoformulé est préparé à l’aide de la nanosuspension de docosanol qui subit une gélification par le carbopol Ultrez 21 sous agitation mécanique suivie d’une neutralisation au triéthanolamine TEA. La taille des particules de la nanosuspension et de l’hydrogel a été déterminée par diffusion dynamique de la lumière (DLS). Une méthode analytique de chromatographie liquide à haute performance (HPLC) munie d’un détecteur évaporatif (ELSD) a été développée et validée pour évaluer la teneur de docosanol dans les préparations liquides, dans les différentes nanosuspensions et dans les hydrogels de docosanol. L’état de cristallinité des nanocristaux dans la nanosuspension et dans l’hydrogel a été étudié par calorimétrie différentielle à balayage. La morphologie de la nanosuspension et de l’hydrogel de docosanol a été examinée par microscopie électronique à balayage (MEB). Les propriétés rhéologiques et de stabilité physique à différentes températures ont été aussi étudiées pour la formulation semi-solide (hydrogel). De même, la libération in vitro du docosanol contenu dans l’hydrogel et dans le produit commercial Abreva® a été étudiée à travers deux membranes de polycarbonates de taille de pores 400 et 800 nm. Dans le cas de nanosuspensions, des cristaux de docosanol de taille nanométrique ont été produits avec succès par broyage humide. Les nanoparticules de tailles variant de 197 nm à 312 nm ont été produites pour des pourcentages différents en docosanol, en polymère HPC et en surfactant SDS. Après lyophilisation, une augmentation de la taille dépendant de la composition de la formulation a été observée tout en restant dans la gamme nanométrique pour la totalité presque des formulations étudiées. Dans le cas des hydrogels examinés, la taille moyenne des particules de docosanol est maintenue dans la gamme nanométrique avant et après lyophilisation. L’analyse thermique des mélanges physiques, des nanosuspensions et des hydrogels de docosanol a révélé la conservation de l’état de cristallinité des nanocristaux de docosanol après broyage et aussi après gélification. L’examen par microscopie électronique à balayage (MEB) a montré que la nanosuspension et l’hydrogel ont tous deux une morphologie régulière et les nanoparticules ont une forme sphérique. De plus les nanoparticules de la nanosuspension ont presque la même taille inférieure à 300 nm en accord avec le résultat obtenu par diffusion dynamique de la lumière (DLS). Les nanoparticules de l’hydrogel ont une légère augmentation de taille par rapport à celle de la nanosuspension, ce qui est en accord avec les mesures de DLS. D’après les mesures rhéologiques, l’hydrogel de docosanol a un comportement pseudoplastique et un faible degré de thixotropie. L’étude de stabilité physique a montré que les formulations d’hydrogel sont stables à basse température (5°C) et à température ambiante (21°C) pendant une période d’incubation de 13 semaines et instable au-delà de 30°C après deux semaines. La méthode HPLC-ELSD a révélé des teneurs en docosanol comprises entre 90% et 110% dans le cas des nanosuspensions et aux alentours de 100% dans le cas de l’hydrogel. L’essai de diffusion in vitro a montré qu’il y a diffusion de docosanol de l’hydrogel à travers les membranes de polycarbonates, qui est plus marquée pour celle de pore 800 nm, tandis que celui du produit commercial Abreva® ne diffuse pas. Le broyage humide est une technique bien adaptée pour la préparation des nanosuspensions docosanol. Ces nanosuspensions peuvent être utilisée comme base pour la préparation de l’hydrogel de docosanol nanoformulé.
Resumo:
Le 18 juin 1815, Napoléon fut renversé à Waterloo, mais son art de la guerre survécut. Il s'agit de cet art militaire qu'il avait révolutionné et dont d'autres firent de nombreuses applications longtemps après sa disparition. S'inspirant des méthodes des théoriciens du XVIIIe siècle, il avait privilégié la stratégie d'anéantissement dans la conduite d'opérations militaires et se classait ainsi dans la catégorie des stratèges recherchant avant tout la bataille décisive en vue de détruire les forces ennemies. À la lumière des tactiques et stratégies que Bonaparte utilisa dans ses plus célèbres campagnes, cette thèse tentera de dégager les méthodes napoléoniennes qui furent le plus souvent utilisées au cours de la seconde moitié du XIXe siècle. Les conflits étudiés durant cette période seront la guerre de Crimée (1853-1856), la campagne d'Italie (1859), la guerre de Sécession américaine (1861-1865), la guerre austro-prussienne (1866) et la guerre franco-prussienne (1870-1871). Cette recherche tiendra compte non seulement de l'influence des progrès de l'armement et des moyens de transport et de communication sur l'art de la guerre en général, mais aussi du contexte économique, financier, politique et militaire des États bélligérants de cette époque. Parmi les nombreux exégètes de Bonaparte du XIXe siècle, deux théoriciens militaires en particulier, Clausewitz et Jomini, se distinguèrent dans l'interprétation savante de la guerre napoléonienne. Tout en analysant l'impact des méthodes de l'Empereur dans les guerres selectionnées, nous allons déterminer dans quelle mesure la vision jominienne des campagnes de Bonaparte divergeait de celle de Clausewitz en ce qui concerne les conflits traités. Nous aborderons ensuite l'influence napoléonienne sur l'administration, l'organisation et les marches des armées impliquées dans les guerres en question et nous porterons une attention particulière à l'impact du système militaire de Bonaparte sur certains aspects du déroulement même des combats. Nous terminerons cette étude par un bref aperçu sur les enseignements que les militaires au XIXe siècle purent dégager des campagnes napoléoniennes pour la conduite des guerres de l'avenir.
Resumo:
Le diabète de type 2 (DT2) est une maladie métabolique complexe causée par des facteurs génétiques mais aussi environnementaux, tels la sédentarité et le surpoids. La dysfonction de la cellule β pancréatique est maintenant reconnue comme l’élément déterminant dans le développement du DT2. Notre laboratoire s’intéresse à la sécrétion d’insuline par la cellule β en réponse aux nutriments calorigéniques et aux mécanismes qui la contrôle. Alors que la connaissance des mécanismes responsables de l’induction de la sécrétion d’insuline en réponse aux glucose et acides gras est assez avancée, les procédés d’inhibition de la sécrétion dans des contextes normaux ou pathologiques sont moins bien compris. L’objectif de la présente thèse était d’identifier quelques-uns de ces mécanismes de régulation négative de la sécrétion d’insuline dans la cellule β pancréatique, et ce en situation normale ou pathologique en lien avec le DT2. La première hypothèse testée était que l’enzyme mitochondriale hydroxyacyl-CoA déshydrogénase spécifique pour les molécules à chaîne courte (short-chain hydroxyacyl-CoA dehydrogenase, SCHAD) régule la sécrétion d’insuline induite par le glucose (SIIG) par la modulation des concentrations d’acides gras ou leur dérivés tels les acyl-CoA ou acyl-carnitine dans la cellule β. Pour ce faire, nous avons utilisé la technologie des ARN interférants (ARNi) afin de diminuer l’expression de SCHAD dans la lignée cellulaire β pancréatique INS832/13. Nous avons par la suite vérifié chez la souris DIO (diet-induced obesity) si une exposition prolongée à une diète riche en gras activerait certaines voies métaboliques et signalétiques assurant une régulation négative de la sécrétion d’insuline et contribuerait au développement du DT2. Pour ce faire, nous avons mesuré la SIIG, le métabolisme intracellulaire des lipides, la fonction mitochondriale et l’activation de certaines voies signalétiques dans les îlots de Langerhans isolés des souris normales (ND, normal diet) ou nourries à la dière riche en gras (DIO) Nos résultats suggèrent que l’enzyme SCHAD est importante dans l’atténuation de la sécrétion d’insuline induite par le glucose et les acides aminés. En effet, l’oxydation des acides gras par la protéine SCHAD préviendrait l’accumulation d’acyl-CoA ou de leurs dérivés carnitine à chaîne courtes potentialisatrices de la sécrétion d’insuline. De plus, SCHAD régule le métabolisme du glutamate par l’inhibition allostérique de l’enzyme glutamate déshydrogénase (GDH), prévenant ainsi une hyperinsulinémie causée par une sur-activité de GDH. L’étude de la dysfonction de la cellule β dans le modèle de souris DIO a démontré qu’il existe une grande hétérogénéité dans l’obésité et l’hyperglycémie développées suite à la diète riche en gras. L’orginialité de notre étude réside dans la stratification des souris DIO en deux groupes : les faibles et forts répondants à la diète (low diet responders (LDR) et high diet responder (HDR)) sur la base de leur gain de poids corporel. Nous avons mis en lumières divers mécanismes liés au métabolisme des acides gras impliqués dans la diminution de la SIIG. Une diminution du flux à travers le cycle TG/FFA accompagnée d’une augmentation de l’oxydation des acides gras et d’une accumulation intracellulaire de cholestérol contribuent à la diminution de la SIIG chez les souris DIO-HDR. De plus, l’altération de la signalisation par les voies AMPK (AMP-activated protein kinase) et PKC epsilon (protéine kinase C epsilon) pourrait expliquer certaines de ces modifications du métabolisme des îlots DIO et causer le défaut de sécrétion d’insuline. En résumé, nous avons mis en lumière des mécanismes importants pour la régulation négative de la sécrétion d’insuline dans la cellule β pancréatique saine ou en situation pathologique. Ces mécanismes pourraient permettre d’une part de limiter l’amplitude ou la durée de la sécrétion d’insuline suite à un repas chez la cellule saine, et d’autre part de préserver la fonction de la cellule β en retardant l’épuisement de celle-ci en situation pathologique. Certaines de ces voies peuvent expliquer l’altération de la sécrétion d’insuline dans le cadre du DT2 lié à l’obésité. À la lumière de nos recherches, le développement de thérapies ayant pour cible les mécanismes de régulation négative de la sécrétion d’insuline pourrait être bénéfique pour le traitement de patients diabétiques.
Resumo:
L’innovation pédagogique pour elle-même s’avère parfois discutable, mais elle se justifie quand les enseignants se heurtent aux difficultés d’apprentissage de leurs étudiants. En particulier, certaines notions de physique sont réputées difficiles à appréhender par les étudiants, comme c’est le cas pour l’effet photoélectrique qui n’est pas souvent compris par les étudiants au niveau collégial. Cette recherche tente de déterminer si, dans le cadre d’un cours de physique, la simulation de l’effet photoélectrique et l’utilisation des dispositifs mobiles et en situation de collaboration favorisent une évolution des conceptions des étudiants au sujet de la lumière. Nous avons ainsi procédé à l’élaboration d’un scénario d’apprentissage collaboratif intégrant une simulation de l’effet photoélectrique sur un ordinateur de poche. La conception du scénario a d’abord été influencée par notre vision socioconstructiviste de l’apprentissage. Nous avons effectué deux études préliminaires afin de compléter notre scénario d’apprentissage et valider la plateforme MobileSim et l’interface du simulateur, que nous avons utilisées dans notre expérimentation : la première avec des ordinateurs de bureau et la seconde avec des ordinateurs de poche. Nous avons fait suivre à deux groupes d’étudiants deux cours différents, l’un portant sur une approche traditionnelle d’enseignement, l’autre basé sur le scénario d’apprentissage collaboratif élaboré. Nous leur avons fait passer un test évaluant l’évolution conceptuelle sur la nature de la lumière et sur le phénomène de l’effet photoélectrique et concepts connexes, à deux reprises : la première avant que les étudiants ne s’investissent dans le cours et la seconde après la réalisation des expérimentations. Nos résultats aux prétest et post-test sont complétés par des entrevues individuelles semi-dirigées avec tous les étudiants, par des enregistrements vidéo et par des traces récupérées des fichiers logs ou sur papier. Les étudiants du groupe expérimental ont obtenu de très bons résultats au post-test par rapport à ceux du groupe contrôle. Nous avons enregistré un gain moyen d’apprentissage qualifié de niveau modéré selon Hake (1998). Les résultats des entrevues ont permis de repérer quelques difficultés conceptuelles d’apprentissage chez les étudiants. L’analyse des données recueillies des enregistrements des séquences vidéo, des questionnaires et des traces récupérées nous a permis de mieux comprendre le processus d’apprentissage collaboratif et nous a dévoilé que le nombre et la durée des interactions entre les étudiants sont fortement corrélés avec le gain d’apprentissage. Ce projet de recherche est d’abord une réussite sur le plan de la conception d’un scénario d’apprentissage relatif à un phénomène aussi complexe que l’effet photoélectrique, tout en respectant de nombreux critères (collaboration, simulation, dispositifs mobiles) qui nous paraissaient extrêmement utopiques de réunir dans une situation d’apprentissage en classe. Ce scénario pourra être adapté pour l’apprentissage d’autres notions de la physique et pourra être considéré pour la conception des environnements collaboratifs d’apprentissage mobile innovants, centrés sur les besoins des apprenants et intégrant les technologies au bon moment et pour la bonne activité.
Resumo:
L’angiogenèse est la formation de nouveaux vaisseaux sanguins à partir d’un réseau vasculaire existant. C’est un phénomène essentiel pour des processus physiologiques et pathologiques. L’activation des cellules endothéliales est contrôlée par plusieurs facteurs de croissance. Le VEGF et son récepteur le VEGFR-2 ont été prouvés comme étant spécifiques et critiques pour la formation des vaisseaux sanguins alors que Tie2, le récepteur auquel se lie l’Ang-1, est requis aussi bien dans le développement vasculaire que dans l’angiogenèse tumorale. Il est connu que l’activation de Tie2 est nécessaire à la stabilisation finale de la vascularisation en inhibant la perméabilité vasculaire induite par le VEGFR-2. Nous avons premièrement découvert que le facteur de croissance pro-angiogénique, l’Ang-1 contrecarre les effets de perméabilité cellulaire induits par le VEGF en inhibant la production de NO dans les cellules endothéliales. Cet effet inhibiteur de Tie2 intervient directement au niveau de l’activité de l’enzyme eNOS. Suite à l’activation de Tie2 par l’Ang-1, eNOS devient fortement phosphorylé sur la Thr497 après la phosphorylation et l’activation de la PKCζ. Nos résultats suggèrent que l’inhibition, par Tie2, de la perméabilité vasculaire durant l’angiogenèse serait due, en partie, à l’inhibition de la production de NO. Deuxièmement nous avons pu distinguer entre deux modes de migration cellulaire endothéliale induits par l’Ang-1 et le VEGF. À l’opposé du VEGF qui promeut une migration individuelle aléatoire, l’Ang-1 induit une migration collective directionnelle. Dans cette étude, nous avons identifié la β-caténine comme un nouveau partenaire moléculaire de la PKCζ. Cette association de la PKCζ à la β-caténine amène le complexe de polarité Par6-aPKC et le complexe des jonctions d’adhérences cellulaires à interagir ensemble à deux localisations différentes au niveau de la cellule endothéliale. Au niveau des contacts intercellulaires, le complexe PKCζ/β-caténine maintien la cohésion et l’adhésion cellulaire nécessaire pour le processus migratoire collectif. Ce complexe se retrouve aussi au niveau du front migratoire des cellules endothéliales afin d’assurer la directionalité et la persistance de la migration endothéliale en réponse à l’Ang-1. D’une manière intéressante, lors de l’inhibition de la PKCζ ou de la β-caténine on assiste à un changement du mode de migration en réponse à l’Ang-1 qui passe d’une migration directionnelle collective à une migration individuelle aléatoire. Ce dernier mode de migration est similaire à celui observé chez des cellules endothéliales exposées au VEGF. Ces résultats ont été corroborés in vivo par une polarité et une adhésion défectueuses au cours de la vasculogenèse chez le poisson zèbre déficient en PKCζ. En résumé, Ang-1/Tie2 module la signalisation et les réponses biologiques endothéliales déclenchées par le VEGF/VEGFR-2. L’identification des mécanismes moléculaires en aval de ces deux récepteurs, Tie2 et VEGFR-2, et la compréhension des différentes voies de signalisation activées par ces complexes moléculaires nous permettra de mettre la lumière sur des nouvelles cibles thérapeutiques pour le traitement des maladies angiogéniques.
Resumo:
Les écrits aphoristiques de Friedrich Nietzsche (1844-1900) posent une évidente difficulté. Cette difficulté n’a pas échappé à l’auteur qui a recommandé à ses lecteurs, en 1887 dans sa préface à Zur Genealogie der Moral, qu’ils pratiquent en lisant ses aphorismes un « art de l’interprétation [Kunst der Auslegung] » [KSA, V, p. 255, § 8.]. Malheureusement, Nietzsche ne dit pas précisément en quoi consiste une telle lecture. Comment le lecteur doit-il alors interpréter les écrits aphoristiques de Friedrich Nietzsche? Pour répondre à cette question herméneutique nous nous servirons de la « métaphore du théâtre », présente en filigrane dans l’œuvre du philosophe. Notre mémoire se propose d’abord d’examiner ce que Nietzsche a lui-même dit au sujet des « formes brèves » (la maxime, la sentence, mais surtout l’aphorisme), et en même temps ce qu’il attend plus particulièrement d’un lecteur de ces formes d’expression. Cette analyse philologique du corpus nietzschéen se fera aussi à la lumière des commentaires que Peter Sloterdijk (1947-) et Sarah Kofman (1934-1994) ont proposés de la philosophie nietzschéenne. Après avoir nous-mêmes analysé les propos de Nietzsche portant sur ce qu’il estime être un lecteur à la hauteur de ses écrits, il sera dès lors possible de porter un jugement critique sur la pertinence et la portée des études de Sloterdijk et Kofman qui abordent eux-mêmes la mise en scène de la pensée nietzschéenne au moyen de la métaphore du théâtre. Une part importante de notre critique portera notamment sur la nature synthétique de leurs interprétations philosophiques, menées dans une perspective thématico-synthétique et trans-aphoristique, qui marginalisent à bien des égards la particularité et l’autonomie des formes d’expression au moyen desquelles Friedrich Nietzsche s’exprime.
Resumo:
Depuis quelques années, mais surtout depuis le 11 septembre 2001, les contrôles migratoires sont devenus le locus principal d’affirmation du pouvoir souverain dans les pays occidentaux. La mouvance sécuritaire actuelle semble avoir donné les outils conceptuels nécessaires aux États pour leur permettre d’amalgamer des notions autrefois distinctes, comme la sécurité et l’immigration, et d’en inférer des liens qui paraissent désormais naturels et évidents aux yeux du public. Le Canada s’inscrit aussi dans cette mouvance où l’immigrant et l’étranger sont désormais pensés en relation avec l’illégalité, la criminalité et le sujet de non-droit. En pratique, cela se traduit par la mise en œuvre étatique d’un pouvoir souverain qui se manifeste clairement et ouvertement dans le cadre de contrôles migratoires de plus en plus serrés et contraignants. Ainsi, alimenté par la justification sécuritaire, par l’affect de la peur et par la nécessité de combattre le terrorisme international, le Canada applique ses lois et ses politiques de manière à exercer un contrôle accru sur sa population, plus particulièrement sur les migrants en général, mais encore davantage sur les demandeurs d’asile et les réfugiés soupçonnés de terrorisme. La mise en œuvre de pratiques restrictives à l’endroit des demandeurs d’asile et des réfugiés est facilitée par une conviction très tenace. À la lumière de son comportement, le gouvernement canadien semble convaincu que l’exclusion, l’expulsion, voire le refoulement, à l’extérieur du territoire national des personnes jugées être de potentiels terroristes, permettront de renforcer la sécurité nationale. Cette conviction est elle-même supportée par une autre, à savoir la croyance selon laquelle le pouvoir souverain d’exclure quelqu’un du territoire est absolu et, qu’en situation d’exception, il ne peut être limité d’aucune manière par le droit international. Suivant ceci, la lutte antiterroriste s’exécute presque exclusivement par le rejet des éléments potentiellement dangereux à l’extérieur du pays, au détriment d’autres mesures moins attentatoires des droits et libertés, plus légitimes et plus à même de remplir les objectifs liés à la lutte au terrorisme international. Dans notre étude, par une relecture d’une décision paradigmatique de la Cour suprême du Canada, l’affaire Suresh, nous chercherons à ébranler ces convictions. Notre thèse est à l’effet que la prétention du Canada à vouloir en arriver à un monde plus sécuritaire, en excluant d’une protection internationale contre la torture et en refoulant de potentiels terroristes à l'extérieur de son territoire, constitue une entreprise vouée à l’échec allant potentiellement à l’encontre des objectifs de lutte au terrorisme et qui se réalise présentement dans le déni de ses obligations internationales relatives aux droits de l’Homme et à la lutte contre l’impunité. Généralement, à la lumière d’une analyse de certaines obligations du Canada dans ces domaines, notre étude révélera trois éléments, ceux-ci se trouvant en filigrane de toute notre réflexion. Premièrement, le pouvoir souverain du Canada d’exclure des individus de son territoire n’est pas absolu. Deuxièmement, le droit d’une personne à obtenir protection non plus n’est pas absolu et des mécanismes d’équilibrage existant en droit international permettent de protéger les personnes tout en s’assurant que le Canada ne devienne pas un refuge pour les terroristes potentiels. Troisièmement, le Canada est astreint à d’autres obligations internationales. Celles-ci protègent les personnes exclues d’une protection et forcent le gouvernement à lutter contre l’impunité.
Resumo:
Le commerce électronique se veut progressiste et simplificateur. Comme pour d’autres domaines cependant, le progrès suppose une intégration de ses bénéficiaires à un univers technique complexe, générateur de nouveaux besoins. Dans le cas des contrats électroniques, l’utilisation d’un nouveau support a conduit les acteurs à déterminer eux-mêmes les procédés techniques nécessaires à la formation de leurs ententes, la responsabilité quant à leur fonctionnement et parfois même leur valeur probatoire. Il s’est également avéré utile, voire indispensable pour eux, de recourir à des tiers pour permettre la réalisation de contrats entre absents, ce qui supposait de nouveaux rapports commerciaux, techniques et juridiques. En raison de l’absence d’encadrement législatif approprié, les législateurs ont à leur tour « enrichi » le droit commun de règles qui, destinées à sécuriser les nouveaux rapports, s’imprégnaient d’un langage techniquement inspiré : identification, signature, intégrité, certificateur, répertoire, etc. Or, la pratique contractuelle actuelle demeure encore aujourd’hui peu représentative des efforts techniques et législatifs en matière de commerce électronique. À la lumière de ces constats, l’auteur dresse le portrait des différentes normes techniques, contractuelles et juridiques relatives au contrat électronique et suggère que l’hétérogénéité de leur contenu résulte en partie de l’influence d’une technologie particulière, la cryptographie asymétrique, sur l’élaboration des normes législatives.
Resumo:
À la lecture de la Loi sur le droit d’auteur, il n’est pas clair que la mise en scène y soit protégée. C’est pourquoi l'auteure s'interroge sur la qualification juridique la plus adéquate pour la mise en scène. Le metteur en scène est-il un artiste-interprète ou un auteur ? Après avoir étudié les caractéristiques artistiques des mises en scène, par types de productions et à la lumière de facteurs faisant varier la latitude du metteur en scène, l'auteure étudie les différentes possibilités de qualification juridique de la mise en scène. Les possibilités sont vastes, car le metteur en scène évolue dans un cadre comprenant plusieurs intervenants. De plus, la mise en scène rencontre deux obstacles caractéristiques à sa qualification juridique en droit d’auteur : la fixation et l’originalité. L'auteure en vient à la conclusion que le metteur en scène est un auteur, car chacun des aspects de la mise en scène est protégeable sous différentes qualifications juridiques.
Resumo:
Pour les États récepteurs d’un message diffusé sur le Web, il est difficile d’y faire respecter leur propre ordre public interne. Pour y parvenir, il faudra un réel rapport de puissance ou de contrainte à l’encontre d’un contrevenant sur le Web. L’auteur nous illustre cette idée à travers deux affaires sensiblement identiques pour ce qu’il en est des faits, mais diamétralement opposées pour ce qu’il en est de leur conclusion. Dans l’une (Yahoo! Inc.), l’État français, confronté à plusieurs difficultés, ne réussit aucunement à faire respecter sa législation dans le monde virtuel de l’Internet. Dans l’autre (World Sports Exchange), l’État américain réussit aisément à condamner un homme qui violait sa législation à travers le Web et ce, même si le site Internet de cet homme n’était pas hébergé aux États-Unis. Constatant ces divergences, l’auteur se questionne alors quant à savoir s’il n’y existerait pas une définition commune d’un ordre public international face à Internet. Il souligne l’importance de trouver une réponse rapide à cette question et ce, dans le but d’échapper aux inégalités de fait entre les États et surtout à la prééminence de fait des États-Unis. D’ailleurs, à la lumière de l’analyse de l’Accord PNR (conclu entre l’Europe et les États-Unis), l’auteur nous démontre bien cette prééminence en matière de terrorisme. Il en vient alors à la conclusion que l’internationalisation du droit applicable dans le domaine du cyberespace semble être la seule solution possible pour en arriver à un respect de l’égalité des États dans ce domaine.
Resumo:
La protection des données personnelles en Suisse trouve son fondement dans la constitution et se concrétise avant tout dans une loi fédérale adoptée avant l'avènement d'Internet et la généralisation de la transmission d'informations personnelles sur des réseaux numériques. Cette réglementation est complétée par les engagements internationaux de la Suisse et notamment la Convention européenne des Droits de l'Homme du Conseil de l'Europe. L'article délimite tout d'abord le champ d'application de la législation, qui joue un rôle pour le traitement de données personnelles par des particuliers comme par les autorités de l'administration fédérale. Suit une brève analyse des principes fondamentaux (licéité, bonne foi, proportionnalité, finalité, exactitude, communication à l'étranger, sécurité, droit d'accès) et de leur application sur Internet. Enfin, la protection du contenu des messages électroniques privés est brièvement abordée sous l'angle du secret des télécommunications et à la lumière d'une jurisprudence récente du Tribunal fédéral.
Resumo:
Bien que la souveraineté apparaisse aujourd'hui comme un concept juridique autonome, cela ne fut pas toujours le cas. Comme le souligne l’auteur de ce texte, notre société est passée d'une souveraineté mystique, celle de l'Église, à une souveraineté laïque, celle de l'État, pour aboutir, aujourd'hui, à une souveraineté plurielle ou composite. L'avènement d'un réseau de masse, comme l'Internet, vient encore une fois changer la donne. Ainsi, le concept de souveraineté informationnelle, discuté à la fin des années 70, semble aujourd’hui suranné, voire obsolète, à la lumière des nouveaux environnements électroniques. Conscient de cette évolution et de ses conséquence, l’auteur propose une réflexion historique et conceptuelle du principe de souveraineté afin de réévaluer les critères de territorialité et d'espace physique en tant que pivots autour desquels s'articule le concept de souveraineté nationale. L'État d'aujourd'hui ne pouvant aspirer seul à réglementer les transactions économiques transnationales, cet article nous pousse à nous questionner sur le sens que doit prendre le terme « souveraineté » à l’aube de l’ère numérique.
Resumo:
La maladie des artères périphériques (MAP) se manifeste par une réduction (sténose) de la lumière de l’artère des membres inférieurs. Elle est causée par l’athérosclérose, une accumulation de cellules spumeuses, de graisse, de calcium et de débris cellulaires dans la paroi artérielle, généralement dans les bifurcations et les ramifications. Par ailleurs, la MAP peut être causée par d`autres facteurs associés comme l’inflammation, une malformation anatomique et dans de rares cas, au niveau des artères iliaques et fémorales, par la dysplasie fibromusculaire. L’imagerie ultrasonore est le premier moyen de diagnostic de la MAP. La littérature clinique rapporte qu’au niveau de l’artère fémorale, l’écho-Doppler montre une sensibilité de 80 à 98 % et une spécificité de 89 à 99 % à détecter une sténose supérieure à 50 %. Cependant, l’écho-Doppler ne permet pas une cartographie de l’ensemble des artères des membres inférieurs. D’autre part, la reconstruction 3D à partir des images échographiques 2D des artères atteintes de la MAP est fortement opérateur dépendant à cause de la grande variabilité des mesures pendant l’examen par les cliniciens. Pour planifier une intervention chirurgicale, les cliniciens utilisent la tomodensitométrie (CTA), l’angiographie par résonance magnétique (MRA) et l’angiographie par soustraction numérique (DSA). Il est vrai que ces modalités sont très performantes. La CTA montre une grande précision dans la détection et l’évaluation des sténoses supérieures à 50 % avec une sensibilité de 92 à 97 % et une spécificité entre 93 et 97 %. Par contre, elle est ionisante (rayon x) et invasive à cause du produit de contraste, qui peut causer des néphropathies. La MRA avec injection de contraste (CE MRA) est maintenant la plus utilisée. Elle offre une sensibilité de 92 à 99.5 % et une spécificité entre 64 et 99 %. Cependant, elle sous-estime les sténoses et peut aussi causer une néphropathie dans de rares cas. De plus les patients avec stents, implants métalliques ou bien claustrophobes sont exclus de ce type d`examen. La DSA est très performante mais s`avère invasive et ionisante. Aujourd’hui, l’imagerie ultrasonore (3D US) s’est généralisée surtout en obstétrique et échocardiographie. En angiographie il est possible de calculer le volume de la plaque grâce à l’imagerie ultrasonore 3D, ce qui permet un suivi de l’évolution de la plaque athéromateuse au niveau des vaisseaux. L’imagerie intravasculaire ultrasonore (IVUS) est une technique qui mesure ce volume. Cependant, elle est invasive, dispendieuse et risquée. Des études in vivo ont montré qu’avec l’imagerie 3D-US on est capable de quantifier la plaque au niveau de la carotide et de caractériser la géométrie 3D de l'anastomose dans les artères périphériques. Par contre, ces systèmes ne fonctionnent que sur de courtes distances. Par conséquent, ils ne sont pas adaptés pour l’examen de l’artère fémorale, à cause de sa longueur et de sa forme tortueuse. L’intérêt pour la robotique médicale date des années 70. Depuis, plusieurs robots médicaux ont été proposés pour la chirurgie, la thérapie et le diagnostic. Dans le cas du diagnostic artériel, seuls deux prototypes sont proposés, mais non commercialisés. Hippocrate est le premier robot de type maitre/esclave conçu pour des examens des petits segments d’artères (carotide). Il est composé d’un bras à 6 degrés de liberté (ddl) suspendu au-dessus du patient sur un socle rigide. À partir de ce prototype, un contrôleur automatisant les déplacements du robot par rétroaction des images échographiques a été conçu et testé sur des fantômes. Le deuxième est le robot de la Colombie Britannique conçu pour les examens à distance de la carotide. Le mouvement de la sonde est asservi par rétroaction des images US. Les travaux publiés avec les deux robots se limitent à la carotide. Afin d’examiner un long segment d’artère, un système robotique US a été conçu dans notre laboratoire. Le système possède deux modes de fonctionnement, le mode teach/replay (voir annexe 3) et le mode commande libre par l’utilisateur. Dans ce dernier mode, l’utilisateur peut implémenter des programmes personnalisés comme ceux utilisés dans ce projet afin de contrôler les mouvements du robot. Le but de ce projet est de démontrer les performances de ce système robotique dans des conditions proches au contexte clinique avec le mode commande libre par l’utilisateur. Deux objectifs étaient visés: (1) évaluer in vitro le suivi automatique et la reconstruction 3D en temps réel d’une artère en utilisant trois fantômes ayant des géométries réalistes. (2) évaluer in vivo la capacité de ce système d'imagerie robotique pour la cartographie 3D en temps réel d'une artère fémorale normale. Pour le premier objectif, la reconstruction 3D US a été comparée avec les fichiers CAD (computer-aided-design) des fantômes. De plus, pour le troisième fantôme, la reconstruction 3D US a été comparée avec sa reconstruction CTA, considéré comme examen de référence pour évaluer la MAP. Cinq chapitres composent ce mémoire. Dans le premier chapitre, la MAP sera expliquée, puis dans les deuxième et troisième chapitres, l’imagerie 3D ultrasonore et la robotique médicale seront développées. Le quatrième chapitre sera consacré à la présentation d’un article intitulé " A robotic ultrasound scanner for automatic vessel tracking and three-dimensional reconstruction of B-mode images" qui résume les résultats obtenus dans ce projet de maîtrise. Une discussion générale conclura ce mémoire. L’article intitulé " A 3D ultrasound imaging robotic system to detect and quantify lower limb arterial stenoses: in vivo feasibility " de Marie-Ange Janvier et al dans l’annexe 3, permettra également au lecteur de mieux comprendre notre système robotisé. Ma contribution dans cet article était l’acquisition des images mode B, la reconstruction 3D et l’analyse des résultats pour le patient sain.
Resumo:
Cette thèse analyse les incidences des avancées d’une rationalité technoscientifique sur les définitions classiques de l’humain. Elle discerne, dans sa présentation de ce phénomène, le lien entre la technoscience, la cybernétique et le posthumanisme qui en découle. Elle souligne les mutations et projets de remodèlement de l’humain qui traversent cette rationalité technoscientifique et son paradigme informationnel cybernéticien. Cette rationalité technoscientifique, polémique aux ontologies dites conservatrices, soutenant une vision amorale de la RDTS (Recherche & Développement technoscientifique), accouche d’un posthumanisme – en rapport difficile avec le corps – qui bouscule les définitions classiques de l’humain judéo-chrétien, dont l’anthropologie théologique évangélique. Traitant, dans une première grande section de trois chapitres, de la rationalité technoscientifique et de ses visions de l’humain, la thèse permet la mise en exergue des enjeux principaux se dégageant des nouveaux questionnements des anthropologies classiques soumises aux pressions de la RDTS. Dans la deuxième partie, encore de trois chapitres, qui porte sur l’anthropologie évangélique, la thèse situe les Évangéliques historiquement et doctrinalement, pour mieux relever les éléments identitaires du mouvement et les grandes déterminations théologiques à l’intérieur desquels se déploie cette anthropologie. La présentation de cette dernière se décline à partir des différentes compréhensions du motif anthropologique évangélique par excellence, l’imago Dei et le concept de l’unicité de l’humain dont les fondements semblent de plus en plus fragiles à la lumière des conclusions des recherches en paléontologie et en cognition animale. Si plusieurs défis importants sont posés à l’anthropologie évangélique, la thèse, se limitant à une critique évangélique de la rationalité technoscientifique et des réponses évangéliques à cette dernière, analyse une question essentielle pour la pensée évangélique, celle de l’humain homo ii faber et l’anthropotechnie, versus le remodèlement de l’humain autour des interrogations posthumanistes sur le corps et la question du salut. Cette thèse apporte une contribution 1) sur le plan de la synthèse qu’elle présente de l’anthropologie évangélique, 2) de la compréhension de l’identité évangélique, sa singularité et sa diversité, et 3) des manières dont une théologie évangélique peut entrer en dialogue avec la raison technoscientifique. Elle lève le voile sur l’utilisation tous azimuts du concept de l’imago Dei et de son insuffisance, à lui seul, pour apprécier les véritables enjeux du débat avec la rationalité technoscientique. Elle insinue que ce motif doit être analysé en conjonction avec la christologie dans l’approfondissement du Logos incarné, pour en mieux apprécier l'étendue. Ce n'est que dans ce lien qu’ont pu être trouvés des éléments capables d'articuler ce qui est en germe dans l'imago Dei et suggérer une définition de l’humain capable de prendre en considération les défis d’une rationalité technoscientifique et de son posthumanisme.