523 resultados para Évolution biologique et technique
Resumo:
Réalisé en cotutelle avec l’Université Lumière Lyon 2
Resumo:
La thèse comporte deux parties. Dans la première, constatant, d’une part, que les publications de référence à l’égard de la fiction télévisuelle québécoise sont rares, et que, d’autre part, les études télévisuelles souffrent d’un manque à penser l’esthétique de la fiction, elle avance une approche nouvelle. La fiction télévisuelle est l’objet d’une évolution esthétique portée par ses deux dispositifs et scandée en trois degrés d’expression. Elle évolue d’un dispositif où le son prévaut dans le cadre de la télé-audition à un autre dispositif où l’image prédomine au sein de la télé-vision. La fiction télévisuelle réalise ce parcours en trois degrés d’expression: du degré zéro, la monstration de la parole, nommé la télé-oralité, au second degré, l’image énonciative, nommé la télé-visualité, en passant par le premier degré, une oscillation transitoire, nommé la télé-dualité. Elle remédiatise le trajet du cinéma de fiction des premiers temps à l’auteurielité, un demi-siècle plus tard. Dans la seconde partie, la thèse applique le modèle théorique au corpus téléromanesque. Elle démontre que la fiction télévisuelle québécoise connait une évolution du téléroman à la sérietélé, en passant par la télésérie et par une trilogie épistémique. Au terme du parcours réflexif, une conclusion s’impose: le téléromanesque actuel participe de plain-pied à ce qui semble être, depuis le nouveau millénaire, l’Age d’art de la fiction télévisuelle.
Resumo:
La réplication et l’assemblage du virus de l’hépatite C (VHC) sont régulés finement dans le temps et l’espace par les interactions protéiques entre le virus avec l’hôte. La compréhension de la biologie du virus ainsi que sa pathogénicité passe par les connaissances relatives aux interactions virus/hôte. Afin d’identifier ces interactions, nous avons exploité une approche d’immunoprécipitation (IP) couplée à une détection par spectrométrie de masse (MS), pour ensuite évaluer le rôle des protéines identifiées dans le cycle viral par une technique de silençage génique. Les protéines virales Core, NS2, NS3/4A, NS4B, NS5A et NS5B ont été exprimées individuellement dans les cellules humaines 293T et immunoprécipitées afin d’isoler des complexes protéiques qui ont été soumis à l’analyse MS. Ainsi, 98 protéines de l’hôte ont été identifiées avec un enrichissement significatif et illustrant une spécificité d’interaction. L’enrichissement de protéines connues dans la littérature a démontré la force de l’approche, ainsi que la validation de 6 nouvelles interactions virus/hôte. Enfin, le rôle de ces interactants sur la réplication virale a été évalué dans un criblage génomique par ARN interférant (ARNi). Deux systèmes rapporteurs de la réplication virale ont été utilisés : le système de réplicon sous-génomique (Huh7-Con1-Fluc) et le système infectieux (J6/JFH-1/p7Rluc2a), ainsi qu’un essai de toxicité cellulaire (Alamar Blue). Parmi les protéines de l’hôte interagissant avec le VHC, 28 protéines ont démontré un effet significatif sans effet de toxicité cellulaire, suggérant fortement un rôle dans la réplication du VHC. Globalement, l’étude a mené à l’identification de nouvelles interactions virus/hôte et l’identification de nouvelles cibles thérapeutiques potentielles.
Resumo:
La pharmacogénomique est l’étude de la totalité des gènes impliqués dans les réactions aux médicaments. Cette nouvelle technique de développement des médicaments laisse entrevoir d’immenses possibilités, elle soulève également de nombreuses questions sociales, éthiques et juridiques. Le présent article analyse les enjeux éthiques suscités par la pharmacogénomique en utilisant un type d’approche analytique s’inspirant de l’approche par principes développée par les auteurs Beauchamp et Childress.
Resumo:
L’élaboration de normes vouées à encadrer une activité technologique pose, au-delà du défi de la simplicité, celui de construire un cadre juridique durable, dont la pertinence ne saurait être remise en cause par de nouveaux développements techniques. Le principe de neutralité technologique, qui incarne cette volonté de pérennité du droit, emporte une formulation particulière des lois relatives aux technologies de l’information. Davantage tourné vers des objectifs que vers des technologies prédéterminées, ce style rédactionnel perd cependant en précision : au risque d’interprétations erronées, les destinataires doivent eux-mêmes identifier les technologies susceptibles de correspondre aux exigences juridiques. Relevant ainsi le dilemme cornélien entre le besoin de pérennité technique du droit et le souci d’un encadrement juridique précis, l’auteur constate qu’il caractérise l’intégration de plus en plus courante du concept d’efficacité technique en droit. S’agissant d’un critère pour le moins imprécis, son intégration juridique implique l’utilisation de stratégies normatives originales visant à concilier le principe de neutralité technologique et le besoin de prévisibilité du droit.
Resumo:
"Le cadavre – cette dépouille mortelle, ce corps inanimé devant lequel la fatalité inéluctable s'est abattue – symbolise à la fois un produit de consommation, un objet de culte et une matière de la science. La première acception s'observe au regard du cannibalisme qui permet à ses pratiquants de s'approprier les qualités de la victime et d'effrayer les ennemis; cette vision occidentale d'un être « sauvage mangeur d'homme » inspire notamment Shakespeare à créer Caliban, personnage maléfique dans la comédie La tempête. La deuxième acception renvoie aux rituels funéraires, où le cadavre tend à une certaine sacralisation par le procédé de momification qui, dans l'ancienne Égypte, visait à préserver le corps du défunt afin d'assurer l'existence de son âme dans l'au-delà. La troisième acception transpose le cadavre dans le domaine scientifique; il revêt alors une finalité de « serviabilité » et constitue un « patrimoine biologique » par la possibilité de dons d'organes à titre gratuit, car justifiés par un intérêt altruiste. Une considération contemporaine sur le caractère lucratif du don se pose néanmoins à la lumière des expositions « Bodies » – technique de plastination de l'inventeur Gunther Von Hagen – et de celle projetée par Andreï Molodkin, cet alchimiste de la chair humaine – procédé qui consiste à faire cuire des corps humains pour qu'ils deviennent une huile brute. Outre le questionnement relatif à la provenance des corps ou des organes exposés, il est permis de s'interroger sur le véritable dessein – mercantile ou scientifique? – poursuivi par ces concepteurs."
Resumo:
La recherche de la vérité en droit est une quête constante, tant dans le monde réel que dans le monde virtuel. Cependant se pose la question de savoir comment trouver cette vérité: est-ce par le biais de la preuve que celle-ci soit le fruit d’une préconstitution ou d’une présomption ou est-ce par le recours à la fiction afin de combler une lacune ou en vue de répondre à une besoin de sécurité. C’est sur ce chemin que l’auteure nous livre ses analyses et commentaires quant à la recherche de la vérité quant à la fonction de la norme technique dans la mise en œuvre du droit.
Resumo:
La complexification de nos sociétés et les limites des instruments législatifs (rigidité, opacité, etc.) minent l’efficacité du droit. Il y a un besoin criant de renouveau entre ce que l’auteur appelle la société civile et les pouvoirs de décision C’est pourquoi sont apparues au fil des années des formes alternatives d’organisations collectives, ouvertes et autorégulées. On parle alors de gouvernance. L’auteur explique cette évolution de la relation droit/gouvernance non seulement par les limites de la législation à proprement parler mais également par le développement de nouvelles techniques et technologies comme Internet qui ouvrent la porte à de nouvelles possibilités de coordination plus efficaces ainsi qu’à la protection d’intérêts divers au même titre que la loi. Internet devient alors un nouvel observatoire d’où l’on peut développer de nouvelles méthodes de gouvernance, le tout dans une optique de consensus sur la norme. En effet, il ne s’agit pas ici d’écarter le droit au profit de nouvelles formes de gouvernance ou vice-versa. On cherche à créer un système complémentaire qui viendra pallier aux faiblesses d’une législation rigide et complexe par moment et qui produira tout de même une dynamique juridique au niveau national et international.
Resumo:
L’échange de fichiers musicaux par Internet permet de faire très exactement ce que toute loi sur le droit d’auteur cherche à interdire : priver de leurs droits les compositeurs, interprètes et agents de distribution des œuvres musicales. Pour l’industrie du disque, le défi est à la fois d’ordre juridique et d’ordre technique. Les lois actuelles sur le droit d’auteur suffiront-elles d’une part à protéger ses intérêts, et dans le cas où les tribunaux acquiesceraient à ses nombreuses demandes, lui faudra-t-il d’autre part tenter de mettre un frein aux progrès technologiques grâce auxquels les internautes peuvent télécharger massivement et en toute impunité leurs pièces musicales préférées? La jurisprudence américaine montre bien que dans les cas où on a cherché aux États-Unis à se servir de la loi sur le droit d’auteur pour bloquer l’utilisation d’une technologie innovatrice, les tribunaux, pour des motifs politiques et juridiques, n’ont fait preuve d’aucune sympathie pour les titulaires de droits d’auteur. En fait, lorsque les tribunaux ont cherché à trop restreindre l’utilisation d’un nouveau mode de dissémination des œuvres, le Congrès est intervenu pour rétablir l’équilibre entre les intérêts des créateurs et ceux des utilisateurs de cette technologie. Au Canada, le droit protège très bien les compositeurs et les interprètes, mais beaucoup moins bien les compagnies de disques. En ce moment, la loi canadienne sur le droit d’auteur accorde à ces dernières un droit d’auteur limité sur leurs produits. Elles peuvent multiplier les exemplaires d’un disque, et le « reproduire sur un support matériel quelconque ». C’est ici que naissent les difficultés : les compagnies productrices de disques n’ont pas un droit clairement identifié à l’égard d’une « représentation » de l’œuvre musicale ou d’une « exécution publique » ou d’une « transmission au public par télécommunication ». Le Parlement canadien aura des choix importants à faire.
Resumo:
« Dissimuler » un trésor a toujours fasciné. Mais à l’heure actuelle, le trésor n’est plus toujours une caisse pleine de pierres précieuses ou d’or, il peut s’agir d’une simple information ou d’une donnée informatique importante que l’on souhaite cacher pour mieux la protéger. Avec le développement d’Internet, le domaine de la stéganographie, technique consistant à dissimuler une information pour la faire passer inaperçue, prend alors une nouvelle ampleur : il est désormais facile de dissimuler un fichier qui n’est qu’une goutte d’eau dans un océan informationnel. Si cette possibilité ouvre de nouvelles perspectives en termes de sécurité de l’information (car si personne ne sait qu’il y a un message secret, personne ne cherchera à le regarder ou le récupérer…), sa couverture sur le plan juridique n’est encore qu’embryonnaire. Dans la première partie, après avoir présenté les principes de la stéganographie informatique, nous montrerons combien un tel procédé est complémentaire et s’accorde bien avec la cryptographie, et le mettrons en perspective avec d’autres techniques voisines de dissimulation d’information (tatouage et empreinte digitale). Nous illustrerons finalement quelques pratiques de stéganographie appliquée à deux catégories de données numériques, l’image et le texte. Dans la seconde partie, nous plaçant résolument sur le plan juridique, nous tenterons tout d’abord de voir si la stéganographie peut faire partie des mesures techniques de protection que doit mettre en place un responsable de système d’information au titre de l’obligation de sécurité informationnelle. Ensuite, après avoir constaté que certains usages déviants de la stéganographie pouvaient impacter la sécurité publique, nous nous interrogerons sur ses répercussions, compte tenu des exigences d’accessibilité et d’intégrité de l’information.
Resumo:
Le développement exponentiel des réseaux informatiques a largement contribué à augmenter le volume des renseignements personnels disponibles et à remplacer les méthodes désuètes de collecte des renseignements par des méthodes plus rapides et plus efficaces. La vie privée et le contrôle sur les informations personnelles, tels que nous les connaissions il y a quelques décennies, sont des notions difficilement compatibles avec la société ouverte et commerciale comme la nôtre. Face à cette nouvelle réalité menaçante pour les droits et libertés de l’homme, il est essentiel de donner un cadre technique et légal stable qui garantisse une protection adéquate de ces données personnelles. Pour rester dans le marché ou bénéficier de la confiance des individus, les entreprises et les gouvernements doivent posséder une infrastructure de sécurité efficace. Cette nouvelle donne a tendance à devenir plus qu’une règle de compétitivité, elle se transforme en une authentique obligation légale de protéger les données à caractère personnel par des mesures de sécurité adéquates et suffisantes. Ce mémoire aborde justement ces deux points, soit l’étude du développement d’une obligation légale de sécurité et l’encadrement juridique de la mise en place d’un programme de sécurisation des données personnelles par des mesures de sécurités qui respectent les standards minimaux imposés par les textes législatifs nationaux et internationaux.
Resumo:
Le développement d’Internet et des nouvelles technologies de l’information permet l’avènement de relations nouvelles. Ce nouveau potentiel, décuplé par ces technologies en constante évolution, actualise la discussion de notions fondamentales. Le développement de ces relations se fonde sur une notion de confiance qu’il est primordial de comprendre afin de mieux saisir les enjeux liés à ces nouvelles technologies. La notion de confiance est intrinsèquement liée aux développements de nos économies. Elle influence du même coup le commerce électronique et certaines notions du droit.
Resumo:
Les maladies immunitaires chroniques incluant les maladies auto-immunes et inflammatoires touchent 20 à 25% de la population des pays occidentaux. La comparaison des taux de concordance chez les jumeaux ou l’histoire familiale de sujets atteints de la maladie cœliaque (maladie auto-immune de l’intestin) ou de l’œsophagite éosinophilique (maladie inflammatoire de l’œsophage) indiquent que des facteurs génétiques et environnementaux interviennent dans la susceptibilité à ces maladies. Cependant, ces études ne distinguent pas de manière claire la prédisposition génétique selon l’hétérogénéité clinique (enfants versus adultes) ou ethnique (stratification des populations). Méthodes. Les haplotypes HLA de prédisposition à la maladie cœliaque et les polymorphismes des gènes candidats IL-13 (R130Q), IL-5 (-746 T/G) et IL-5R (-80A/G) impliqués dans la physiopathologie de l’œsophagite éosinophilique, ont été caractérisés par la technique PCR-SSP sur l’ADN génomique. Résultats: Nos études familiales et cas-contrôles réalisées chez une population Québécoises avec un fond génétique très homogène nous a permis : i) d’éviter le problème de stratification des populations, ii) de confirmer que les gènes HLA sont également associés à la maladie cœliaque (enfants et adultes) au Québec comme dans les autres populations Caucasiennes, iii) de mettre en évidence le rôle du gène IL-13 dans la prédisposition à l’œsophagite éosinophilique (garçons et filles) et d’exclure les gènes IL-5 et IL-5R comme facteurs de susceptibilité dans notre population. Conclusion: Ce travail confirme pour la première fois l’impact des gènes HLA dans la prédisposition à la maladie cœliaque et le rôle du facteur génétique dans l’œsophagite éosinophilique chez une population Canadienne Française avec un fond génétique ayant un fort effet fondateur.
Resumo:
La maladie des artères périphériques (MAP) se manifeste par une réduction (sténose) de la lumière de l’artère des membres inférieurs. Elle est causée par l’athérosclérose, une accumulation de cellules spumeuses, de graisse, de calcium et de débris cellulaires dans la paroi artérielle, généralement dans les bifurcations et les ramifications. Par ailleurs, la MAP peut être causée par d`autres facteurs associés comme l’inflammation, une malformation anatomique et dans de rares cas, au niveau des artères iliaques et fémorales, par la dysplasie fibromusculaire. L’imagerie ultrasonore est le premier moyen de diagnostic de la MAP. La littérature clinique rapporte qu’au niveau de l’artère fémorale, l’écho-Doppler montre une sensibilité de 80 à 98 % et une spécificité de 89 à 99 % à détecter une sténose supérieure à 50 %. Cependant, l’écho-Doppler ne permet pas une cartographie de l’ensemble des artères des membres inférieurs. D’autre part, la reconstruction 3D à partir des images échographiques 2D des artères atteintes de la MAP est fortement opérateur dépendant à cause de la grande variabilité des mesures pendant l’examen par les cliniciens. Pour planifier une intervention chirurgicale, les cliniciens utilisent la tomodensitométrie (CTA), l’angiographie par résonance magnétique (MRA) et l’angiographie par soustraction numérique (DSA). Il est vrai que ces modalités sont très performantes. La CTA montre une grande précision dans la détection et l’évaluation des sténoses supérieures à 50 % avec une sensibilité de 92 à 97 % et une spécificité entre 93 et 97 %. Par contre, elle est ionisante (rayon x) et invasive à cause du produit de contraste, qui peut causer des néphropathies. La MRA avec injection de contraste (CE MRA) est maintenant la plus utilisée. Elle offre une sensibilité de 92 à 99.5 % et une spécificité entre 64 et 99 %. Cependant, elle sous-estime les sténoses et peut aussi causer une néphropathie dans de rares cas. De plus les patients avec stents, implants métalliques ou bien claustrophobes sont exclus de ce type d`examen. La DSA est très performante mais s`avère invasive et ionisante. Aujourd’hui, l’imagerie ultrasonore (3D US) s’est généralisée surtout en obstétrique et échocardiographie. En angiographie il est possible de calculer le volume de la plaque grâce à l’imagerie ultrasonore 3D, ce qui permet un suivi de l’évolution de la plaque athéromateuse au niveau des vaisseaux. L’imagerie intravasculaire ultrasonore (IVUS) est une technique qui mesure ce volume. Cependant, elle est invasive, dispendieuse et risquée. Des études in vivo ont montré qu’avec l’imagerie 3D-US on est capable de quantifier la plaque au niveau de la carotide et de caractériser la géométrie 3D de l'anastomose dans les artères périphériques. Par contre, ces systèmes ne fonctionnent que sur de courtes distances. Par conséquent, ils ne sont pas adaptés pour l’examen de l’artère fémorale, à cause de sa longueur et de sa forme tortueuse. L’intérêt pour la robotique médicale date des années 70. Depuis, plusieurs robots médicaux ont été proposés pour la chirurgie, la thérapie et le diagnostic. Dans le cas du diagnostic artériel, seuls deux prototypes sont proposés, mais non commercialisés. Hippocrate est le premier robot de type maitre/esclave conçu pour des examens des petits segments d’artères (carotide). Il est composé d’un bras à 6 degrés de liberté (ddl) suspendu au-dessus du patient sur un socle rigide. À partir de ce prototype, un contrôleur automatisant les déplacements du robot par rétroaction des images échographiques a été conçu et testé sur des fantômes. Le deuxième est le robot de la Colombie Britannique conçu pour les examens à distance de la carotide. Le mouvement de la sonde est asservi par rétroaction des images US. Les travaux publiés avec les deux robots se limitent à la carotide. Afin d’examiner un long segment d’artère, un système robotique US a été conçu dans notre laboratoire. Le système possède deux modes de fonctionnement, le mode teach/replay (voir annexe 3) et le mode commande libre par l’utilisateur. Dans ce dernier mode, l’utilisateur peut implémenter des programmes personnalisés comme ceux utilisés dans ce projet afin de contrôler les mouvements du robot. Le but de ce projet est de démontrer les performances de ce système robotique dans des conditions proches au contexte clinique avec le mode commande libre par l’utilisateur. Deux objectifs étaient visés: (1) évaluer in vitro le suivi automatique et la reconstruction 3D en temps réel d’une artère en utilisant trois fantômes ayant des géométries réalistes. (2) évaluer in vivo la capacité de ce système d'imagerie robotique pour la cartographie 3D en temps réel d'une artère fémorale normale. Pour le premier objectif, la reconstruction 3D US a été comparée avec les fichiers CAD (computer-aided-design) des fantômes. De plus, pour le troisième fantôme, la reconstruction 3D US a été comparée avec sa reconstruction CTA, considéré comme examen de référence pour évaluer la MAP. Cinq chapitres composent ce mémoire. Dans le premier chapitre, la MAP sera expliquée, puis dans les deuxième et troisième chapitres, l’imagerie 3D ultrasonore et la robotique médicale seront développées. Le quatrième chapitre sera consacré à la présentation d’un article intitulé " A robotic ultrasound scanner for automatic vessel tracking and three-dimensional reconstruction of B-mode images" qui résume les résultats obtenus dans ce projet de maîtrise. Une discussion générale conclura ce mémoire. L’article intitulé " A 3D ultrasound imaging robotic system to detect and quantify lower limb arterial stenoses: in vivo feasibility " de Marie-Ange Janvier et al dans l’annexe 3, permettra également au lecteur de mieux comprendre notre système robotisé. Ma contribution dans cet article était l’acquisition des images mode B, la reconstruction 3D et l’analyse des résultats pour le patient sain.
Resumo:
Les assemblages lithiques dominent la plupart des sites archéologiques du Nunavik et constituent ainsi une véritable mine d’informations. Le nombre limité de travaux sur les matériaux de la côte est de la baie d’Hudson, nous a amené à nous pencher sur une source présente dans ce secteur. Notre objectif était alors de caractériser la matière première provenant de cette formation géologique, le chert Nastapoka. Pour ce faire, nous avons choisi la technique de fluorescence aux rayons X. Les résultats ont permis de constater, en plus des observations macroscopiques, la nature très variable de ce chert présentant une signature chimique complexe. Pour compléter le portrait, nous avons évalué l’utilisation du chert Nastapoka par les Paléoesquimaux par une comparaison d’analyses technologiques déjà effectuées sur les sites GhGk-4, GhGk-63 et IcGm-5. Cet examen a révélé que l’évolution des stratégies d’exploitation des matériaux lithiques dans cette région appui le continuum culturel Prédorsétien-Dorsétien observé ailleurs.