668 resultados para Ces deux-là
Resumo:
L’analyse de la marche a émergé comme l’un des domaines médicaux le plus im- portants récemment. Les systèmes à base de marqueurs sont les méthodes les plus fa- vorisées par l’évaluation du mouvement humain et l’analyse de la marche, cependant, ces systèmes nécessitent des équipements et de l’expertise spécifiques et sont lourds, coûteux et difficiles à utiliser. De nombreuses approches récentes basées sur la vision par ordinateur ont été développées pour réduire le coût des systèmes de capture de mou- vement tout en assurant un résultat de haute précision. Dans cette thèse, nous présentons notre nouveau système d’analyse de la démarche à faible coût, qui est composé de deux caméras vidéo monoculaire placées sur le côté gauche et droit d’un tapis roulant. Chaque modèle 2D de la moitié du squelette humain est reconstruit à partir de chaque vue sur la base de la segmentation dynamique de la couleur, l’analyse de la marche est alors effectuée sur ces deux modèles. La validation avec l’état de l’art basée sur la vision du système de capture de mouvement (en utilisant le Microsoft Kinect) et la réalité du ter- rain (avec des marqueurs) a été faite pour démontrer la robustesse et l’efficacité de notre système. L’erreur moyenne de l’estimation du modèle de squelette humain par rapport à la réalité du terrain entre notre méthode vs Kinect est très prometteur: les joints des angles de cuisses (6,29◦ contre 9,68◦), jambes (7,68◦ contre 11,47◦), pieds (6,14◦ contre 13,63◦), la longueur de la foulée (6.14cm rapport de 13.63cm) sont meilleurs et plus stables que ceux de la Kinect, alors que le système peut maintenir une précision assez proche de la Kinect pour les bras (7,29◦ contre 6,12◦), les bras inférieurs (8,33◦ contre 8,04◦), et le torse (8,69◦contre 6,47◦). Basé sur le modèle de squelette obtenu par chaque méthode, nous avons réalisé une étude de symétrie sur différentes articulations (coude, genou et cheville) en utilisant chaque méthode sur trois sujets différents pour voir quelle méthode permet de distinguer plus efficacement la caractéristique symétrie / asymétrie de la marche. Dans notre test, notre système a un angle de genou au maximum de 8,97◦ et 13,86◦ pour des promenades normale et asymétrique respectivement, tandis que la Kinect a donné 10,58◦et 11,94◦. Par rapport à la réalité de terrain, 7,64◦et 14,34◦, notre système a montré une plus grande précision et pouvoir discriminant entre les deux cas.
Resumo:
Les récepteurs nucléaires (RN) sont des facteurs de transcription ligand dépendants qui contrôlent une grande variété de processus biologiques de la physiologie humaine, ce qui a fait d'eux des cibles pharmacologiques privilégiées pour de nombreuses maladies. L'un de ces récepteurs, le récepteur de l’œstrogène alpha (ERα), peut activer la prolifération cellulaire dans certaines sections de l'épithélium mammaire tandis qu’un autre, le récepteur de l'acide rétinoïque alpha (RARα), peut provoquer un arrêt de la croissance et la différenciation cellulaire. La signalisation de ces deux récepteurs peut être altérée dans le cancer du sein, contribuant à la tumorigénèse mammaire. L’activité d’ERα peut être bloquée par les anti-oestrogènes (AE) pour inhiber la prolifération des cellules tumorales mammaires. Par contre, l’activation des voies de RARα avec des rétinoïdes dans un contexte clinique a rencontré peu de succès. Ceci pourrait résulter du manque de spécificité des ligands testés pour RARα et/ou de leur activité seulement dans certains sous-types de tumeurs mammaires. Puisque les récepteurs nucléaires forment des homo- et hétéro-dimères, nous avons cherché à développer de nouveaux essais pharmacologiques pour étudier l'activité de complexes dimériques spécifiques, leur dynamique d’association et la structure quaternaire des récepteurs des œstrogènes. Nous décrivons ici une nouvelle technique FRET, surnommée BRET avec renforcement de fluorescence par transferts combinés (BRETFect), qui permet de détecter la formation de complexes de récepteurs nucléaires ternaires. Le BRETFect peut suivre l'activation des hétérodimères ERα-ERβ et met en évidence un mécanisme allostérique d'activation que chaque récepteur exerce sur son partenaire de dimérisation. L'utilisation de BRETFect en combinaison avec le PCA nous a permis d'observer la formation de multimères d’ERα fonctionnels dans des cellules vivantes pour la première fois. La formation de multimères est favorisée par les AE induisant la dégradation du récepteur des oestrogènes, ce qui pourrait contribuer à leurs propriétés spécifiques. Ces essais de BRET apportent une nette amélioration par rapport aux tests de vecteurs rapporteur luciférase classique, en fournissant des informations spécifiques aux récepteurs en temps réel sans aucune interférence par d'autres processus tels que la transcription et de la traduction. L'utilisation de ces tests nous a permis de caractériser les propriétés de modulation de l’activité des récepteurs nucléaires d’une nouvelle classe de molécules hybrides qui peuvent à la fois lier ERa ou RAR et inhiber les HDACs, conduisant au développement de nouvelles molécules prometteuses bifonctionnelles telles que la molécule hybride RAR-agoniste/HDACi TTNN-HA.
Resumo:
Les réchauffements climatiques associés aux activités anthropiques ont soumis les écosystèmes arctiques à des changements rapides qui menacent leur stabilité à court terme. La diminution dramatique de la banquise arctique est une des conséquences les plus concrètes de ce réchauffement. Dans ce contexte, comprendre et prédire comment les systèmes arctiques évolueront est crucial, surtout en considérant comment les flux de carbone (C) de ces écosystèmes - soit des puits nets, soit des sources nettes de CO2 pour l'atmosphère - pourraient avoir des répercussions importantes sur le climat. Le but de cette thèse est de dresser un portrait saisonnier de l’activité bactérienne afin de déterminer l’importance de sa contribution aux flux de carbone en Arctique. Plus spécifiquement, nous caractérisons pour la première fois la respiration et le recours à la photohétérotrophie chez les microorganismes du golfe d’Amundsen. Ces deux composantes du cycle du carbone demeurent peu décrites et souvent omises des modèles actuels, malgré leur rôle déterminant dans les flux de C non seulement de l’Arctique, mais des milieux marins en général. Dans un premier temps, nous caractérisons la respiration des communautés microbiennes (RC) des glaces de mer. La connaissance des taux de respiration est essentielle à l’estimation des flux de C, mais encore limitée pour les milieux polaires. En effet, les études précédentes dans le golfe d’Amundsen n’ont pas mesuré la RC. Par la mesure de la respiration dans les glaces, nos résultats montrent des taux élevés de respiration dans la glace, de 2 à 3 fois supérieurs à la colonne d'eau, et une production bactérienne jusqu’à 25 fois plus importante. Ces résultats démontrent que la respiration microbienne peut consommer une proportion significative de la production primaire (PP) des glaces et pourrait jouer un rôle important dans les flux biogéniques de CO2 entre les glaces de mer et l’atmosphère (Nguyen et Maranger, 2011). Dans un second temps, nous mesurons la respiration des communautés microbiennes pélagiques du golfe d’Amundsen pendant une période de 8 mois consécutif, incluant le couvert de glace hivernal. En mesurant directement la consommation d'O2, nous montrons une RC importante, mesurable tout au long de l’année et dépassant largement les apports en C de la production primaire. Globalement, la forte consommation de C par les communautés microbiennes suggère une forte dépendance sur recyclage interne de la PP locale. Ces observations ont des conséquences importantes sur notre compréhension du potentiel de séquestration de CO2 par les eaux de l’Océan Arctique (Nguyen et al. 2012). Dans un dernier temps, nous déterminons la dynamique saisonnière de présence (ADN) et d’expression (ARN) du gène de la protéorhodopsine (PR), impliqué dans la photohétérotrophie chez les communautés bactérienne. Le gène de la PR, en conjonction avec le chromophore rétinal, permet à certaines bactéries de capturer l’énergie lumineuse à des fins énergétiques ou sensorielles. Cet apport supplémentaire d’énergie pourrait contribuer à la survie et prolifération des communautés qui possèdent la protéorhodopsine. Bien que détectée dans plusieurs océans, notre étude est une des rares à dresser un portrait saisonnier de la distribution et de l’expression du gène en milieu marin. Nous montrons que le gène de la PR est présent toute l’année et distribué dans des communautés diversifiées. Étonnamment, l’expression du gène se poursuit en hiver, en absence de lumière, suggérant soit qu’elle ne dépend pas de la lumière, ou que des sources de photons très localisées justifie l’expression du gène à des fins sensorielles et de détection (Nguyen et al., soumis au journal ISME). Cette thèse contribue à la compréhension du cycle du C en Arctique et innove par la caractérisation de la respiration et de l’efficacité de croissance des communautés microbiennes pélagiques et des glaces de mer. De plus, nous montrons pour la première fois une expression soutenue de la protéorhodopsine en Arctique, qui pourrait moduler la consommation de C par la respiration et justifier son inclusion éventuelle dans les modélisations du cycle du C. Dans le contexte des changements climatiques, il est clair que l'importance de l’activité bactérienne a été sous-estimée et aura un impact important dans le bilan de C de l'Arctique.
Resumo:
L'objectif de cette thèse est de présenter différentes applications du programme de recherche de calcul conditionnel distribué. On espère que ces applications, ainsi que la théorie présentée ici, mènera à une solution générale du problème d'intelligence artificielle, en particulier en ce qui a trait à la nécessité d'efficience. La vision du calcul conditionnel distribué consiste à accélérer l'évaluation et l'entraînement de modèles profonds, ce qui est très différent de l'objectif usuel d'améliorer sa capacité de généralisation et d'optimisation. Le travail présenté ici a des liens étroits avec les modèles de type mélange d'experts. Dans le chapitre 2, nous présentons un nouvel algorithme d'apprentissage profond qui utilise une forme simple d'apprentissage par renforcement sur un modèle d'arbre de décisions à base de réseau de neurones. Nous démontrons la nécessité d'une contrainte d'équilibre pour maintenir la distribution d'exemples aux experts uniforme et empêcher les monopoles. Pour rendre le calcul efficient, l'entrainement et l'évaluation sont contraints à être éparse en utilisant un routeur échantillonnant des experts d'une distribution multinomiale étant donné un exemple. Dans le chapitre 3, nous présentons un nouveau modèle profond constitué d'une représentation éparse divisée en segments d'experts. Un modèle de langue à base de réseau de neurones est construit à partir des transformations éparses entre ces segments. L'opération éparse par bloc est implémentée pour utilisation sur des cartes graphiques. Sa vitesse est comparée à deux opérations denses du même calibre pour démontrer le gain réel de calcul qui peut être obtenu. Un modèle profond utilisant des opérations éparses contrôlées par un routeur distinct des experts est entraîné sur un ensemble de données d'un milliard de mots. Un nouvel algorithme de partitionnement de données est appliqué sur un ensemble de mots pour hiérarchiser la couche de sortie d'un modèle de langage, la rendant ainsi beaucoup plus efficiente. Le travail présenté dans cette thèse est au centre de la vision de calcul conditionnel distribué émis par Yoshua Bengio. Elle tente d'appliquer la recherche dans le domaine des mélanges d'experts aux modèles profonds pour améliorer leur vitesse ainsi que leur capacité d'optimisation. Nous croyons que la théorie et les expériences de cette thèse sont une étape importante sur la voie du calcul conditionnel distribué car elle cadre bien le problème, surtout en ce qui concerne la compétitivité des systèmes d'experts.
Resumo:
Consumers are legitimate stakeholders but are unevenly active and powerful in the dynamics that can lead companies to a more socially responsible behaviour. This article proposes to test the relevance, across the struggles of consumers, of the well-known opposition in business ethics between ethics of justice and ethics of care. Relying on a semi-participant direct and webnographic observation of a wide citizen movement that arose in Spain, questioning banks and mortgage regulation, after the explosion of the housing bubble in 2008, this article strives to highlight the permanent dual approach to ethics at all levels of the movement, from spokespersons to supporters, in speech and in actions. One approach is more focused on laws and principles, whereas the other is more focused on direct support to people affected by foreclosures. This article demonstrates the continuities between these two registers of justice and care and their functional complementarities in the dynamics of mobilization. A discussion will then follow on the substance of the opposition between the ethics of justice and the ethics of care as well as on the possible representativeness of this case: behind the singularities of the mortgage issue or of Spanish political culture, one cannot but observe the challenging mobilizing process that comprises a human rightist activism combined with a feminist approach to social issues.
Resumo:
Les cas d’entreprises touchées par des scandales financiers, environnementaux ou concernant des conditions de travail abusives imposées à leur main-d’œuvre, n’ont cessé de jalonner l’actualité ces vingt dernières années. La multiplication des comportements à l’origine de ces scandales s’explique par l’environnement moins contraignant, que leur ont offert les politiques de privatisation, dérégulation et libéralisation, amorcées à partir des années 1980. Le développement de la notion de responsabilité sociale des entreprises à partir des années 1980, en réaction à ces excès, incarne l'idée que si une entreprise doit certes faire des profits et les pérenniser elle se doit de les réaliser en favorisant les comportements responsables, éthiques et transparents avec toutes ses parties prenantes. Nous analysons dans cette thèse le processus par lequel, face à des dysfonctionnements et abus, touchant les conditions de travail de leur main d’œuvre ou leur gouvernance, des entreprises peuvent être amenées, ou non, à questionner et modifier leurs pratiques. Nous avons axé notre étude de cas sur deux entreprises aux trajectoires diamétralement opposées. La première entreprise, issue du secteur de la fabrication de vêtements et dont la crise concernait des atteintes aux droits des travailleurs, a surmonté la crise en réformant son modèle de production. La seconde entreprise, située dans le secteur des technologies de l'information et de la communication, a fait face à une crise liée à sa gouvernance d’entreprise, multiplié les dysfonctionnements pendant dix années de crises et finalement déclaré faillite en janvier 2009. Les évolutions théoriques du courant néo-institutionnel ces dernières années, permettent d’éclairer le processus par lequel de nouvelles normes émergent et se diffusent, en soulignant le rôle de différents acteurs, qui pour les uns, définissent de nouvelles normes et pour d’autres se mobilisent en vue de les diffuser. Afin d’augmenter leur efficacité à l’échelle mondiale, il apparaît que ces acteurs agissent le plus souvent en réseaux, parfois concurrents. L’étude du cas de cette compagnie du secteur de la confection de vêtement nous a permis d’aborder le domaine lié aux conditions de travail de travailleurs œuvrant au sein de chaînes de production délocalisées dans des pays aux lois sociales absentes ou inefficaces. Nous avons analysé le cheminement par lequel cette entreprise fut amenée à considérer, avec plus de rigueur, la dimension éthique dans sa chaîne de production. L’entreprise, en passant par différentes étapes prenant la forme d’un processus d’apprentissage organisationnel, a réussi à surmonter la crise en réformant ses pratiques. Il est apparu que ce processus ne fut pas spontané et qu’il fut réalisé suite aux rôles joués par deux types d’acteurs. Premièrement, par la mobilisation incessante des mouvements de justice globale afin que l’entreprise réforme ses pratiques. Et deuxièmement, par le cadre normatif et le lieu de dialogue entre les différentes parties prenantes, fournis par un organisme privé source de normes. C’est fondamentalement le risque de perdre son accréditation à la cet organisme qui a poussé l’entreprise à engager des réformes. L’entreprise est parvenue à surmonter la crise, certes en adoptant et en respectant les normes définies par cette organisation mais fondamentalement en modifiant sa culture d'entreprise. Le leadership du CEO et du CFO a en effet permis la création d'une culture d'entreprise favorisant la remise en question, le dialogue et une plus grande prise en considération des parties prenantes, même si la gestion locale ne va pas sans poser parfois des difficultés de mise en œuvre. Concernant le domaine de la gouvernance d’entreprise, nous mettons en évidence, à travers l’étude des facteurs ayant mené au déclin et à la faillite d’une entreprise phare du secteur des technologies de l’information et de la communication, les limites des normes en la matière comme outil de bonne gouvernance. La légalité de la gestion comptable et la conformité de l’entreprise aux normes de gouvernance n'ont pas empêché l’apparition et la multiplication de dysfonctionnements et abus stratégiques et éthiques. Incapable de se servir des multiples crises auxquelles elle a fait face pour se remettre en question et engager un apprentissage organisationnel profond, l'entreprise s'est focalisée de manière obsessionnelle sur la rentabilité à court terme et la recherche d'un titre boursier élevé. La direction et le conseil d'administration ont manqué de leadership afin de créer une culture d'entreprise alliant innovation technologique et communication honnête et transparente avec les parties prenantes. Alors que l'étude consacrée à l’entreprise du secteur de la confection de vêtement illustre le cas d'une entreprise qui a su, par le biais d'un changement stratégique, relever les défis que lui imposait son environnement, l'étude des quinze dernières années de la compagnie issue du secteur des technologies de l’information et de la communication témoigne de la situation inverse. Il apparaît sur base de ces deux cas que si une gouvernance favorisant l'éthique et la transparence envers les parties prenantes nécessite la création d'une culture d'entreprise valorisant ces éléments, elle doit impérativement soutenir et être associée à une stratégie adéquate afin que l'entreprise puisse pérenniser ses activités.
Resumo:
Thèse de doctorat réalisée en cotutelle entre l'Université Paris IV Sorbonne et l'Université de Montréal
Resumo:
Introduction : Bien que la pratique de l’usage de la warfarine se soit améliorée au cours de la dernière décennie, aucune recommandation claire basée sur le dosage de l’amiodarone n’a été jusqu’à maintenant standardisée, ce qui représente un grand obstacle pour les cliniciens. La warfarine a un index thérapeutique étroit nécessitant un suivi régulier et un ajustement individuel de la posologie, ceci afin de déterminer la dose thérapeutique, tout en prévenant les effets secondaires qui pourraient être fatals dans certains cas. La variabilité interindividuelle de la réponse à la warfarine dépend de plusieurs facteurs, dont l’âge, le sexe, le poids, l’alimentation et l’interaction médicamenteuse, mais ceux-ci n’expliquent que partiellement les différences de sensibilité à la warfarine. Les polymorphismes des gènes CYP2C9 et VKORC1 jouent un rôle important dans la réponse à la warfarine et expliquent jusqu’à 50% de la variabilité des doses. L’utilisation d’antiarythmiques telle l’amiodarone peut accentuer considérablement l’effet de la warfarine et nécessite généralement une diminution de 30 à 50% de la dose de la warfarine. Aucune étude à ce jour n’a tenté de déterminer l’utilité du génotypage des polymorphismes des gènes CYP2C9 et VKORC1 chez les patients sous traitement combiné de warfarine et amiodarone. Objectif : Notre étude a pour objectif tout d’abord de déterminer si des facteurs génétiques influencent la première dose de stabilisation de la warfarine chez les patients en FA après l’introduction de l’amiodarone. Nous allons également tenter de confirmer l’association préalablement rapportée entre les facteurs génétiques et la première dose de stabilisation de warfarine dans notre population à l’étude. Méthodes : Un devis de cohorte rétrospective de patients qui fréquentaient la clinique d'anticoagulothérapie de l’Institut de cardiologie de Montréal entre le 1er janvier 2007 et le 29 février 2008 pour l’ajustement de leur dose selon les mesures d'INR. Au total, 1615 patients ont été recrutés pour participer à cette étude de recherche. Les critères de sélection des patients étaient les patients avec fibrillation auriculaire ou flutter, ayant un ECG documenté avec l'un de ces deux diagnostics et âgé de moins de 67 ans, en raison d’une moindre comorbidité. Les patients souffrant d’insuffisance hépatique chronique ont été écartés de l’étude. Tous les patients devaient signer un consentement éclairé pour leur participation au projet et échantillon de sang a été pri pour les tests génétiques. La collecte des données a été effectuée à partir du dossier médical du patient de l’Institut de cardiologie de Montréal. Un formulaire de collecte de données a été conçu à cet effet et les données ont ensuite été saisies dans une base de données SQL programmée par un informaticien expert dans ce domaine. La validation des données a été effectuée en plusieurs étapes pour minimiser les erreurs. Les analyses statistiques utilisant des tests de régression ont été effectuées pour déterminer l’association des variants génétiques avec la première dose de warfarine. Résultats : Nous avons identifié une association entre les polymorphismes des gènes CYP2C9 et VKORC1 et la dose de la warfarine. Les polymorphismes génétiques expliquent jusqu’à 42% de la variabilité de dose de la warfarine. Nous avons également démontré que certains polymorphismes génétiques expliquent la réduction de la dose de warfarine lorsque l’amiodarone est ajoutée à la warfarine. Conclusion : Les travaux effectués dans le cadre de ce mémoire ont permis de démontrer l’implication des gènes CYP2C9 et VKORC1 dans la réponse au traitement avec la warfarine et l’amiodarone. Les résultats obtenus permettent d’établir un profil personnalisé pour réduire les risques de toxicité, en permettant un dosage plus précis de la warfarine pour assurer un meilleur suivi des patients. Dans le futur, d’autres polymorphismes génétiques dans ces gènes pourraient être évalués pour optimiser davantage la personnalisation du traitement.
Resumo:
Alors que les études littéraires tendent à se professionnaliser et la culture à occuper de moins en moins d’espace dans les grands médias traditionnels, les revues culturelles proposent une critique qui se distingue de ces deux pratiques. Liberté, L’Inconvénient, Contre-jour et Spirale offrent aux intellectuels, critiques et universitaires l’espace d’une pratique mitoyenne, entre celles des publications savantes et des médias grand public. Qu’ils se définissent au premier chef comme herméneutes, médiateurs ou érudits, les critiques de ces revues revendiquent tous une parole littéraire. Chacun des chapitres de ce mémoire se penche sur une publication, retraçant son histoire et étudiant les textes métacritiques afin de cerner les différences et les similitudes entre les conceptions, les fonctions et les mises en pratique de la critique. La méthode emprunte à l’histoire des revues en tant que groupes d’affiliation, développée par Andrée Fortin et Michel Lacroix. L’analyse des thèmes récurrents et des filiations, dans la lignée des travaux de Martine-Emmanuelle Lapointe et d’Anne Caumartin, ainsi que de la rhétorique, particulièrement la notion d’ethos telle que définie par Dominique Maingueneau et Ruth Amossy, permet de mettre en lumière ce qui constitue, pour les praticiens de la critique, la singularité et la valeur de la parole littéraire.
Resumo:
Le premier membre de la famille des rétrovirus humains HTLV (Virus T-lymphotropique Humain), HTLV-1, a été découvert en 1980 et l’on estime aujourd’hui à plus de 10 millions le nombre d’individus infectés à travers le monde. Après une période de latence d’environ 40 ans, 5% des individus infectés développent des leucémies, des lymphomes adultes de lymphocytes T (ATLL) ou encore une myélopathie associée à HTLV-1/ paraparésie spastique tropicale (HAM/TSP). L’apparition de la maladie serait en grande partie orchestrée par deux protéines virales, soit Tax et HTLV-1 bZIP factor (HBZ). L’expression du génome viral se fait à partir d’un transcrit sens de pleine longueur suite à un épissage alternatif, à l’exception du gène HBZ. HBZ est produite à partir d’un transcrit antisens initié dans la séquence terminale longue répétée (LTR)’3. Elle a été décrite comme étant capable de réguler négativement la transcription virale dépendante de Tax en se dimérisant avec des facteurs de transcription cellulaires tels que CREB-2 et certains membres de la famille Jun. HBZ a aussi un pouvoir prolifératif et bien que nous ne sachions toujours pas le mécanisme moléculaire menant à l’oncogenèse par HBZ, nous savons qu’elle module une multitude de voies de transduction de signaux, dont AP-1. Nous avons récemment mis en évidence un transcrit antisens nommé Antisense Protein of HTLV-2 (APH-2) chez HTLV-2 qui n’est associé qu’à une myélopathie apparentée au HAM/TSP. Ce n’est qu’en 2005 que HTLV-3 et HTLV-4 se sont rajoutés au groupe HTLV. Cependant, aucune corrélation avec le développement d’une quelconque maladie n’a été montrée jusqu’à ce jour. Le premier volet de ce projet de doctorat avait pour objectif de détecter et caractériser les transcrits antisens produits par HTLV-3 et HTLV-4 et d’étudier les protéines traduites à partir de ces transcrits pour ainsi évaluer leurs similitudes et/ou différences avec HBZ et APH-2. Nos études de localisation cellulaire réalisées par microscopie confocale ont montré que APH-3 et APH-4 sont des protéines nucléaires, se retrouvant sous la forme de granules et, dans le cas d’APH-3, partiellement cytoplasmique. Ces granules co-localisent en partie avec HBZ. Les analyses à l’aide d’un gène rapporteur luciférase contenant le LTR 5’ de HTLV-1 ont montré que APH-3 et APH-4 peuvent aussi inhiber la transactivation du LTR 5’ par Tax. Aussi, des études faisant appel au gène rapporteur précédé d’un promoteur de collagénase (site AP-1), ont montré que ces deux protéines, contrairement à HBZ, activent la transcription dépendante de tous les membres des facteurs de transcription de la famille Jun. De plus, les mutants ont montré que le motif fermeture éclair (LZ) atypique de ces protéines est impliqué dans cette régulation. En effet, APH-3 et APH-4 modulent la voie Jun-dépendante en se dimérisant via leur LZ atypique avec la famille Jun et semblent activer la voie par un mécanisme ne faisant pas par d’un domaine activateur autonome. Dans un deuxième volet, nous avions comme objectif d’approfondir nos connaissances sur la localisation nucléolaire de HBZ. Lors de nos analyses, nous avons identifié deux nouveaux partenaires d’interaction, B23 et la nucléoline, qui semblent être associés à sa localisation nucléolaire. En effet, ces interactions sont plus fortes suivant une délétion des domaines AD et bZIP de HBZ qui dans ce cas est localisée strictement au nucléole. De plus, bien que APH-3 et APH-4 puissent se localiser aux nucléoles, HBZ est la seule protéine traduite à partir d’un transcrit antisens pouvant interagir avec B23. Finalement, ces travaux ont clairement mis en évidence que HTLV-3 et HTLV-4 permettent la production de transcrits antisens comme chez d’autres rétrovirus. Les protéines traduites à partir de ces transcrits antisens jouent d’importants rôles dans la réplication rétrovirale mais semblent avoir des fonctions différentes de celles de HBZ au niveau de la régulation de la transcription de la voie Jun. HBZ semble aussi jouer un rôle unique dans le nucléole en ciblant les protéines nucléolaires de la cellule. Ces études démontrent que les protéines produites à partir de transcrits antisens chez les rétrovirus HTLV partagent plusieurs ressemblances, mais démontrent aussi des différences. Ainsi, les APH pourraient, en tant qu’outil comparatif, aider à mieux cibler les mécanismes moléculaires importants utilisés par HBZ pour induire la pathogénèse associée à une infection par HTLV.
Resumo:
Depuis les années 1980, les archéologues ont remarqué l'originalité des collections de céramiques trouvées sur des sites occupés par les pêcheurs basques au cours du XVIe au XVIIIe siècle sur les côtes atlantiques du Canada. Le site de Red Bay (Labrador) a été le premier à fournir une riche collection de terre cuites communes, majoliques et grès, qui ont permis aux archéologues de reconnaître une tradition céramique distincte. Pendant plus de deux siècles, ces céramiques constituent un fil conducteur qui montre la permanence des activités commerciales basques au Canada. En utilisant une approche mutualiste et comparative de quatre sites de pêche basque (Red Bay (1530-1580), Anse-à-la-Cave (1580-1630), Petit-Mécatina (1630-1713), Pabos (1713- 1760)) et leurs ports d’attache dans l’Europe atlantique, nous observons comment à partir du milieu du XVIe siècle, l’ensemble des céramiques se transforme d'un endroit à l’autre sans perdre son air distinctif jusqu'au début du XVIIIe siècle quand les témoins des céramiques basques changent radicalement. Finalement, une perspective globale qui relie les deux côtes atlantiques par le biais de ces matériaux céramiques nous aide à mieux connaître les réseaux d'approvisionnement liés aux traversées de pêche et l’espace économique complexe qui s’articule aux routes maritimes et de l’intérieur. Ces deux éléments se veulent essentiels à la compréhension de l'expansion outremers, ses materiaux laissés et son rôle dans l'économie mondiale au début de l'époque moderne.
Resumo:
La fête nationale française, décrétée en 1880, vise à consolider l’adhésion à la Troisième République, régime né dix ans auparavant et toujours en déficit de légitimité. Malgré les efforts du gouvernement pour rejoindre les Français de toutes allégeances, des discordes idéologiques persistent et la fête nationale du 14-Juillet ne parvient pas à faire l'unanimité. Telle est la situation sociale et politique de la France à l’aube de la Grande Guerre. Alors que se multiplient les batailles et les pertes militaires, la conviction d'une guerre courte fait place à la réalité d'une guerre aussi destructrice qu’interminable. Les 14-Juillet de ces années-là démontrent la nécessité d'adapter les célébrations nationales à la réalité de la guerre totale et des besoins qu'elle engendre. Parallèlement, le deuil et la souffrance de la guerre ravivent les oppositions sociales et politiques d'avant-guerre, remettant en question les capacités du gouvernement à faire face à la situation, menaçant tant l'Union Sacrée que la République. L'entrée en guerre des États-Unis, en avril 1917, offre l'occasion à quelques hommes politiques prévoyants de rétablir la cohésion sociale autour des valeurs républicaines. En 1917, puis en 1918, le gouvernement mise sur l'union des fêtes nationales républicaines française et américaine pour ranimer l'espoir, le courage et le patriotisme de tous les Français. Au-delà de l'hommage rendu à un allié que l'on espérait plus, l'union des deux fêtes devient le symbole de la solidarité et de la fraternité qui unit les deux Républiques-sœurs, et réaffirme la force et la légitimité du régime français en place. Le 14-Juillet, emblème du parcours social et politique français, connaît donc, à l’occasion de la Grande Guerre, une mutation, une redéfinition de sens. À l'image de la France, « moderne », le 14-Juillet tel que développé lors du conflit, ne cesse de s'adapter aux besoins et à l'image d'une société en constante évolution.
Resumo:
Les proliférations nuisibles de la cyanobactérie filamenteuse benthique Lyngbya wollei qui forme des tapis déposés sur les sédiments ont augmenté en fréquence au cours des 30 dernières années dans les rivières, lacs et sources de l'Amérique du Nord. Lyngbya wollei produit des neurotoxines et des composés organiques volatils (géosmin, 2-méthylisobornéol) qui ont des répercussions sur la santé publique de même que des impacts d'ordre socioéconomiques. Cette cyanobactérie est considérée comme un habitat et une source de nourriture de piètre qualité pour les invertébrés en raison de sa gaine robuste et de sa production de toxines. Les proliférations de L. wollei ont été observées pour la première fois en 2005 dans le fleuve Saint-Laurent (SLR; Québec, Canada). Nous avons jugé important de déterminer sa distribution sur un tronçon de 250 km afin d'élaborer des modèles prédictifs de sa présence et biomasse en se basant sur les caractéristiques chimiques et physiques de l'eau. Lyngbya wollei était généralement observé en aval de la confluence de petits tributaires qui irriguent des terres agricoles. L’écoulement d’eaux enrichies à travers la végétation submergée se traduisait par une diminution de la concentration d’azote inorganique dissous (DIN), alors que les concentrations de carbone organique dissous (DOC) et de phosphore total dissous (TDP) demeuraient élevées, produisant un faible rapport DIN :TDP. Selon nos modèles, DOC (effet positif), TP (effet négatif) et DIN :TDP (effet négatif) sont les variables les plus importantes pour expliquer la répartition de cette cyanobactérie. La probabilité que L. wollei soit présent dans le SLR a été prédite avec exactitude dans 72 % à 92 % des cas pour un ensemble de données indépendantes. Nous avons ensuite examiné si les conditions hydrodynamiques, c'est-à-dire le courant généré par les vagues et l'écoulement du fleuve, contrôlent les variations spatiales et temporelles de biomasse de L. wollei dans un grand système fluvial. Nous avons mesuré la biomasse de L. wollei ainsi que les variables chimiques, physiques et météorologiques durant trois ans à 10 sites le long d'un gradient d'exposition au courant et au vent dans un grand (148 km2) lac fluvial du SLR. L'exposition aux vagues et la vitesse du courant contrôlaient les variations de biomasses spatiales et temporelles. La biomasse augmentait de mai à novembre et persistait durant l'hiver. Les variations interannuelles étaient contrôlées par l'écoulement de la rivière (niveau d'eau) avec la crue printanière qui délogeait les tapis de l'année précédente. Les baisses du niveau d'eau et l'augmentation de l'intensité des tempêtes anticipées par les scénarios de changements climatiques pourraient accroître la superficie colonisée par L. wollei de même que son accumulation sur les berges. Par la suite, nous avons évalué l'importance relative de L. wollei par rapport aux macrophytes et aux épiphytes. Nous avons examiné l'influence structurante de l'échelle spatiale sur les variables environnementales et la biomasse de ces producteurs primaires (PP) benthiques. Nous avons testé si leur biomasse reflétait la nature des agrégats d'habitat basées sur l'écogéomorphologie ou plutôt le continuum fluvial. Pour répondre à ces deux questions, nous avons utilisé un design à 3 échelles spatiales dans le SLR: 1) le long d'un tronçon de 250 km, 2) entre les lacs fluviaux localisés dans ce tronçon, 3) à l'intérieur de chaque lac fluvial. Les facteurs environnementaux (conductivité et TP) et la structure spatiale expliquent 59% de la variation de biomasse des trois PP benthiques. Spécifiquement, les variations de biomasses étaient le mieux expliquées par la conductivité (+) pour les macrophytes, par le ratio DIN:TDP (+) et le coefficient d'extinction lumineuse (+) pour les épiphytes et par le DOC (+) et le NH4+ (-) pour L. wollei. La structure spatiale à l'intérieur des lacs fluviaux était la plus importante composante spatiale pour tous les PP benthiques, suggérant que les effets locaux tels que l'enrichissement par les tributaire plutôt que les gradients amont-aval déterminent la biomasse de PP benthiques. Donc, la dynamique des agrégats d'habitat représente un cadre général adéquat pour expliquer les variations spatiales et la grande variété de conditions environnementales supportant des organismes aquatiques dans les grands fleuves. Enfin, nous avons étudié le rôle écologique des tapis de L. wollei dans les écosystèmes aquatiques, en particulier comme source de nourriture et refuge pour l'amphipode Gammarus fasciatus. Nous avons offert aux amphipodes un choix entre des tapis de L. wollei et soit des chlorophytes filamenteuses ou un tapis artificiel de laine acrylique lors d'expériences en laboratoire. Nous avons aussi reconstitué la diète in situ des amphipodes à l'aide du mixing model (d13C et δ15N). Gammarus fasciatus choisissait le substrat offrant le meilleur refuge face à la lumière (Acrylique>Lyngbya=Rhizoclonium>Spirogyra). La présence de saxitoxines, la composition élémentaire des tissus et l'abondance des épiphytes n'ont eu aucun effet sur le choix de substrat. Lyngbya wollei et ses épiphytes constituaient 36 et 24 % de l'alimentation in situ de G. fasciatus alors que les chlorophytes, les macrophytes et les épiphytes associées représentaient une fraction moins importante de son alimentation. Les tapis de cyanobactéries benthiques devraient être considérés comme un bon refuge et une source de nourriture pour les petits invertébrés omnivores tels que les amphipodes.
Resumo:
Perception et virtuel; les deux termes qui composent le titre de ces pages peuvent sembler dans un premier temps les membres d'une opposition ne trouvant aucune synthèse. D'une part il y aurait la matérialité concrète de la perception, clé de tout rapport que nous pouvons avoir avec le monde; de l'autre l'abstraction, l'immatérialité, la fatuité du virtuel. On pourrait penser que si la perception rend touchable l'intouchable, le virtuel, tout au contraire, rend intouchable le touchable. Mais à bien considérer ces deux termes, s'ils sont membres d'une polarité, ils le sont à la façon de deux aimants qui se repoussent d'un côté, et s'attirent de l'autre. Le but de mon discours sera de jouer avec ces deux mots afin d'approfondir leur structure et de prendre en compte leurs croisements, leurs entrelacements, leur chiasme.
Resumo:
Le présent mémoire porte sur les stratégies de gestion de rumeurs par les organisations sur Internet et sur les réseaux sociaux. Il se veut une étude dite « ventriloque » des figures d’autorité mises en présence par les organisations et les internautes à travers leurs interactions. L'objectif de cette recherche est ainsi d’étudier les stratégies employées par les organisations pour gérer les rumeurs sur Internet et d’observer les interactions entre l’organisation et ses consommateurs afin de comprendre le rapport des organisations avec leurs consommateurs, réels ou potentiels, grâce aux figures mises en scène et invoquées dans leurs stratégies. Comme nous le montrons dans nos analyses, les organisations mettent en scène une multitude de figures d’autorité pour convaincre leurs consommateurs. En même temps, elles se positionnent comme sujettes à des agentivités qui sont contextuelles aux rumeurs auxquelles elles font face. De la même façon, les internautes mettent en scène les préoccupations qui les animent. Les dialogues entre organisations et internautes reflètent différentes relations entre ces deux parties. En particulier, nous montrons que les organisations n’interagissent pas toutes de la même manière avec les internautes. Cette analyse s’appuie sur des données récoltées sur les sites internet des organisations étudiées et sur les réseaux Facebook et Twitter.