1000 resultados para Le Ludique dans le travail
Resumo:
L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.
Resumo:
Cette thèse pose la question du positionnement identitaire difficile qui marque la trajectoire littéraire de l’écrivaine belge Suzanne Lilar (1901-1992). Le tiraillement vécu par l’écrivaine entre sa vocation artistique et la nécessité de préserver une image de soi conforme aux normes du milieu social dans lequel elle s’inscrit se reflète dans les scénographies construites par ses œuvres littéraires, mais également dans son discours réflexif et paratextuel ainsi que dans la manière dont son œuvre est accueilli par la presse de l’époque. Le premier volet de cette analyse s’attache à circonscrire la position occupée par Suzanne Lilar sur la scène littéraire belge, dont la proximité avec le centre parisien a toujours entretenu la menace de l’assimilation, et sur la scène de l’écriture féminine. Le deuxième volet de cette thèse porte sur l’analyse des scénographies construites par les textes de fiction et les textes à tendance autobiographique de Suzanne Lilar. Les doubles scénographies que donnent à lire ces œuvres montrent que la démarche esthétique de Suzanne Lilar, sous-tendue par le besoin de légitimation de son entreprise, est basée principalement sur la multiplication des perspectives et des moyens d’expression. Le dédoublement de la scène énonciative des récits, la mise en abyme de la figure auctoriale ainsi que le travail d’autoréécriture témoignent de la nécessité de se positionner dans le champ littéraire, mais également de la méfiance de l’écrivaine envers l’écriture littéraire. Le troisième volet de cette recherche analyse l’éthos et la posture que Lilar construit à l’aide du discours réflexif et paratextuel par lequel elle assoit sa légitimité sur la scène littéraire et sociale. Enfin, la dernière partie de cette thèse capte les échos de l’œuvre de Lilar dans la presse de son temps. L’image de l’auteure construite par les médias permet de placer Lilar au sein de l’institution et du champ littéraire, mais également au sein du groupe social dans lequel elle s’inscrit. L’accueil réservé à l’écrivaine par la presse de son époque semble suivre les fluctuations de la posture construite par l’écrivaine elle-même. Cela confirme l’hypothèse selon laquelle Lilar est une auteure qui a éprouvé de la difficulté à assumer pleinement son rôle. Le positionnement en porte-à-faux – dont témoigne la figure du trompe-l’œil qui définit sa poétique – semble avoir représenté, pour Lilar, la seule manière d’assumer l’incontournable paratopie créatrice.
Resumo:
L'objectif de cette thèse est de présenter différentes applications du programme de recherche de calcul conditionnel distribué. On espère que ces applications, ainsi que la théorie présentée ici, mènera à une solution générale du problème d'intelligence artificielle, en particulier en ce qui a trait à la nécessité d'efficience. La vision du calcul conditionnel distribué consiste à accélérer l'évaluation et l'entraînement de modèles profonds, ce qui est très différent de l'objectif usuel d'améliorer sa capacité de généralisation et d'optimisation. Le travail présenté ici a des liens étroits avec les modèles de type mélange d'experts. Dans le chapitre 2, nous présentons un nouvel algorithme d'apprentissage profond qui utilise une forme simple d'apprentissage par renforcement sur un modèle d'arbre de décisions à base de réseau de neurones. Nous démontrons la nécessité d'une contrainte d'équilibre pour maintenir la distribution d'exemples aux experts uniforme et empêcher les monopoles. Pour rendre le calcul efficient, l'entrainement et l'évaluation sont contraints à être éparse en utilisant un routeur échantillonnant des experts d'une distribution multinomiale étant donné un exemple. Dans le chapitre 3, nous présentons un nouveau modèle profond constitué d'une représentation éparse divisée en segments d'experts. Un modèle de langue à base de réseau de neurones est construit à partir des transformations éparses entre ces segments. L'opération éparse par bloc est implémentée pour utilisation sur des cartes graphiques. Sa vitesse est comparée à deux opérations denses du même calibre pour démontrer le gain réel de calcul qui peut être obtenu. Un modèle profond utilisant des opérations éparses contrôlées par un routeur distinct des experts est entraîné sur un ensemble de données d'un milliard de mots. Un nouvel algorithme de partitionnement de données est appliqué sur un ensemble de mots pour hiérarchiser la couche de sortie d'un modèle de langage, la rendant ainsi beaucoup plus efficiente. Le travail présenté dans cette thèse est au centre de la vision de calcul conditionnel distribué émis par Yoshua Bengio. Elle tente d'appliquer la recherche dans le domaine des mélanges d'experts aux modèles profonds pour améliorer leur vitesse ainsi que leur capacité d'optimisation. Nous croyons que la théorie et les expériences de cette thèse sont une étape importante sur la voie du calcul conditionnel distribué car elle cadre bien le problème, surtout en ce qui concerne la compétitivité des systèmes d'experts.
Resumo:
L’ingénierie dirigée par les modèles (IDM) est un paradigme d’ingénierie du logiciel bien établi, qui préconise l’utilisation de modèles comme artéfacts de premier ordre dans les activités de développement et de maintenance du logiciel. La manipulation de plusieurs modèles durant le cycle de vie du logiciel motive l’usage de transformations de modèles (TM) afin d’automatiser les opérations de génération et de mise à jour des modèles lorsque cela est possible. L’écriture de transformations de modèles demeure cependant une tâche ardue, qui requiert à la fois beaucoup de connaissances et d’efforts, remettant ainsi en question les avantages apportés par l’IDM. Afin de faire face à cette problématique, de nombreux travaux de recherche se sont intéressés à l’automatisation des TM. L’apprentissage de transformations de modèles par l’exemple (TMPE) constitue, à cet égard, une approche prometteuse. La TMPE a pour objectif d’apprendre des programmes de transformation de modèles à partir d’un ensemble de paires de modèles sources et cibles fournis en guise d’exemples. Dans ce travail, nous proposons un processus d’apprentissage de transformations de modèles par l’exemple. Ce dernier vise à apprendre des transformations de modèles complexes en s’attaquant à trois exigences constatées, à savoir, l’exploration du contexte dans le modèle source, la vérification de valeurs d’attributs sources et la dérivation d’attributs cibles complexes. Nous validons notre approche de manière expérimentale sur 7 cas de transformations de modèles. Trois des sept transformations apprises permettent d’obtenir des modèles cibles parfaits. De plus, une précision et un rappel supérieurs à 90% sont enregistrés au niveau des modèles cibles obtenus par les quatre transformations restantes.
Resumo:
A fundamental goal in neurobiology is to understand the development and organization of neural circuits that drive behavior. In the embryonic spinal cord, the first motor activity is a slow coiling of the trunk that is sensory-independent and therefore appears to be centrally driven. Embryos later become responsive to sensory stimuli and eventually locomote, behaviors that are shaped by the integration of central patterns and sensory feedback. In this thesis I used a simple vertebrate model, the zebrafish, to investigate in three manners how developing spinal networks control these earliest locomotor behaviors. For the first part of this thesis, I characterized the rapid transition of the spinal cord from a purely electrical circuit to a hybrid network that relies on both chemical and electrical synapses. Using genetics, lesions and pharmacology we identified a transient embryonic behavior preceding swimming, termed double coiling. I used electrophysiology to reveal that spinal motoneurons had glutamate-dependent activity patterns that correlated with double coiling as did a population of descending ipsilateral glutamatergic interneurons that also innervated motoneurons at this time. This work (Knogler et al., Journal of Neuroscience, 2014) suggests that double coiling is a discrete step in the transition of the motor network from an electrically coupled circuit that can only produce simple coils to a spinal network driven by descending chemical neurotransmission that can generate more complex behaviors. In the second part of my thesis, I studied how spinal networks filter sensory information during self-generated movement. In the zebrafish embryo, mechanosensitive sensory neurons fire in response to light touch and excite downstream commissural glutamatergic interneurons to produce a flexion response, but spontaneous coiling does not trigger this reflex. I performed electrophysiological recordings to show that these interneurons received glycinergic inputs during spontaneous fictive coiling that prevented them from firing action potentials. Glycinergic inhibition specifically of these interneurons and not other spinal neurons was due to the expression of a unique glycine receptor subtype that enhanced the inhibitory current. This work (Knogler & Drapeau, Frontiers in Neural Circuits, 2014) suggests that glycinergic signaling onto sensory interneurons acts as a corollary discharge signal for reflex inhibition during movement. v In the final part of my thesis I describe work begun during my masters and completed during my doctoral degree studying how homeostatic plasticity is expressed in vivo at central synapses following chronic changes in network activity. I performed whole-cell recordings from spinal motoneurons to show that excitatory synaptic strength scaled up in response to decreased network activity, in accordance with previous in vitro studies. At the network level, I showed that homeostatic plasticity mechanisms were not necessary to maintain the timing of spinal circuits driving behavior, which appeared to be hardwired in the developing zebrafish. This study (Knogler et al., Journal of Neuroscience, 2010) provided for the first time important in vivo results showing that synaptic patterning is less plastic than synaptic strength during development in the intact animal. In conclusion, the findings presented in this thesis contribute widely to our understanding of the neural circuits underlying simple motor behaviors in the vertebrate spinal cord.
Resumo:
La prise de décision est un processus computationnel fondamental dans de nombreux aspects du comportement animal. Le modèle le plus souvent rencontré dans les études portant sur la prise de décision est appelé modèle de diffusion. Depuis longtemps, il explique une grande variété de données comportementales et neurophysiologiques dans ce domaine. Cependant, un autre modèle, le modèle d’urgence, explique tout aussi bien ces mêmes données et ce de façon parcimonieuse et davantage encrée sur la théorie. Dans ce travail, nous aborderons tout d’abord les origines et le développement du modèle de diffusion et nous verrons comment il a été établi en tant que cadre de travail pour l’interprétation de la plupart des données expérimentales liées à la prise de décision. Ce faisant, nous relèveront ses points forts afin de le comparer ensuite de manière objective et rigoureuse à des modèles alternatifs. Nous réexaminerons un nombre d’assomptions implicites et explicites faites par ce modèle et nous mettrons alors l’accent sur certains de ses défauts. Cette analyse servira de cadre à notre introduction et notre discussion du modèle d’urgence. Enfin, nous présenterons une expérience dont la méthodologie permet de dissocier les deux modèles, et dont les résultats illustrent les limites empiriques et théoriques du modèle de diffusion et démontrent en revanche clairement la validité du modèle d'urgence. Nous terminerons en discutant l'apport potentiel du modèle d'urgence pour l'étude de certaines pathologies cérébrales, en mettant l'accent sur de nouvelles perspectives de recherche.
Resumo:
La présente recherche vise à examiner une société d’éleveurs et d’agriculteurs (rancheros), dans une communauté qui se situe au nord du Jalisco : Colotlán. J’étudierai son inscription dans l’environnement, son économie de plus inscrite dans les marchés national et international, sa configuration politique (en considérant sa relation avec l’État) et sa symbolique, dont son éthique de travail fait partie. Mon enquête m’a permis l’identification des différentes formes de relations entre les pairs et les valeurs, les dimensions affectives et les représentations qui en découlent. Je propose l’existence d’un type de formation sociale qu’on peut nommer « société d’honneur » en raison du poids des traditions qui concernent tout autant leur principale activité économique que leur formation identitaire constituée par des valeurs morales et des normes reliées à l’honneur. J’examine la relation du pouvoir avec la politique et la manière dont on construit le pouvoir politique ; le rapport qui existe entre l’honneur et le pouvoir, la manière dont les personnes construisent l’honneur à travers le pouvoir. Cette société subit l’impact croissant de pratiques et d’une idéologie modernisatrice, avec des prétentions d’institutionnalisation par les biais des intérêts nationaux étatiques. S’appuyant sur une méthodologie qui combine le travail dans les archives et la recherche prolongée sur le terrain cette thèse veut contribuer aux études sur les identités culturelles dans lesquelles l’honneur occupe une place centrale, dans le contexte de la relation entre les communautés éleveuses agricoles et l’État.
Resumo:
Ce projet de maîtrise porte sur l’interaction entre les acteurs locaux liés à la musique populaire et l’administration publique dans le cadre du projet public-privé de réaménagement du port de Rio de Janeiro intitulé Porto Maravilha. Le travail de recherche s’est axé sur l’idée que cette interaction serait essentiellement fondée sur la façon dont la “culture” est comprise et utilisée comme ressource capable d’ajouter de la valeur à l’espace urbain, différencier les groupes entre eux et apporter une sustentation au processus d’autonomisation et de légitimation des acteurs. De nouveaux paradigmes urbanistiques, tel celui de “ville créative” (Landry, 2005), proposent d’intégrer la culture locale dans l’élaboration et l’exécution des projets avec la participation d’artistes qui sont perçus comme une source de créativité fondamentale pour rendre la ville plus compétitive dans un monde devenu de plus en plus urbain. Dans cette veine, le projet Porto Maravilha s’inspire franchement des cas de succès de rénovation urbaine créative, stimulant la culture locale et idéalisant le port de Rio comme une “nouvelle carte postale du Brésil”. En partant de la constatation que les acteurs sociaux locaux identifient le potentiel de leurs activités culturelles comme une ressource importante dans ce contexte, nous analysons tout autant les stratégies et les discours élaborés que les ressources dont ils disposent afin d’affirmer leur agentivité. Au-delà de l’action intentionnelle, nous effectuons également des analyses de leurs pratiques culturelles au quotidien en recherchant les éléments qui les constituent. Nous questionnons, par ailleurs, la manière avec laquelle les administrateurs du projet comprennent ces activités musicales et comment ils gèrent les demandes sociales et les contributions créatives de ces groupes.
Resumo:
Ce mémoire porte sur l’évolution de l’antijudaïsme chez les intellectuels chrétiens parisiens, particulièrement chez Eudes de Châteauroux, lors du procès du Talmud, c’est-à-dire, entre les années 1240 – année où commence le procès – et 1248, année de la condamnation finale des textes talmudiques. Avec la création des universités au XIIe siècle prend place une curiosité intellectuelle croissante et un désir d’apprendre davantage. Parallèlement à cet essor, l’Église se renforce et une orthodoxie doctrinale commence à s’implanter, avec le désir toujours plus fort de contrôler et d’encadrer les fidèles. Lorsque Nicolas Donin dénonce le Talmud au souverain pontife, en 1239, Grégoire IX demande aux savants chrétiens de l’étudier et de l’analyser. Après examen, ces textes sont condamnés et les juifs accusés de se détourner de l’Ancien Testament pour suivre le Talmud, un livre rempli d’erreurs. Ainsi, ce que nous allons démontrer dans ce travail est que l’antijudaïsme virulent chez Eudes de Châteauroux, lors du procès du Talmud, vient d’une incompréhension des livres talmudiques.
Resumo:
Le travail décrit dans ce manuscrit vise à caractériser les voies de résistance aux inhibiteurs de CCR5. Lors d’une première étape, nous avons développé un test phénotypique clonal nous permettant d’une part d’identifier le tropisme viral et d’autre part de mesurer la résistance aux inhibiteurs des CCR5. Des virus à tropisme R5 ou X4 représentant aussi peu que 0,4% d’un mélange de populations virales sont détectables par ce test, démontrant ainsi sa sensibilité. De plus, grâce à son approche clonale, cette technique permet de différencier les virus à tropisme double de populations virales mixtes. Par la suite, nous avons étudié l’impact des mutations dans les régions variables de la protéine gp120 de l’enveloppe du virus VIH-1 sur la résistance aux inhibiteurs de CCR5. Pour ce faire, nous avons généré des virus résistants par passage des isolats CC1/85 et BAL, en présence de concentrations sous-inhibitrices de maraviroc (MVC) et vicriviroc (VCV). Après quelques passages du virus CC1/85 en présence de MVC, certaines sont apparues dans differentes régions de la gp120. Par la suite, nous avons sélectionné trois mutations dans les domaines variables de la gp 120, V169M en V2, L317W en V3 et I408T en V4 pour construire des virus contenant des mutations simples, doubles et triples afin d’évaluer la contribution des mutations individuelles ou combinées au phénotype de résistance. Nous avons déterminé la sensibilité de chaque mutant à MVC et VCV, le pourcentage d’infectivité et le tropisme viral par rapport au phénotype sauvage. Tous les mutants ont conservé le tropisme R5 et ont montré une diminution d’infectivité par rapport au contrôle. Nos résultats ont montré que les mutants qui portent des mutations en V4 (I408T) ont eu le plus d'impact sur la susceptibilité au MVC. Finalement, nous avons voulu évaluer l’activité antivirale d’un nouvel inhibiteur de CCR5, VCH-286 avec d’autres inhibiteurs de CCR5 tels que MVC et VVC ainsi que ses interactions avec des médicaments représentatifs de différentes classes d’antirétroviraux ARV employés en clinique pour traiter le HIV/SIDA., afin d’évaluer si ces médicaments pourraient être utilisés dans un même régime thérapeutique. Nous avons tout d’abord évalué indépendamment l’activité antivirale des trois inhibiteurs de CCR5 : VCH-286, MVC et VVC. Par la suite nous avons évalué les interactions de VCH-286 avec MVC et VVC. Finalement nous avons évalué les interactions de VCH-286 avec d’autres médicaments antirétroviraux. Ces études ont montré que VCH-286 est un inhibiteur puissant de CCR5 avec une activité antivirale in vitro de l’ordre du nanomolaire et des interactions médicamenteuses favorables avec la majorité des ARV tels que les inhibiteurs de transcriptase inverse, de protéase, d’intégrase, et de fusion employés en clinique pour traiter le VIH/SIDA et des interactions allant de synergie à l'antagonisme avec les inhibiteurs de CCR5. Nos résultats montrent que la plasticité de l’enveloppe virale du VIH-1 a des répercussions sur la résistance aux inhibiteurs de CCR5, le tropisme et la possible utilisation de ces molécules en combinaison avec d’autres molécules appartenant à la même classe.
Resumo:
La production de biodiésel par des microalgues est intéressante à plusieurs niveaux. Dans le premier chapitre, un éventail de pour et contres concernant l’utilisation de microalgues pour la production de biocarburant sont ici révisés. La culture d’algues peut s'effectuer en utilisant des terres non-arables, de l’eau non-potable et des nutriments de base. De plus, la biomasse produite par les algues est considérablement plus importante que celle de plantes vasculaires. Plusieurs espèces on le contenu lipidique en forme de triacylglycérols (TAGs), qui peut correspondre jusqu'à 30% - 40% du poids sec de la biomasse. Ces proportions sont considérablement plus élevées que celui des huiles contenues dans les graines actuellement utilisées pour le biodiésel de première génération. Par contre, une production pratique et peu couteuse de biocarburant par des microalgues requiert de surpasser plusieurs obstacles. Ceci inclut le développement de systèmes de culture efficace à faible coût, de techniques de récupération requérant peu d’énergie, et de méthodes d’extraction et de conversion de l’huile non-dommageables pour l’environnement et peu couteuses. Le deuxième chapitre explore l'une des questions importantes soulevées dans le premier chapitre: la sélection d'une souche pour la culture. Une collection de souches de microalgues d'eau douce indigène au Québec a été établi et examiné au niveau de la diversité physiologique. Cette collection est composée de cent souches, que apparaissaient très hétérogènes en terme de croissance lorsque mises en culture à 10±2 °C ou 22±2 °C sur un effluent secondaire d’une usine municipale de traitement des eaux usées (EU), défini comme milieu Bold's Basal Medium (BBM). Des diagrammes de dispersion ont été utilisés pour étudier la diversité physiologique au sein de la collection, montrant plusieurs résultats intéressants. Il y avait une dispersion appréciable dans les taux de croissance selon les différents types de milieux et indépendamment de la température. De manière intéressante, en considérant que tous les isolats avaient initialement été enrichis sur milieu BBM, la distribution était plutôt symétrique autour de la ligne d’iso-croissance, suggérant que l’enrichissement sur BBM n’a pas semblé biaiser la croissance des souches sur ce milieu par rapport aux EU. Également, considérant que les isolats avaient d’abord été enrichis à 22°C, il est assez surprenant que la distribution de taux de croissance spécifiques soit aussi symétrique autour de la ligne d’iso-croissance, avec grossièrement des nombres égaux d’isolats de part et d’autre. Ainsi, l’enrichissement à 22°C ne semble pas biaiser les cellules vers une croissance à cette température plutôt que vers 10°C. Les diagrammes de dispersion obtenus lorsque le pourcentage en lipides de cultures sur BBM ont été comparées à des cultures ayant poussé sur EU soit à 10°C ou 22°C rendent évident que la production de lipides est favorisée par la culture sur EU aux deux températures, et que la production lipidique ne semble pas particulièrement plus favorisée par l’une ou l’autre de ces températures. Lorsque la collection a été examinée pour y déceler des différences avec le site d’échantillonnage, une analyse statistique a montré grossièrement que le même degré de diversité physiologique était retrouvé dans les échantillons des deux différents sites. Le troisième chapitre a poursuivi l'évaluation de la culture d'algues au Québec. L’utilisation de déchets industriels riches en nutriments minéraux et en sources de carbone pour augmenter la biomasse finale en microalgues et le produit lipidique à faible coût est une stratégie importante pour rendre viable la technologie des biocarburants par les algues. Par l’utilisation de souches de la collection de microalgues de l’Université de Montréal, ce rapport montre pour la première fois que des souches de microalgues peuvent pousser en présence de xylose, la source de carbone majoritairement retrouvée dans les eaux usées provenant des usines de pâte et papier, avec une hausse du taux de croissance de 2,8 fois par rapport à la croissance photoautotrophe, atteignant jusqu’à µ=1,1/jour. En présence de glycérol, les taux de croissance atteignaient des valeurs aussi élevées que µ=1,52/jour. La production lipidique augmentait jusqu’à 370% en présence de glycérol et 180% avec le xylose pour la souche LB1H10, démontrant que cette souche est appropriée pour le développement ultérieur de biocarburants en culture mixotrophe. L'ajout de xylose en cultures d'algues a montré certains effets inattendus. Le quatrième chapitre de ce travail a porté à comprendre ces effets sur la croissance des microalgues et la production de lipides. Quatre souches sauvages indigènes ont été obersvées quotidiennement, avant et après l’ajout de xylose, par cytométrie en flux. Avec quelques souches de Chlorella, l’ajout de xylose induisait une hausse rapide de l’accumulation de lipide (jusqu’à 3,3 fois) pendant les premières six à douze heures. Aux temps subséquents, les cellules montraient une diminution du contenu en chlorophylle, de leur taille et de leur nombre. Par contre, l’unique membre de la famille des Scenedesmaceae avait la capacité de profiter de la présence de cette source de carbone sous culture mixotrophe ou hétérotrophe sans effet négatif apparent. Ces résultats suggèrent que le xylose puisse être utilisé avant la récolte afin de stimuler l’augmentation du contenu lipidique de la culture d’algues, soit en système de culture continu ou à deux étapes, permettant la biorestauration des eaux usées provenant de l’industrie des pâtes et papiers. Le cinquième chapitre aborde une autre déché industriel important: le dioxyde de carbone et les gaz à effet de serre. Plus de la moitié du dioxyde de carbone qui est émis dans l'atmosphère chaque jour est dégagé par un processus stationnaire, soit pour la production d’électricité ou pour la fabrication industrielle. La libération de CO2 par ces sources pourrait être atténuée grâce à la biorestauration avec microalgues, une matière première putative pour les biocarburants. Néanmoins, toutes les cheminées dégagent un gaz différent, et la sélection des souches d'algues est vitale. Ainsi, ce travail propose l'utilisation d’un état de site particulier pour la bioprospection de souches d'algues pour être utilisé dans le processus de biorestauration. Les résultats montrent que l'utilisation d'un processus d'enrichissement simple lors de l'étape d'isolement peut sélectionner des souches qui étaient en moyenne 43,2% mieux performantes dans la production de biomasse que les souches isolées par des méthodes traditionnelles. Les souches isolées dans ce travail étaient capables d'assimiler le dioxyde de carbone à un taux supérieur à la moyenne, comparées à des résultats récents de la littérature.
Resumo:
La recherche, construction et révision de l’identité nationale ont très longtemps constitué les éléments propulseurs de la production littéraire et intellectuelle de Porto Rico. Pourtant vers le milieu des années 90, un nouveau consensus émerge entre les écrivains qui revendiquent massivement la fin de la littérature en tant que lieu d’où forger la conscience nationale et refuse le leadership intellectuel qui avait jusqu’alors définit le travail littéraire. Les auteurs qui commencent à se manifester à ce moment se désintéressent du nationalisme comme thème littéraire. Le militantisme politique et la volonté de confrontation, modes représentationnels caractéristiques de la génération antérieure, disparaissent pour laisser place à une écriture exploratoire, centrée sur ses propres procédés, et apparemment apolitique. Une telle perte d’ancrages nationaux et territoriaux est significative de la conscience exacerbée que possèdent ces écrivains de la complexité des dynamiques culturelles qui régissent le monde postmoderne et globalisé, ainsi que de la « valeur » et de la position « marginale » qu’on leur attribue dans l’écologie mass-médiatique culturelle actuelle. La production narrative de Mayra Santos-Febres est paradigmatique de ces changements. J’aborde dans son écriture une série de dispositifs métalittéraires, autoréflexifs, « érographiques », et historiographiques qui, bien qu’ils résistent à une catégorisation homogène, démontrent un même intérêt pour des phénomènes interstitiels. En me basant sur les concepts de liminalité, principalement depuis la perspective de Victor Turner et d’écriture auto-réflexive (Patricia Waugh, Linda Hutcheon), j’analyse le positionnement liminal qu’assume Santos-Febres dans la structure culturelle globalisée actuelle, et la façon dont sa prise de position, également liminale, c’est-à-dire, sa prise de parole et son engagement se traduisent par un rapprochement narcissique à l’exercice littéraire autant dans les formes qu’elle crée qu’au niveau sémantique, narratif et discursif. Le premier chapitre analyse les contes « Dilcia M. » et « Acto de Fe » (Pez de vidrio) comme témoignages de l’érosion du patriotisme et militantisme antérieur; « La escritora» (Pez de vidrio) qui marque pour l’auteure un passage vers une esthétique centrée sus ses propres procédés créatifs; et le roman Cualquier miércoles soy tuya qui dramatise le positionnement assumé par les écrivains dans la chaine culturelle globalisée actuelle. Le second chapitre aborde la configuration des corps, espaces urbains et de l’écriture dans El cuerpo correcto qui, à travers une exubérance sexuelle/textuelle, projette des variantes réactualisées de la traditionnelle dichotomie corps/écriture. Le troisième chapitre se penche sur la configuration du travesti dans Sirena Selena vestida de pena. J’y propose de voir le travestisme, le boléro et l’écriture comme un triple exercice métalittéraire. Le dernier chapitre aborde le procédé de re-signification littéraire des images sédimentées de subordination et d’infériorité de sujet « noir ». Nuestra Señora de la Noche se penche sur la re-signification de l’hyper-sexualisation et « exotisation » qui a cimenté la construction de « l’immoralité » de la femme noire. Fe en disfraz aborde le sadomasochisme comme espace de re-signification des schèmes de domination et soumission inscrits dans l’histoire esclavagiste de Porto Rico et du trauma qui origine, et subsiste, d’une telle hiérarchie.
Resumo:
Le travail d’équipe et la collaboration interprofessionnelle aux soins intensifs sont essentiels pour prodiguer des soins de qualité aux patients et pour leur sécurité. Cependant, les multiples interactions que nécessite une collaboration dans un contexte de soins aigus sont susceptibles de causer des tensions, des conflits et un travail inefficace dans l’équipe. Les déterminants de cette collaboration en soins intensifs ne sont pas encore bien identifiés. L'objectif de cette recherche est d'identifier et d'évaluer l’importance relative des déterminants susceptibles d’influencer la collaboration interprofessionnelle dans une équipe de soins intensifs. Un questionnaire évaluant ces déterminants a été élaboré et rempli par des professionnels de la santé travaillant dans quatre unités de soins intensifs d’un hôpital universitaire de Montréal. Un total de 312 professionnels, dont 46 médecins, 187 infirmières et 62 inhalothérapeutes, ont rempli le questionnaire. Des modèles d'analyses de régression multiple par hiérarchisation ont permis de déterminer que la « clarté du travail et des processus » , la « confiance et le respect » , mais tout particulièrement la « participation aux décisions » sont des déterminants statistiquement significatifs pour prédire la collaboration dans une équipe de soins intensifs. Une analyse de sous-groupe suggère des différences entre les médecins et les infirmières sur la perception de ces déterminants. Ces résultats apportent de nouveaux éléments dans la compréhension de la pratique de la collaboration et du travail d’équipe dans une équipe de soins intensifs, en précisant mieux ses déterminants. Sur le plan pratique, cela implique qu'il faille : i) favoriser un développement de la compétence de « collaboration » des professionnels travaillant dans le milieu des soins intensifs ; ii) cibler l’apprentissage auprès de ces professionnels en tenant compte des déterminants de la collaboration identifiés dans la présente étude.
Resumo:
La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.
Resumo:
Introduction. In utero, l’infection des membranes maternelles et fœtales, la chorioamniotite, passe souvent inaperçue et, en particulier lorsque associée à une acidémie, due à l’occlusion du cordon ombilical (OCO), comme il se produirait au cours du travail, peut entrainer des lésions cérébrales et avoir des répercussions neurologiques péri - et postnatales à long terme chez le fœtus. Il n'existe actuellement aucun moyen de détecter précocement ces conditions pathologiques in utéro afin de prévenir ou de limiter ces atteintes. Hypothèses. 1)l’électroencéphalogramme (EEG) fœtal obtenu du scalp fœtal pourrait servir d’outil auxiliaire à la surveillance électronique fœtale du rythme cardiaque fœtal (RCF) pour la détection précoce d'acidémie fœtale et d'agression neurologique; 2) la fréquence d’échantillonnage de l’ECG fœtal (ECGf) a un impact important sur le monitoring continu de la Variabilité du Rythme Cardiaque (VRCf) dans la prédiction de l’acidémie fœtale ; 3) les patrons de la corrélation de la VRCf aux cytokines pro-inflammatoires refléteront les états de réponses spontanées versus inflammatoires de la Voie Cholinergique Anti-inflammatoire (VCA); 4) grâce au développement d’un modèle de prédictions mathématiques, la prédiction du pH et de l’excès de base (EB) à la naissance sera possible avec seulement une heure de monitoring d’ECGf. Méthodes. Dans une série d’études fondamentales et cliniques, en utilisant respectivement le mouton et une cohorte de femmes en travail comme modèle expérimental et clinique , nous avons modélisé 1) une situation d’hypoxie cérébrale résultant de séquences d’occlusion du cordon ombilical de sévérité croissante jusqu’à atteindre un pH critique limite de 7.00 comme méthode expérimentale analogue au travail humain pour tester les première et deuxième hypothèses 2) un inflammation fœtale modérée en administrant le LPS à une autre cohorte animale pour vérifier la troisième hypothèse et 3) un modèle mathématique de prédictions à partir de paramètres et mesures validés cliniquement qui permettraient de déterminer les facteurs de prédiction d’une détresse fœtale pour tester la dernière hypothèse. Résultats. Les séries d’OCO répétitives se sont soldés par une acidose marquée (pH artériel 7.35±0.01 à 7.00±0.01), une diminution des amplitudes à l'électroencéphalogramme( EEG) synchronisé avec les décélérations du RCF induites par les OCO accompagnées d'une baisse pathologique de la pression artérielle (PA) et une augmentation marquée de VRCf avec hypoxie-acidémie aggravante à 1000 Hz, mais pas à 4 Hz, fréquence d’échantillonnage utilisée en clinique. L’administration du LPS entraîne une inflammation systémique chez le fœtus avec les IL-6 atteignant un pic 3 h après et des modifications de la VRCf retraçant précisément ce profil temporel des cytokines. En clinique, avec nos cohortes originale et de validation, un modèle statistique basée sur une matrice de 103 mesures de VRCf (R2 = 0,90, P < 0,001) permettent de prédire le pH mais pas l’EB, avec une heure d’enregistrement du RCF avant la poussée. Conclusions. La diminution de l'amplitude à l'EEG suggère un mécanisme d'arrêt adaptatif neuroprotecteur du cerveau et suggère que l'EEG fœtal puisse être un complément utile à la surveillance du RCF pendant le travail à haut risque chez la femme. La VRCf étant capable de détecter une hypoxie-acidémie aggravante tôt chez le fœtus à 1000Hz vs 4 Hz évoque qu’un mode d'acquisition d’ECG fœtal plus sensible pourrait constituer une solution. Des profils distinctifs de mesures de la VRCf, identifiés en corrélation avec les niveaux de l'inflammation, ouvre une nouvelle voie pour caractériser le profil inflammatoire de la réponse fœtale à l’infection. En clinique, un monitoring de chevet de prédiction du pH et EB à la naissance, à partir de mesures de VRCf permettrait des interprétations visuelles plus explicites pour des prises de décision plus exactes en obstétrique au cours du travail.