999 resultados para classification des Systèmes de Recommandation


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’autophagie est une voie hautement conservée de dégradation lysosomale des constituants cellulaires qui est essentiel à l’homéostasie cellulaire et contribue à l’apprêtement et à la présentation des antigènes. Les rôles relativement récents de l'autophagie dans l'immunité innée et acquise sous-tendent de nouveaux paradigmes immunologiques pouvant faciliter le développement de nouvelles thérapies où la dérégulation de l’autophagie est associée à des maladies auto-immunes. Cependant, l'étude in vivo de la réponse autophagique est difficile en raison du nombre limité de méthodes d'analyse pouvant fournir une définition dynamique des protéines clés impliquées dans cette voie. En conséquence, nous avons développé un programme de recherche en protéomique intégrée afin d’identifier et de quantifier les proteines associées à l'autophagie et de déterminer les mécanismes moléculaires régissant les fonctions de l’autophagosome dans la présentation antigénique en utilisant une approche de biologie des systèmes. Pour étudier comment l'autophagie et la présentation antigénique sont activement régulés dans les macrophages, nous avons d'abord procédé à une étude protéomique à grande échelle sous différentes conditions connues pour stimuler l'autophagie, tels l’activation par les cytokines et l’infection virale. La cytokine tumor necrosis factor-alpha (TNF-alpha) est l'une des principales cytokines pro-inflammatoires qui intervient dans les réactions locales et systémiques afin de développer une réponse immune adaptative. La protéomique quantitative d'extraits membranaires de macrophages contrôles et stimulés avec le TNF-alpha a révélé que l'activation des macrophages a entrainé la dégradation de protéines mitochondriales et des changements d’abondance de plusieurs protéines impliquées dans le trafic vésiculaire et la réponse immunitaire. Nous avons constaté que la dégradation des protéines mitochondriales était sous le contrôle de la voie ATG5, et était spécifique au TNF-alpha. En outre, l’utilisation d’un nouveau système de présentation antigènique, nous a permi de constater que l'induction de la mitophagie par le TNF-alpha a entrainée l’apprêtement et la présentation d’antigènes mitochondriaux par des molécules du CMH de classe I, contribuant ainsi la variation du répertoire immunopeptidomique à la surface cellulaire. Ces résultats mettent en évidence un rôle insoupçonné du TNF-alpha dans la mitophagie et permet une meilleure compréhension des mécanismes responsables de la présentation d’auto-antigènes par les molécules du CMH de classe I. Une interaction complexe existe également entre infection virale et l'autophagie. Récemment, notre laboratoire a fourni une première preuve suggérant que la macroautophagie peut contribuer à la présentation de protéines virales par les molécules du CMH de classe I lors de l’infection virale par l'herpès simplex virus de type 1 (HSV-1). Le virus HSV1 fait parti des virus humains les plus complexes et les plus répandues. Bien que la composition des particules virales a été étudiée précédemment, on connaît moins bien l'expression de l'ensemble du protéome viral lors de l’infection des cellules hôtes. Afin de caractériser les changements dynamiques de l’expression des protéines virales lors de l’infection, nous avons analysé par LC-MS/MS le protéome du HSV1 dans les macrophages infectés. Ces analyses nous ont permis d’identifier un total de 67 protéines virales structurales et non structurales (82% du protéome HSV1) en utilisant le spectromètre de masse LTQ-Orbitrap. Nous avons également identifié 90 nouveaux sites de phosphorylation et de dix nouveaux sites d’ubiquitylation sur différentes protéines virales. Suite à l’ubiquitylation, les protéines virales peuvent se localiser au noyau ou participer à des événements de fusion avec la membrane nucléaire, suggérant ainsi que cette modification pourrait influer le trafic vésiculaire des protéines virales. Le traitement avec des inhibiteurs de la réplication de l'ADN induit des changements sur l'abondance et la modification des protéines virales, mettant en évidence l'interdépendance des protéines virales au cours du cycle de vie du virus. Compte tenu de l'importance de la dynamique d'expression, de l’ubiquitylation et la phosphorylation sur la fonction des proteines virales, ces résultats ouvriront la voie vers de nouvelles études sur la biologie des virus de l'herpès. Fait intéressant, l'infection HSV1 dans les macrophages déclenche une nouvelle forme d'autophagie qui diffère remarquablement de la macroautophagie. Ce processus, appelé autophagie associée à l’enveloppe nucléaire (nuclear envelope derived autophagy, NEDA), conduit à la formation de vésicules membranaires contenant 4 couches lipidiques provenant de l'enveloppe nucléaire où on retrouve une grande proportion de certaines protéines virales, telle la glycoprotéine B. Les mécanismes régissant NEDA et leur importance lors de l’infection virale sont encore méconnus. En utilisant un essai de présentation antigénique, nous avons pu montrer que la voie NEDA est indépendante d’ATG5 et participe à l’apprêtement et la présentation d’antigènes viraux par le CMH de classe I. Pour comprendre l'implication de NEDA dans la présentation des antigènes, il est essentiel de caractériser le protéome des autophagosomes isolés à partir de macrophages infectés par HSV1. Aussi, nous avons développé une nouvelle approche de fractionnement basé sur l’isolation de lysosomes chargés de billes de latex, nous permettant ainsi d’obtenir des extraits cellulaires enrichis en autophagosomes. Le transfert des antigènes HSV1 dans les autophagosomes a été determine par protéomique quantitative. Les protéines provenant de l’enveloppe nucléaire ont été préférentiellement transférées dans les autophagosome lors de l'infection des macrophages par le HSV1. Les analyses protéomiques d’autophagosomes impliquant NEDA ou la macroautophagie ont permis de decouvrir des mécanismes jouant un rôle clé dans l’immunodominance de la glycoprotéine B lors de l'infection HSV1. Ces analyses ont également révélées que diverses voies autophagiques peuvent être induites pour favoriser la capture sélective de protéines virales, façonnant de façon dynamique la nature de la réponse immunitaire lors d'une infection. En conclusion, l'application des méthodes de protéomique quantitative a joué un rôle clé dans l'identification et la quantification des protéines ayant des rôles importants dans la régulation de l'autophagie chez les macrophages, et nous a permis d'identifier les changements qui se produisent lors de la formation des autophagosomes lors de maladies inflammatoires ou d’infection virale. En outre, notre approche de biologie des systèmes, qui combine la protéomique quantitative basée sur la spectrométrie de masse avec des essais fonctionnels tels la présentation antigénique, nous a permis d’acquérir de nouvelles connaissances sur les mécanismes moléculaires régissant les fonctions de l'autophagie lors de la présentation antigénique. Une meilleure compréhension de ces mécanismes permettra de réduire les effets nuisibles de l'immunodominance suite à l'infection virale ou lors du développement du cancer en mettant en place une réponse immunitaire appropriée.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Un protocole inspiré du test de simulation 309 de l’Organisation de coopération et de développement économiques (OCDE) nous a permis de mesurer la dégradation chimique (excluant la photolyse) dans des eaux de surface de même que la dégradation chimique et biologique de neuf contaminants émergents dans l’effluent d’un décanteur primaire d’eau usée municipale. Les données étaient compatibles avec le modèle de cinétique de pseudo ordre un. Les résultats démontrant une persistance de plus d’un an dans les eaux de surface et de 71 jours dans l’effluent du décanteur primaire suggèrent que les dégradations chimique et biologique ne contribuent pas significativement à la diminution de: atrazine, déséthylatrazine, carbamazépine et diclofénac dans la phase aqueuse des systèmes testés. Les autres composés se sont dégradés à différents niveaux. Le 17ß-estradiol ainsi que l’éthinylestradiol, la noréthindrone, la caféine et le sulfaméthoxazole ont tous été sujet à la dégradation biologique dans les effluents du décanteur primaire d’eau usée avec des constantes de dégradation k et des demi-vies t1/2 mesurées allant respectivement de 0.0082 à 0.59 j-1 et de 1.2 à 85 jours. Les paramètres de cinétique mesurés peuvent être combinés aux concentrations typiques des composés à l’étude dans un décanteur primaire d’eau usée pour y calculer leur vitesse de dégradation. Cependant, puisque les décanteurs primaires dans les usines de traitement d’eaux usées ont généralement des temps de résidence de quelques heures seulement, il est improbable que les neufs contaminants émergents à l’étude diminuent significativement par ces processus durant leur passage dans le compartiment.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La perception est de plus en plus reconnue comme fondamentale à la compréhension du phénotype autistique. La première description de l’autisme, par Kanner en 1947, fait état d’un profil cognitif hétérogène caractérisé par des habiletés exceptionnelles à l’intérieur de domaines spécifiques de la perception (ex., la musique). L’accumulation des observations cliniques sur la présence de particularités perceptives a mené à l’élaboration d’études empiriques permettant d’objectiver des surfonctionnements dans le traitement élémentaire de l’information perceptive dans l’autisme. Parallèlement, des études cognitives suggèrent la présence d’une « intelligence différente » chez les personnes autistes. Celle-ci serait caractérisée par une dissociation entre des performances à différents tests d’intelligence fortement corrélés ensemble chez les personnes typiques. Le potentiel intellectuel des personnes autistes serait sous-estimé lorsque mesuré par l’échelle de Wechsler, plutôt que des mesures d’intelligence fluide comme les Matrices Progressives de Raven. Avec l’appui d’études en imagerie cérébrale, ces résultats suggèrent une relation unique entre la perception et l’intelligence chez cette population clinique. Étant donné l’accumulation de preuves sur 1) la présence d’atypies perceptuelles, 2) le rôle différent de la perception dans l’intelligence et 3) l’importance des comportements répétitifs et intérêts restreints dans le phénotype autistique (DSM-5), le premier volet de cette thèse s’est intéressé à la relation entre les performances perceptives des personnes autistes et celle des personnes ayant un développement typique, au-dede ce qui est expliqué par l’intelligence. À l’aide de modèles de régression linéaire, les résultats démontrent un profil de covariation spécifique à l’autisme pour les habiletés plurimodales. Contrairement aux personnes ayant un développement typique, ces associations persistent au-dede ce qui est expliqué par l’intelligence générale ou par l’efficacité générale des systèmes perceptifs. Ce profil de covariation résiduelle propre aux personnes autistes suggère la présence d’un facteur plurimodal spécifique à ce groupe clinique : le facteur « p ». Le deuxième volet de cette thèse s’est intéressé à la prévalence des habiletés exceptionnelles au niveau individuel, la relation les forces perceptives et les talents, ainsi qu’aux facteurs de prédisposition en lien avec le développement d’habiletés exceptionnelles. Les forces perceptives des personnes autistes furent évaluées à l’aide de tâches expérimentales sensibles à la détection de surfonctionnements perceptifs, soit une tâche de discrimination de hauteurs sonores et une version modifiée du sous-test « Blocs » de l’échelle d’intelligence de Wechsler. Les talents furent évalués de manière clinique à l’aide de l’ADI-R (« Autism Diagnostic Interview-Revised »). Les données indiquent que 88.4 % des personnes autistes avec une intelligence dans la normale présentent au moins une habileté exceptionnelle (force perceptive ou talent). Les talents sont rapportés chez 62.5 % des cas et les forces perceptives se retrouvent chez 58 % des cas. La cooccurrence des forces perceptives entre les modalités perceptives est relativement peu fréquente (24 % à 27 %) et la présence d’un talent dans une modalité n’augmente pas les chances de présenter une force perceptive dans une même modalité. Une plus grande intelligence augmente les chances de présenter au moins un talent. En revanche, une intelligence plus faible, mais se situant tout de même dans les limites de la normale, est associée à un profil cognitif plus hétérogène avec des forces perceptives plus fréquentes. En somme, l’intelligence autistique serait caractérisée par un rôle plus important de la perception, indépendamment des surfonctionnements perceptifs. Cette particularité cognitive se manifesterait par la présence d’un facteur plurimodal, « p », spécifique à l’autisme. Théoriquement, le facteur « p » reflèterait des modifications innées (ou « hardwired ») dans l’organisation corticale des microcircuits responsables de l'encodage des dimensions perceptives élémentaires. En revanche, une faible association intermodale entre les forces perceptives suggère que des modifications corticales sont essentielles, mais non suffisantes pour le développement d’habiletés exceptionnelles. Par des processus de plasticité, des modifications corticales auraient des répercussions sur le phénotype autistique en offrant une base plus « fertile » pour le développement d’habiletés exceptionnelles, voire savantes, lorsque la personne autiste serait exposée à des expériences de vie avantageuses. Par ailleurs, les résultats de cette thèse, combinés à la littérature existante sur l’intelligence et l’apprentissage des personnes autistes, nous amènent à réfléchir sur les approches d’évaluation et d’intervention les mieux adaptées au fonctionnement spécifique de cette population clinique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans les crypto-monnaies telles Bitcoin, l’anonymité des utilisateurs peut être compromise de plusieurs façons. Dans ce mémoire, nous effectuons une revue de littérature et une classification des différents protocoles existants pour anonymiser les usagers et analysons leur efficacité. S’appuyant sur certains critères désirables dans de tels protocoles, nous proposons un modèle de mixeur synchrone décentralisé. Nous avons ciblé deux approches qui s’inscrivent dans ce modèle, le plan de transaction et le réseau de transactions, le second étant une contribution originale de ce mémoire. Nous expliquons son fonctionnement puis analysons son efficacité dans le contexte actuel d’utilisation de Bitcoin

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'objectif de cette thèse est de présenter différentes applications du programme de recherche de calcul conditionnel distribué. On espère que ces applications, ainsi que la théorie présentée ici, mènera à une solution générale du problème d'intelligence artificielle, en particulier en ce qui a trait à la nécessité d'efficience. La vision du calcul conditionnel distribué consiste à accélérer l'évaluation et l'entraînement de modèles profonds, ce qui est très différent de l'objectif usuel d'améliorer sa capacité de généralisation et d'optimisation. Le travail présenté ici a des liens étroits avec les modèles de type mélange d'experts. Dans le chapitre 2, nous présentons un nouvel algorithme d'apprentissage profond qui utilise une forme simple d'apprentissage par renforcement sur un modèle d'arbre de décisions à base de réseau de neurones. Nous démontrons la nécessité d'une contrainte d'équilibre pour maintenir la distribution d'exemples aux experts uniforme et empêcher les monopoles. Pour rendre le calcul efficient, l'entrainement et l'évaluation sont contraints à être éparse en utilisant un routeur échantillonnant des experts d'une distribution multinomiale étant donné un exemple. Dans le chapitre 3, nous présentons un nouveau modèle profond constitué d'une représentation éparse divisée en segments d'experts. Un modèle de langue à base de réseau de neurones est construit à partir des transformations éparses entre ces segments. L'opération éparse par bloc est implémentée pour utilisation sur des cartes graphiques. Sa vitesse est comparée à deux opérations denses du même calibre pour démontrer le gain réel de calcul qui peut être obtenu. Un modèle profond utilisant des opérations éparses contrôlées par un routeur distinct des experts est entraîné sur un ensemble de données d'un milliard de mots. Un nouvel algorithme de partitionnement de données est appliqué sur un ensemble de mots pour hiérarchiser la couche de sortie d'un modèle de langage, la rendant ainsi beaucoup plus efficiente. Le travail présenté dans cette thèse est au centre de la vision de calcul conditionnel distribué émis par Yoshua Bengio. Elle tente d'appliquer la recherche dans le domaine des mélanges d'experts aux modèles profonds pour améliorer leur vitesse ainsi que leur capacité d'optimisation. Nous croyons que la théorie et les expériences de cette thèse sont une étape importante sur la voie du calcul conditionnel distribué car elle cadre bien le problème, surtout en ce qui concerne la compétitivité des systèmes d'experts.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans l'optique d'améliorer la performance des services de santé en première ligne, un projet d'implantation d'une adaptation québécoise d'un modèle de soins centré sur le patient appuyé par un dossier médical personnel (DMP) a été mis sur pied au sein d'un groupe dedecine familiale (GMF) de la région de Montréal. Ainsi, ce mémoire constitue une analyse comparative entre la logique de l'intervention telle qu'elle est décrite dans les données probantes concernant les modèles de soins centrés sur le patient et le dossier médical personnel ainsi que la logique de l'intervention issue de nos résultats obtenus dans le cadre de ce projet au sein d'un GMF. L'analyse organisationnelle se situe durant la phase de pré-déploiement de l'intervention. Les principaux résultats sont que la logique d'intervention appliquée dans le cadre du projet est relativement éloignée de ce qui se fait de mieux dans la littérature sur le sujet. Ceci est en partie explicable par les différentes résistances en provenance des acteurs du projet (ex. médecins, infirmières, fournisseur technologique) dans le projet, mais aussi par l'absence de l'interopérabilité entre le DMP et le dossier médical électronique (DME). Par ailleurs, les principaux effets attendus par les acteurs impliqués sont l'amélioration de la continuité informationnelle, de l’efficacité-service, de la globalité et de la productivité. En outre, l’implantation d’un modèle centré sur le patient appuyé par un DMP impliquerait la mise en œuvre d’importantes transformations structurelles comme une révision du cadre législatif (ex. responsabilité médicale) et des modes de rémunérations des professionnels de la santé, sans quoi, les effets significatifs sur les dimensions de la performance comme l’accessibilité, la qualité, la continuité, la globalité, la productivité, l’efficacité et la réactivité pourraient être limités. Ces aménagements structuraux devraient favoriser la collaboration interprofessionnelle, l'interopérabilité des systèmes, l’amélioration de la communication multidirectionnelle (patient-professionnel de la santé) ainsi qu'une autogestion de la santé supportée (ex. éducation, prévention, transparence) par les professionnels de la santé.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Depuis les années cinquante la sociologie a été concernée par le phénomène des mouvements sociaux. Diverses théories ont essayé de les expliquer. Du collective behaviour à la mobilisation des ressources, par l`entremise de processus politiques, et de la perspective de framing jusqu'à la théorie des nouveaux mouvements sociaux, la sociologie a trouvé certains moyens pour expliquer ces phénomènes. Bien que toutes ces perspectives couvrent et saisissent des facettes importantes des angles de l'action collective, ils le font de manière disparate, en regardant un côté et en omettant l'autre. Les différences entre les points de vue proviennent, d'une part, d'un changement dans les contextes sociaux, historiques et scientifiques, et d'autre part du fait que les différentes approches ne posent pas les mêmes questions, même si certaines questions se chevauchent. Poser des questions différentes amène à considérer des aspects différents. En conséquence, ce n'est pas seulement une question de donner une réponse différente à la même question, mais aussi une question de regarder le même objet d'étude, à partir d'un angle différent. Cette situation réside à la base de la première partie de ma thèse principale: le champ de la théorie des mouvements sociaux n'est pas suffisant, ni suffisamment intégré pour expliquer l'action collective et nous avons besoin d'une théorie plus complète afin d'obtenir une meilleure compréhension des mouvements et la façon dont ils remplissent leur rôle de précurseurs de changement dans la société. Par conséquent, je considère que nous avons besoin d'une théorie qui est en mesure d'examiner tous les aspects des mouvements en même temps et, en outre, est capable de regarder au-dede la forme de l'objet d’étude afin de se concentrer sur l'objet lui-même. Cela m'amène à la deuxième partie de l'argument, qui est l'affirmation selon laquelle la théorie générale des systèmes telle que formulée par Niklas Luhmann peut contribuer à une meilleure compréhension de l'action collective. Il s'agit d'une théorie intégrale qui peut compléter le domaine de la théorie de l`action collective en nous fournissant les outils nécessaires pour rechercher dynamiquement les mouvements sociaux et de les comprendre dans le contexte social en perpétuel changement. Une analyse du mouvement environnementaliste sera utilisé pour montrer comment les outils fournis par cette théorie nous permettent de mieux comprendre non seulement les mouvements sociaux, mais également le contexte dans lequel ils fonctionnent, comment ils remplissent leur rôle, comment ils évoluent et comment ils changent aussi la société.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse est une exploration de mon processus compositionnel. En tentant de comprendre comment s’organise ma pensée créatrice, j’ai dégagé trois observations : l’organicisme du processus et des œuvres, la notion de mouvement et la relation récursive entre la matière et le compositeur. Ces thèmes m’ont amené à établir un lien épistémologique entre la composition musicale et l’étude des systèmes complexes. Dans ce cadre systémique, j’ai établi que les informations qui motivent mes prises de décision artistiques ont entre elles des ramifications opérationnelles et structurelles qui évoquent une arborescence rhizomatique plutôt qu’une hiérarchie linéaire. La transdisciplinarité propre à la systémique m’a également permis d’introduire des notions provenant d’autres champs de recherche. S’articulant d’emblée avec mon processus compositionnel, ces notions m’ont procuré une vision holistique de ma démarche artistique. Conséquemment, je considère l’acte de composer comme une interaction entre ma conscience et tout ce qui peut émaner de la matière sonore, les deux s’informant l’une et l’autre dans une boucle récursive que je nomme action⟳perception. L’œuvre ainsi produite n’est pas exclusivement tributaire de ma propre volition puisque, au fil du processus, mes décisions opératoires et artistiques sont en grande partie guidées par les propriétés invariantes et les propriétés morphogéniques inhérentes au matériau sonore. Cette approche dynamique n’est possible que si l’interaction avec le compositeur se fait en temps réel, ce que permet la lutherie numérique. Les résultats de mes recherches m’ont guidé dans la composition d’œuvres choisies, autant acousmatiques, mixtes, vidéomusicales que pluridisciplinaires.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les enjeux liés aux politiques éducatives ont considérablement changé au cours des dernières décennies. Ces changements sont liés, entre autres, à l’accroissement de l’imputabilité et de la reddition de compte qui est devenue une caractéristique importante des réformes curriculaires et pédagogiques. Les politiques à enjeux élevés exercent une pression énorme sur les districts et les écoles états-unienne afin qu’ils augmentent le rendement des élèves en utilisant des systèmes de conséquences (Hall & Ryan, 2011; Loeb & Strunk, 2007). Ces politiques envoient de puissants messages sur l'importance de certaines matières scolaires au détriment d'autres - circonscrivant les exigences en termes de compétences et de connaissances. La langue maternelle d’enseignement et les mathématiques sont devenues des mesures centrales sur lesquelles reposent l’évaluation et le degré de performance des districts et des écoles. Conséquemment, les administrateurs de districts et les directions d’écoles ont souvent recours à des réformes curriculaires et pédagogiques comme moyen d'augmenter le rendement des élèves dans les matières scolaires visées par ces politiques. Les politiques contraignent les acteurs scolaires de concentrer les ressources sur les programmes curriculaires et les évaluations, le développement professionnel, et la prise de décision pilotée par les données (Anagnostopoulos & Ruthledge, 2007; Honig & Hatch, 2004; Spillane, Diamond, et al., 2002; Weitz White & Rosenbaum, 2008). Cette thèse examine la manière dont les politiques à enjeux élevés opèrent quotidiennement dans les interactions et les pratiques au sein des écoles. Nous analysons plus particulièrement les différents messages provenant de la politique transmis aux acteurs scolaires sur les manières d'apporter des changements substantiels dans le curriculum et l'enseignement. Nous élargissons l’analyse en prenant en compte le rôle des administrateurs de district ainsi que des partenaires universitaires qui façonnent également la manière dont certains aspects des messages provenant des politiques sont transmis, négociés et/ou débattus et d’autres sont ignorés (Coburn & Woulfin, 2012). En utilisant l’analyse de discours, nous examinons le rôle du langage comme constituant et médiateur des interactions sociales entre les acteurs scolaires et d’autres parties prenantes. De telles analyses impliquent une investigation approfondie d’un nombre d’étude de cas limité. Les données utilisées dans cette thèse ont été colligées dans une école primaire états-unienne du mid-West. Cette étude de cas fait partie d’une étude longitudinale de quatre ans qui comprenait huit écoles dans les milieux urbains entre 1999 et 2003 (Distributed Leadership Studies, http://www.distributedleadership.org). La base de données analysée inclut des observations de réunions formelles et des entrevues auprès des administrateurs du district, des partenaires universitaires, de la direction d’école et des enseignants. En plus de l’introduction et de la problématique (chapitre 1) et de discussion et conclusion (chapitre 5), cette thèse comprend un ensemble de trois articles interdépendants. Dans le premier article (chapitre 2), nous effectuons une recension des écrits portant sur le domaine de l’implantation de politiques (policy implementation) et la complexité des relations locales, nationales et internationales dans les systèmes éducatifs. Pour démystifier cette complexité, nous portons une attention particulière à la construction de sens des acteurs scolaires comme étant une dimension clé du processus de mise en œuvre des réformes. Dans le deuxième article (chapitre 3), nous cherchons à comprendre les processus sociaux qui façonnent les réponses stratégiques des acteurs scolaires à l’égard des politiques du district et de l’état et en lien avec la mise en œuvre d’un curriculum prescrit en mathématiques. Plus particulièrement, nous explorons les différentes situations dans lesquelles les acteurs scolaires argumentent au sujet des changements curriculaires et pédagogiques proposés par les administrateurs de district et des partenaires universitaires afin d’augmenter les résultats scolaires en mathématiques dans une école à faible performance. Dans le troisième article (chapitre 4), nous cherchons à démystifier les complexités liées à l’amélioration de l’enseignement dans un environnement de politiques à enjeux élevés. Pour ce faire, nous utilisons l'interaction entre les notions d'agentivité et la structure afin d'analyser la manière dont les conceptions d’imputabilité et les idées qui découlent de l'environnement politique et les activités quotidiennes jouent dans les interactions entre les acteurs scolaires concernant sur l’enseignement de la langue maternelle. Nous explorons trois objectifs spécifiques : 1) la manière dont les politiques à enjeux élevés façonnent les éléments de l’enseignement qui sont reproduits et ceux qui sont transformés au fil du temps ; 2) la manière dont la compréhension des leaders de l’imputabilité façonne les aspects des messages politiques que les acteurs scolaires remarquent à travers les interactions et les conversations et 3) la manière les acteurs scolaires portent une attention particulière à certaines messages au détriment d’autres. Dans le dernier chapitre de cette thèse, nous discutons les forces et les limites de l’analyse secondaire de données qualitatives, les implications des résultats pour le domaine d’études de l’implantation de politiques et les pistes futures de recherches.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Thèse de doctorat effectuée en cotutelle au Département d’histoire de l’art et d’études cinématographiques, Faculté des arts et des sciences, Université de Montréal et à l’Institut de recherche sur le cinéma et l'audiovisuel (IRCAV), Arts et Médias, ED 267, Université Sorbonne Nouvelle – Paris 3

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En la actualidad, el uso de las tecnologías ha sido primordial para el avance de las sociedades, estas han permitido que personas sin conocimientos informáticos o usuarios llamados “no expertos” se interesen en su uso, razón por la cual los investigadores científicos se han visto en la necesidad de producir estudios que permitan la adaptación de sistemas, a la problemática existente dentro del ámbito informático. Una necesidad recurrente de todo usuario de un sistema es la gestión de la información, la cual se puede administrar por medio de una base de datos y lenguaje específico, como lo es el SQL (Structured Query Language), pero esto obliga al usuario sin conocimientos a acudir a un especialista para su diseño y construcción, lo cual se ve reflejado en costos y métodos complejos, entonces se plantea una pregunta ¿qué hacer cuando los proyectos son pequeñas y los recursos y procesos son limitados? Teniendo como base la investigación realizada por la universidad de Washington[39], donde sintetizan sentencias SQL a partir de ejemplos de entrada y salida, se pretende con esta memoria automatizar el proceso y aplicar una técnica diferente de aprendizaje, para lo cual utiliza una aproximación evolucionista, donde la aplicación de un algoritmo genético adaptado origina sentencias SQL válidas que responden a las condiciones establecidas por los ejemplos de entrada y salida dados por el usuario. Se obtuvo como resultado de la aproximación, una herramienta denominada EvoSQL que fue validada en este estudio. Sobre los 28 ejercicios empleados por la investigación [39], 23 de los cuales se obtuvieron resultados perfectos y 5 ejercicios sin éxito, esto representa un 82.1% de efectividad. Esta efectividad es superior en un 10.7% al establecido por la herramienta desarrollada en [39] SQLSynthesizer y 75% más alto que la herramienta siguiente más próxima Query by Output QBO[31]. El promedio obtenido en la ejecución de cada ejercicio fue de 3 minutos y 11 segundos, este tiempo es superior al establecido por SQLSynthesizer; sin embargo, en la medida un algoritmo genético supone la existencia de fases que amplían los rangos de tiempos, por lo cual el tiempo obtenido es aceptable con relación a las aplicaciones de este tipo. En conclusión y según lo anteriormente expuesto, se obtuvo una herramienta automática con una aproximación evolucionista, con buenos resultados y un proceso simple para el usuario “no experto”.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En continuité avec les ouvrages récents (Veyne 1981, MacMullen 1988 et Kelly 2004) qui tentent de relativiser les effets néfastes de la corruption lors du Bas-Empire, ce travail étudie le suffragium, le processus de nomination des fonctionnaires de bureaux, afin d'évaluer comment les acteurs sociaux du IVe siècle considéraient ce phénomène. Ce système, organisé d'une telle façon que les hauts fonctionnaires devaient fournir des lettres de recommandation aux candidats postulant à des postes au sein de la fonction publique, serait devenu complètement corrompu durant le IVe siècle et les lettres de recommandation auraient commencé à être systématiquement vendues. Pourtant, les lois de Constantin, Constance et Julien ne fournissent aucune preuve tangible que le suffragium était dans tous le cas vénal à cette époque. Bien au contraire, les empereurs ajoutaient la plupart de temps des épithètes au terme suffragium pour spécifier qu'il parle du suffragium vénal. Généralement, les empereurs sont présentés comme farouchement opposés au suffragium et à toutes les tractations qui y sont attachées. Loin d'être aussi hostiles envers les « pratiques corrompues », les empereurs de la dynastie constantinienne firent preuve d'un certain pragmatisme en voyant qu'ils ne pouvaient contrôler toutes les nominations de ceux qui voulaient entrer dans la fonction publique et que ce n'était pas nécessairement à leur avantage de le faire. Les empereurs se concentrèrent plutôt sur les restrictions entourant les promotions afin de faire en sorte que les personnes qui avaient de réels pouvoirs soient celles qui avaient démontré leurs qualités tout au long de leurs années de service. Bien qu'ils n'aient pas concrètement légiféré sur les critères d'embauche des candidats, cela ne veut pas dire que n'importe qui pouvait obtenir un poste. À travers l'étude des lettres de Libanios et de Symmaque, ce travail démontre que les hauts fonctionnaires ne fournissaient pas de lettres à quiconque le demandait, puisque leur réputation pouvait être entachée par le fait d'avoir recommandé un mauvais candidat à un de leurs amis. Les hauts fonctionnaires qui recevaient les recommandations pouvaient également soumettre les candidats à des examens afin d'être certains de la qualité de l'individu. Ce système officieux de contrôle des candidats vint pallier, en partie, les déficits de la législation impériale. Conjointement, la loi et les usages permirent à l'administration de fonctionner en lui fournissant des candidats qui répondaient aux critères de l'époque.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire propose une hypothèse alternative pour expliquer les facteurs à l’origine du boom du soja brésilien. En utilisant une approche combinant la théorie de l’organisation et l’économie politique institutionnelle, ce mémoire propose de comparer les modèles d’organisation de la chaîne de valeur soja des États du Mato Grosso et du Paraná. Dans un premier temps, cette recherche est guidée par un souci de documenter les rouages propres à chaque mode d’organisation et de catégoriser ces derniers comme des systèmes à part entière et cohérents. Ainsi, le mode de coordination du Mato Grosso (intégration de la chaîne de valeur) peut être qualifié de modèle hybride se rapprochant davantage du pôle hiérarchie tandis que le mode d’organisation du Paraná (coopérative agroindustrielle) peut être qualifié de mode hybride gravitant davantage vers le pôle marché. La nature des risques est identifiée comme principal déterminant du degré de centralisation de la gouvernance au sein de ces modèles. L’argument soutient que chaque mode de coordination est performant car il est adapté aux conditions locales de production et permet de mitiger les risques propres à chaque région de façon à encourager les échanges économiques. Dans un deuxième temps, cette recherche serait incomplète sans une analyse des facteurs politiques et historiques ayant influencé la trajectoire de développement de chaque région. Ainsi, chaque étude de cas présente un récit détaillé de l’évolution des politiques agraires et des institutions depuis les années 1960, soit le moment où la culture commerciale du soja a commencé à gagner en importance au Brésil. Analyser le changement institutionnel depuis 1960 est primordial pour comprendre comment se sont consolidées les règles du jeu qui sous-tendent aujourd’hui chaque mode de coordination.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le remodelage cardiaque est le processus par lequel la structure ou la fonction cardiaque change en réponse à un déséquilibre pathophysiologique tel qu'une maladie cardiaque, un contexte d'arythmie prolongée ou une modification de l'équilibre hormonal. Le système rénine-angiotensine (SRA) est un système hormonal largement étudié et il est impliqué dans de nombreuses activités associées au remodelage cardiovasculaire. L’existence d'un système circulatoire couplé à un système de tissus locaux est une représentation classique, cependant de nouvelles données suggèrent un SRA indépendant et fonctionnellement actif à l'échelle cellulaire. La compréhension de l'activité intracellulaire du SRA pourrait mener à de nouvelles pistes thérapeutiques qui pourraient prévenir un remodelage cardiovasculaire défavorable. L'objectif de cette thèse était d'élucider le rôle du SRA intracellulaire dans les cellules cardiaques. Récemment, les récepteurs couplés aux protéines G (RCPG), les protéines G et leurs effecteurs ont été détectés sur des membranes intracellulaires, y compris sur la membrane nucléaire, et les concepts de RCPG intracellulaires fonctionnels sont en voie d'être acceptés comme une réalité. Nous avons dès lors fait l'hypothèse que la signalisation du SRA délimitant le noyau était impliquée dans le contrôle de l'expression des gènes cardiaques. Nous avons démontré la présence de récepteurs d'angiotensine de type-1 (AT1R) et de type-2 (AT2R) nucléaires dans les cardiomyocytes ventriculaires adultes et dans une fraction nucléaire purifiée de tissu cardiaque. Des quantités d'Ang II ont été détectées dans du lysat de cardiomyocytes et des microinjections d'Ang-II-FITC ont donné lieu à des liaisons préférentielles aux sites nucléaires. L'analyse transcriptionnelle prouve que la synthèse d'ARN de novo dans des noyaux isolés stimulés à l'Ang-II, et l'expression des ARNm de NF-κB étaient beaucoup plus importants lorsque les noyaux étaient exposés à de l'Ang II par rapport aux cardiomyocytes intacts. La stimulation des AT1R nucléaires a engendré une mobilisation de Ca2+ via les récepteurs de l'inositol trisphosphate (IP3R), et le blocage des IP3R a diminué la réponse transcriptionnelle. Les méthodes disponibles actuellement pour l'étude de la signalisation intracrine sont limitées aux méthodes indirectes. L'un des objectifs de cette thèse était de synthétiser et caractériser des analogues d'Ang-II cellule-perméants afin d’étudier spécifiquement dans les cellules intactes l'activité intracellulaire du SRA. Nous avons synthétisé et caractérisé pharmacologiquement des analogues photosensibles Ang-II encapsulée en incorporant un groupement 4,5-diméthoxy-2-nitrobenzyl (DMNB) photoclivable sur les sites actifs identifiés du peptide. Chacun des trois analogues d'Ang II encapsulée synthétisés et purifiés: [Tyr(DMNB)4]Ang-II, Ang-II-ODMNB et [Tyr(DMNB)4]Ang-II-ODMNB a montré une réduction par un facteur deux ou trois de l'affinité de liaison envers AT1R et AT2R dans les dosages par liaison compétitive et une activité réduite dans la contraction de l'aorte thoracique. La photostimulation de [Tyr(DMNB)4]Ang-II dans des cellules HEK a augmenté la phosphorylation d'ERK1/2 (via AT1R) et la production de cGMP (via AT2R) alors que dans les cardiomyocytes isolés elle générait une augmentation de Ca2+ nucléoplasmique et initiait la synthèse d'ARNr 18S et d'ARNm du NF-κB. Les fibroblastes sont les principaux générateurs de remodelage cardiaque structurel, et les fibroblastes auriculaires sont plus réactifs aux stimuli profibrotiques que les fibroblastes ventriculaires. Nous avons émis l'hypothèse que l’Ang-II intracellulaire et l'activation des AT1R et AT2R nucléaires associés contrôlaient les profils d'expression des gènes des fibroblastes via des systèmes de signalisation distincts et de ce fait jouaient un rôle majeur dans le développement de la fibrose cardiaque. Nous avons remarqué que les fibroblastes auriculaires expriment l’AT1R et l’AT2R nucléaire et l'Ang-II au niveau intracellulaire. L’expression d'AT1R nucléaire a été régulés positivement dans les cas d’insuffisance cardiaque (IC), tandis que l'AT2R nucléaire a été glycosylé post-traductionnellement. La machinerie protéique des protéines G, y compris Gαq/11, Gαi/3, et Gβ, a été observée dans des noyaux isolés de fibroblastes. AT1R et AT2R régulent l'initiation de la transcription du fibroblaste via les voies de transduction de signal d'IP3R et du NO. La photostimulation de [Tyr(DMNB)4]Ang-II dans une culture de fibroblastes auriculaire déclenche la libération de Ca2+ nucléoplasmique, la prolifération, et la synthèse et sécrétion de collagène qui ne sont pas inhibées par les bloqueurs d'AT1R et/ou AT2R extracellulaires.