32 resultados para Many-to-many-assignment problem


Relevância:

100.00% 100.00%

Publicador:

Resumo:

À ce jour, la scoliose idiopathique de l’adolescent (SIA) est la déformation rachidienne la plus commune parmi les enfants. Il est bien connu dans le domaine de recherche sur la SIA que les forces mécaniques, en particulier les forces biomécaniques internes dans le système musculosquelettique, pourraient jouer un rôle majeur dans l’initiation et le développement de la maladie. Cependant, les connaissances sur la transformation des forces et des stimulations mécaniques en activité biochimique sont peu abondantes. Cet axe de recherche est très prometteur et peut nous fournir de nouvelles idées dans le dépistage et le traitement de la SIA. Dans le cadre de cette étude, nous visons à caractériser la mécanotransduction chez les patients atteints de la SIA en employant des techniques novatrices aux niveaux in vivo et in vitro. Antérieurement dans notre laboratoire, nous avons démontré que les niveaux d’Ostéopontine (OPN) plasmatique chez l’humain corrèlent avec la progression et la sévérité de la maladie, et que ces changements sont observables avant le début de la scoliose. En plus, selon la littérature, l’OPN est une molécule sensible à la force mécanique, dont l’expression augmente en réponse dans de nombreux types de cellules chez plusieurs espèces. Toutefois, il n’existe aucune preuve que ce résultat soit valide in vivo chez l’humain. L’hétérogénéité physique et biochimique de la SIA pose un gros défi aux chercheurs. Souvent, il est très difficile de trouver des résultats ayant une grande applicabilité. Les études portant sur les facteurs biomécaniques ne font pas exception à cette tendance. En dépit de tout cela, nous croyons qu’une approche basée sur l’observation des contraintes de cisaillement présentes dans le système musculosquelettique pourrait aider à surmonter ces difficultés. Les contraintes de cisaillement physiologique sont générées par des courants de fluide en mouvement à l’intérieur des os. Aussi, elles sont omniprésentes et universelles chez l’humain, peu importe l’âge, le sexe, la condition physique, etc., ce qui veut dire que l’étudier pourrait fort bien avancer nos connaissances en formant une base fondamentale avec laquelle on pourra mieux comprendre les différences quant à la mécanotransduction chez les patients atteints de la SIA par rapport aux sujets sains. Pour ce projet, donc, nous proposons l’hypothèse que les sujets atteints de la SIA se différencient par leurs réponses respectives à la force mécanique au niveau cellulaire (en termes de l’expression génique) ainsi qu’au niveau in vivo (en termes du marqueur OPN et son récepteur, sCD44). Afin de vérifier la partie de notre hypothèse de recherche concernant l’aspect in vivo, nous avons recruté une cohorte de patients âgés de 9-17 ans, y compris i) des cas pré-chirurgicaux (angle de Cobb > 45°), ii) des cas modérément atteints (angle de Cobb 10-44°), iii) des témoins, et iv) des enfants asymptomatiques à risque de développer la scoliose (selon nos dépistages biochimiques et fonctionnels) d’âge et sexe appariés. Une pression pulsatile et dynamique avec une amplitude variant de 0-4 psi à 0.006 Hz a été appliquée à un des bras de chacun de nos sujets pour une durée de 90 minutes. Au tout début et à chaque intervalle de 30 minutes après l’initiation de la pression, un échantillon de sang a été prélevé, pour pouvoir surveiller les niveaux d’OPN et de sCD44 circulants chez les sujets. Nous avons découvert que le changement des niveaux d’OPN plasmatique, mais pas des niveaux de sCD44, corrélaient avec la sévérité de la difformité rachidienne chez les sujets, ceux ayant une courbe plus prononcée démontrant une ampleur de réponse moins élevée. Pour vérifier la partie de notre hypothèse de recherche concernant la réponse mécanotransductive cellulaire, des ostéoblastes prélevées à 12 sujets ont été mis en culture pour utilisation avec notre appareil (le soi-disant « parallel plate flow chamber »), qui sert à fournir aux ostéoblastes le niveau de contraintes de cisaillement désiré, de manière contrôlée et prévisible. Les sujets étaient tous femelles, âgées de 11-17 ans ; les patients ayant déjà une scoliose possédaient une courbe diagnostiquée comme « double courbe majeure ». Une contrainte fluidique de cisaillement à 2 Pa, 0.5 Hz a été appliquée à chaque échantillon ostéoblastique pour une durée de 90 minutes. Les changements apportés à l’expression génique ont été mesurés et quantifiés par micropuce et qRT-PCR. En réponse à notre stimulation, nous avons trouvé qu’il n’y avait que quelques gènes étant soit différentiellement exprimés, soit inchangés statistiquement dans tous les groupes expérimentaux atteints, en exhibant simultanément la condition contraire chez les témoins. Ces résultats mettent en évidence la grande diversité de la réponse mécanotransductive chez les patients comparés aux contrôles, ainsi qu’entre les sous-groupes fonctionnels de la SIA. Globalement, cette œuvre pourrait contribuer au développement d’outils diagnostiques innovateurs pour identifier les enfants asymptomatiques à risque de développer une scoliose, et évaluer le risque de progression des patients en ayant une déjà. Aussi, dans les années à venir, les profils mécanotransductifs des patients pourraient s’avérer un facteur crucial à considérer cliniquement, particulièrement en concevant ou personnalisant des plans de traitements pour des personnes atteintes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les dinoflagellés sont des eucaryotes unicellulaires que l’on retrouve autant en eau douce qu’en milieu marin. Ils sont particulièrement connus pour causer des fleurs d’algues toxiques nommées ‘marée-rouge’, ainsi que pour leur symbiose avec les coraux et pour leur importante contribution à la fixation du carbone dans les océans. Au point de vue moléculaire, ils sont aussi connus pour leur caractéristiques nucléaires uniques, car on retrouve généralement une quantité immense d’ADN dans leurs chromosomes et ceux-ci sont empaquetés et condensés sous une forme cristalline liquide au lieu de nucléosomes. Les gènes encodés par le noyau sont souvent présents en multiples copies et arrangés en tandem et aucun élément de régulation transcriptionnelle, y compris la boite TATA, n’a encore été observé. L’organisation unique de la chromatine des dinoflagellés suggère que différentes stratégies sont nécessaires pour contrôler l’expression des gènes de ces organismes. Dans cette étude, j’ai abordé ce problème en utilisant le dinoflagellé photosynthétique Lingulodinium polyedrum comme modèle. L. polyedrum est d’un intérêt particulier, car il a plusieurs rythmes circadiens (journalier). À ce jour, toutes les études sur l’expression des gènes lors des changements circadiens ont démontrées une régulation à un niveau traductionnel. Pour mes recherches, j’ai utilisé les approches transcriptomique, protéomique et phosphoprotéomique ainsi que des études biochimiques pour donner un aperçu de la mécanique de la régulation des gènes des dinoflagellés, ceci en mettant l’accent sur l’importance de la phosphorylation du système circadien de L. polyedrum. L’absence des protéines histones et des nucléosomes est une particularité des dinoflagellés. En utilisant la technologie RNA-Seq, j’ai trouvé des séquences complètes encodant des histones et des enzymes modifiant les histones. L polyedrum exprime donc des séquences conservées codantes pour les histones, mais le niveau d’expression protéique est plus faible que les limites de détection par immunodétection de type Western. Les données de séquençage RNA-Seq ont également été utilisées pour générer un transcriptome, qui est une liste des gènes exprimés par L. polyedrum. Une recherche par homologie de séquences a d’abord été effectuée pour classifier les transcrits en diverses catégories (Gene Ontology; GO). Cette analyse a révélé une faible abondance des facteurs de transcription et une surprenante prédominance, parmi ceux-ci, des séquences à domaine Cold Shock. Chez L. polyedrum, plusieurs gènes sont répétés en tandem. Un alignement des séquences obtenues par RNA-Seq avec les copies génomiques de gènes organisés en tandem a été réalisé pour examiner la présence de transcrits polycistroniques, une hypothèse formulée pour expliquer le manque d’élément promoteur dans la région intergénique de la séquence de ces gènes. Cette analyse a également démontré une très haute conservation des séquences codantes des gènes organisés en tandem. Le transcriptome a également été utilisé pour aider à l’identification de protéines après leur séquençage par spectrométrie de masse, et une fraction enrichie en phosphoprotéines a été déterminée comme particulièrement bien adapté aux approches d’analyse à haut débit. La comparaison des phosphoprotéomes provenant de deux périodes différentes de la journée a révélée qu’une grande partie des protéines pour lesquelles l’état de phosphorylation varie avec le temps est reliées aux catégories de liaison à l’ARN et de la traduction. Le transcriptome a aussi été utilisé pour définir le spectre des kinases présentes chez L. polyedrum, qui a ensuite été utilisé pour classifier les différents peptides phosphorylés qui sont potentiellement les cibles de ces kinases. Plusieurs peptides identifiés comme étant phosphorylés par la Casein Kinase 2 (CK2), une kinase connue pour être impliquée dans l’horloge circadienne des eucaryotes, proviennent de diverses protéines de liaison à l’ARN. Pour évaluer la possibilité que quelques-unes des multiples protéines à domaine Cold Shock identifiées dans le transcriptome puissent moduler l’expression des gènes de L. polyedrum, tel qu’observé chez plusieurs autres systèmes procaryotiques et eucaryotiques, la réponse des cellules à des températures froides a été examinée. Les températures froides ont permis d’induire rapidement un enkystement, condition dans laquelle ces cellules deviennent métaboliquement inactives afin de résister aux conditions environnementales défavorables. Les changements dans le profil des phosphoprotéines seraient le facteur majeur causant la formation de kystes. Les phosphosites prédits pour être phosphorylés par la CK2 sont la classe la plus fortement réduite dans les kystes, une découverte intéressante, car le rythme de la bioluminescence confirme que l’horloge a été arrêtée dans le kyste.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les problèmes de conception de réseaux ont reçu un intérêt particulier et ont été largement étudiés de par leurs nombreuses applications dans différents domaines, tels que les transports et les télécommunications. Nous nous intéressons dans ce mémoire au problème de conception de réseaux avec coûts d’ajout de capacité. Il s’agit d’installer un ensemble d’équipements sur un réseau en vue de satisfaire la demande, tout en respectant les contraintes de capacité, chaque arc pouvant admettre plusieurs équipements. L’objectif est de minimiser les coûts variables de transport des produits et les coûts fixes d’installation ou d’augmentation de capacité des équipements. La méthode que nous envisageons pour résoudre ce problème est basée sur les techniques utilisées en programmation linéaire en nombres entiers, notamment celles de génération de colonnes et de coupes. Ces méthodes sont introduites dans un algorithme général de branch-and-bound basé sur la relaxation linéaire. Nous avons testé notre méthode sur quatre groupes d’instances de tailles différentes, et nous l’avons comparée à CPLEX, qui constitue un des meilleurs solveurs permettant de résoudre des problèmes d’optimisation, ainsi qu’à une méthode existante dans la littérature combinant des méthodes exactes et heuristiques. Notre méthode a été plus performante que ces deux méthodes, notamment pour les instances de très grandes tailles.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans les dernières années, une explosion de la recherche sur les ARN a eu lieue à cause de nombreuses découvertes démontrant l’importance de l’ARN dans plusieurs processus biologiques. Ainsi, de grandes quantités d’ARN sont devenues indispensables au bon déroulement de plusieurs études, notamment pour la biologie structurale et la caractérisation fonctionnelle. Cependant, il existe encore peu de méthodes de purification simples, efficaces, fiables et produisant un ARN sous forme native. Dans les dernières années, le laboratoire Legault a mis au point une méthode de purification par affinité utilisant une étiquette ARiBo pour la purification d’ARN transcrits in vitro par la polymérase à ARN du phage T7. Cette méthode de purification d’ARN a été spécifiquement développée pour maximiser la pureté et le rendement. De plus, elle est très rapide et fonctionne avec plusieurs types d’ARN. Cependant, comme plusieurs autres méthodes de purification, cette méthode produit des ARN avec des extrémités 5′ hétérogènes. Dans ce mémoire, des solutions sont proposées pour remédier au problème d’hétérogénéité en 5ʹ′ des ARN transcrits avec la polymérase à ARN du phage T7 et purifiés par la méthode ARiBo. La première solution consiste à choisir la séquence en 5′ parmi celles des 32 séquences testées qui ne présentent pas d’hétérogénéité en 5ʹ′. La seconde solution est d’utiliser une étiquette clivable en 5ʹ′ de l’ARN d’intérêt, tel que le ribozyme hammerhead, déjà utilisée pour ce genre d’application, ou le système CRISPR/Cse3 que nous proposons dans l’article présenté dans ce mémoire. De plus, nous avons adapté la méthode ARiBo pour rendre possible la purification d’un long ARN de 614 nt, le polycistron miR-106b-25. Nous avons également démontré la possibilité d’utiliser la méthode ARiBo pour l’isolation de protéines qui se lient à un ARN donné, le précurseur de miRNA pre-miR-153-2. En conclusion, ce mémoire démontre la possibilité d’adapter la méthode ARiBo à plusieurs applications.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les ombres sont un élément important pour la compréhension d'une scène. Grâce à elles, il est possible de résoudre des situations autrement ambigües, notamment concernant les mouvements, ou encore les positions relatives des objets de la scène. Il y a principalement deux types d'ombres: des ombres dures, aux limites très nettes, qui résultent souvent de lumières ponctuelles ou directionnelles; et des ombres douces, plus floues, qui contribuent à l'atmosphère et à la qualité visuelle de la scène. Les ombres douces résultent de grandes sources de lumière, comme des cartes environnementales, et sont difficiles à échantillonner efficacement en temps réel. Lorsque l'interactivité est prioritaire sur la qualité, des méthodes d'approximation peuvent être utilisées pour améliorer le rendu d'une scène à moindre coût en temps de calcul. Nous calculons interactivement les ombres douces résultant de sources de lumière environnementales, pour des scènes composées d'objets en mouvement et d'un champ de hauteurs dynamique. Notre méthode enrichit la méthode d'exponentiation des harmoniques sphériques, jusque là limitée aux bloqueurs sphériques, pour pouvoir traiter des champs de hauteurs. Nous ajoutons également une représentation pour les BRDFs diffuses et glossy. Nous pouvons ainsi combiner les visibilités et BRDFs dans un même espace, afin de calculer efficacement les ombres douces et les réflexions de scènes complexes. Un algorithme hybride, qui associe les visibilités en espace écran et en espace objet, permet de découpler la complexité des ombres de la complexité de la scène.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La question de l’accès financier des personnes socialement défavorisées aux soins de santé est aujourd’hui un enjeu éthique de grande importance dans de nombreux pays à faible revenu ou en voie d’émergence. On peut se demander comment l’équité dans l’accès aux soins peut être rendue effective puisque l’égalité des chances pour tous et la santé sont des pré-requis aux choix de vie et à la réalisation de soi. Les soins de santé sont donc d’une importance éthique particulière du fait qu’ils contribuent à préserver notre statut comme citoyens pleinement fonctionnels. Au Cameroun, bien que des efforts considérables soient consentis par les pouvoirs publics et leurs partenaires extérieurs pour favoriser l’accès aux soins des personnes défavorisées, le secteur de la santé reste encore très marqué par l’inégalité dans l’accès financier aux prestations sanitaires. Les médicaments les plus essentiels ne sont pas financièrement à la portée de tous et les coûts d’accès aux soins ambulatoires et hospitaliers dans les formations sanitaires sont manifestement prohibitifs pour une large frange de la population. Lors des épisodes de maladie, l’accès aux soins se fait par le paiement direct au point d’accès, et la pratique de l’automédication s’est répandue du fait de l’incapacité des personnes socialement défavorisées à payer leurs soins sans courir le risque de perdre l’essentiel de leur revenu. Les mesures de prise en charge sociale ou des systèmes de financement qui garantissent la réduction des inégalités entre les classes sociales sont fortement limitées par les faibles capacités d’une économie qui repose essentiellement sur l’informel. Sur la base de cette réalité, cette thèse analyse à partir du cas des travailleurs vulnérables du secteur informel urbain, la pertinence du choix politique de la couverture universelle santé au Cameroun à travers les principes de responsabilité et de solidarité. La population d’étude choisie est celle des travailleurs vulnérables du secteur informel en considération des problématiques liées à leur accès aux soins de santé, de l’importance de leur apport dans l’économie du pays ( 90 % des travailleurs) et du rôle qu’elle pourrait jouer dans l’atteinte de l’objectif de la couverture universelle santé. La thèse analyse donc, d’une part, les conditions et les modalités de répartition des biens sociaux qui répondent à la nécessaire redistribution équitable des ressources, en l’occurrence l’accès aux soins de qualité. Après avoir montré les préoccupations d’ordre politique, social, économique et éthique liées au problème d’accès universel aux soins, la thèse propose des stratégies opérationnelles susceptibles de conduire à l’amélioration de la qualité des soins et à un assainissement de la gestion du secteur des services de soins (éthique du care et éthique de bonne gouvernance). Aussi, dans la perspective de la recherche d’un financement local soutenable et durable de l’accès de tous aux soins, la thèse propose une approche participative. L’exploration de cette perspective aboutit au résultat qu’une approche inclusive et intégrée de promotion de l’économie informelle (dynamisation de ses activités et potentialisation de ses acteurs) pourrait faire de ce secteur un véritable levier de développement économique et social. Un développement social et solidaire durable et susceptible, sur le long terme, de réaliser l’objectif de la couverture universelle santé. En d’autres termes, elle propose des stratégies de capabilisation et de responsabilisation des travailleurs du secteur informel, en vue d’une société plus impliquée, plus responsable et plus solidaire. Une approche susceptible de matérialiser le droit à la santé, de construire l’autonomie des travailleurs en situation de vulnérabilité et de renforcer leurs capacités contributives à travers une opérationnalisation adaptée au contexte des principes de responsabilité et de solidarité.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire explore la relation qui lie démocratie et légitimité politique, dans une perspective épistémique. La démocratie, dans son acception la plus générale, confère à chacun la possibilité de faire valoir les intérêts qu'il estime être les siens et ceux de sa communauté, en particulier à l’occasion d’un scrutin. Cette procédure décisionnelle qu’est le vote consacre ainsi en quelque sorte la liberté et l’égalité dont profitent chacun des citoyens, et confère une certaine légitimité au processus décisionnel. Cela dit, si le vote n’est pas encadré par des considérations épistémiques, rien ne garantit que le résultat politique qui en découlera sera souhaitable tant pour les individus que pour la collectivité: il est tout à fait permis d’imaginer que des politiques discriminatoires, économiquement néfastes ou simplement inefficaces voient ainsi le jour, et prennent effet au détriment de tous. En réponse à ce problème, différentes théories démocratiques ont vu le jour et se sont succédé, afin de tenter de lier davantage le processus démocratique à l’atteinte d’objectifs politiques bénéfiques pour la collectivité. Au nombre d’entre elles, la démocratie délibérative a proposé de substituer la seule confrontation d’intérêts de la démocratie agrégative par une recherche collective du bien commun, canalisée autour de procédures délibératives appelées à légitimer sur des bases plus solides l’exercice démocratique. À sa suite, la démocratie épistémique s’est inspirée des instances délibératives en mettant davantage l’accent sur la qualité des résultats obtenus que sur les procédures elles-mêmes. Au final, un même dilemme hante chaque fois les différentes théories : est-il préférable de construire les instances décisionnelles en se concentrant prioritairement sur les critères procéduraux eux-mêmes, au risque de voir de mauvaises décisions filtrer malgré tout au travers du processus sans pouvoir rien y faire, ou devons-nous avoir d’entrée de jeu une conception plus substantielle de ce qui constitue une bonne décision, au risque cette fois de sacrifier la liberté de choix qui est supposé caractériser un régime démocratique? La thèse que nous défendrons dans ce mémoire est que le concept d’égalité politique peut servir à dénouer ce dilemme, en prenant aussi bien la forme d’un critère procédural que celle d’un objectif politique préétabli. L’égalité politique devient en ce sens une source normative forte de légitimité politique. En nous appuyant sur le procéduralisme épistémique de David Estlund, nous espérons avoir démontré au terme de ce mémoire que l’atteinte d’une égalité politique substantielle par le moyen de procédures égalitaires n’est pas une tautologie hermétique, mais plutôt un mécanisme réflexif améliorant tantôt la robustesse des procédures décisionnelles, tantôt l’atteinte d’une égalité tangible dans les rapports entre citoyens.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Réalisé en cotutelle avec l'École normale supérieure de Cachan – Université Paris-Saclay

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The aim of this paper is to demonstrate that, even if Marx's solution to the transformation problem can be modified, his basic conclusions remain valid. the proposed alternative solution which is presented hare is based on the constraint of a common general profit rate in both spaces and a money wage level which will be determined simultaneously with prices.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The aim of this paper is to demonstrate that, even if Marx's solution to the transformation problem can be modified, his basic conclusions remain valid. the proposed alternative solution which is presented hare is based on the constraint of a common general profit rate in both spaces and a money wage level which will be determined simultaneously with prices.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les lésions de la moelle épinière ont un impact significatif sur la qualité de la vie car elles peuvent induire des déficits moteurs (paralysie) et sensoriels. Ces déficits évoluent dans le temps à mesure que le système nerveux central se réorganise, en impliquant des mécanismes physiologiques et neurochimiques encore mal connus. L'ampleur de ces déficits ainsi que le processus de réhabilitation dépendent fortement des voies anatomiques qui ont été altérées dans la moelle épinière. Il est donc crucial de pouvoir attester l'intégrité de la matière blanche après une lésion spinale et évaluer quantitativement l'état fonctionnel des neurones spinaux. Un grand intérêt de l'imagerie par résonance magnétique (IRM) est qu'elle permet d'imager de façon non invasive les propriétés fonctionnelles et anatomiques du système nerveux central. Le premier objectif de ce projet de thèse a été de développer l'IRM de diffusion afin d'évaluer l'intégrité des axones de la matière blanche après une lésion médullaire. Le deuxième objectif a été d'évaluer dans quelle mesure l'IRM fonctionnelle permet de mesurer l'activité des neurones de la moelle épinière. Bien que largement appliquées au cerveau, l'IRM de diffusion et l'IRM fonctionnelle de la moelle épinière sont plus problématiques. Les difficultés associées à l'IRM de la moelle épinière relèvent de sa fine géométrie (environ 1 cm de diamètre chez l'humain), de la présence de mouvements d'origine physiologique (cardiaques et respiratoires) et de la présence d'artefacts de susceptibilité magnétique induits par les inhomogénéités de champ, notamment au niveau des disques intervertébraux et des poumons. L'objectif principal de cette thèse a donc été de développer des méthodes permettant de contourner ces difficultés. Ce développement a notamment reposé sur l'optimisation des paramètres d'acquisition d'images anatomiques, d'images pondérées en diffusion et de données fonctionnelles chez le chat et chez l'humain sur un IRM à 3 Tesla. En outre, diverses stratégies ont été étudiées afin de corriger les distorsions d'images induites par les artefacts de susceptibilité magnétique, et une étude a été menée sur la sensibilité et la spécificité de l'IRM fonctionnelle de la moelle épinière. Les résultats de ces études démontrent la faisabilité d'acquérir des images pondérées en diffusion de haute qualité, et d'évaluer l'intégrité de voies spinales spécifiques après lésion complète et partielle. De plus, l'activité des neurones spinaux a pu être détectée par IRM fonctionnelle chez des chats anesthésiés. Bien qu'encourageants, ces résultats mettent en lumière la nécessité de développer davantage ces nouvelles techniques. L'existence d'un outil de neuroimagerie fiable et robuste, capable de confirmer les paramètres cliniques, permettrait d'améliorer le diagnostic et le pronostic chez les patients atteints de lésions médullaires. Un des enjeux majeurs serait de suivre et de valider l'effet de diverses stratégies thérapeutiques. De telles outils représentent un espoir immense pour nombre de personnes souffrant de traumatismes et de maladies neurodégénératives telles que les lésions de la moelle épinière, les tumeurs spinales, la sclérose en plaques et la sclérose latérale amyotrophique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le problème de tarification qui nous intéresse ici consiste à maximiser le revenu généré par les usagers d'un réseau de transport. Pour se rendre à leurs destinations, les usagers font un choix de route et utilisent des arcs sur lesquels nous imposons des tarifs. Chaque route est caractérisée (aux yeux de l'usager) par sa "désutilité", une mesure de longueur généralisée tenant compte à la fois des tarifs et des autres coûts associés à son utilisation. Ce problème a surtout été abordé sous une modélisation déterministe de la demande selon laquelle seules des routes de désutilité minimale se voient attribuer une mesure positive de flot. Le modèle déterministe se prête bien à une résolution globale, mais pèche par manque de réalisme. Nous considérons ici une extension probabiliste de ce modèle, selon laquelle les usagers d'un réseau sont alloués aux routes d'après un modèle de choix discret logit. Bien que le problème de tarification qui en résulte est non linéaire et non convexe, il conserve néanmoins une forte composante combinatoire que nous exploitons à des fins algorithmiques. Notre contribution se répartit en trois articles. Dans le premier, nous abordons le problème d'un point de vue théorique pour le cas avec une paire origine-destination. Nous développons une analyse de premier ordre qui exploite les propriétés analytiques de l'affectation logit et démontrons la validité de règles de simplification de la topologie du réseau qui permettent de réduire la dimension du problème sans en modifier la solution. Nous établissons ensuite l'unimodalité du problème pour une vaste gamme de topologies et nous généralisons certains de nos résultats au problème de la tarification d'une ligne de produits. Dans le deuxième article, nous abordons le problème d'un point de vue numérique pour le cas avec plusieurs paires origine-destination. Nous développons des algorithmes qui exploitent l'information locale et la parenté des formulations probabilistes et déterministes. Un des résultats de notre analyse est l'obtention de bornes sur l'erreur commise par les modèles combinatoires dans l'approximation du revenu logit. Nos essais numériques montrent qu'une approximation combinatoire rudimentaire permet souvent d'identifier des solutions quasi-optimales. Dans le troisième article, nous considérons l'extension du problème à une demande hétérogène. L'affectation de la demande y est donnée par un modèle de choix discret logit mixte où la sensibilité au prix d'un usager est aléatoire. Sous cette modélisation, l'expression du revenu n'est pas analytique et ne peut être évaluée de façon exacte. Cependant, nous démontrons que l'utilisation d'approximations non linéaires et combinatoires permet d'identifier des solutions quasi-optimales. Finalement, nous en profitons pour illustrer la richesse du modèle, par le biais d'une interprétation économique, et examinons plus particulièrement la contribution au revenu des différents groupes d'usagers.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le problème inverse en électroencéphalographie (EEG) est la localisation de sources de courant dans le cerveau utilisant les potentiels de surface sur le cuir chevelu générés par ces sources. Une solution inverse implique typiquement de multiples calculs de potentiels de surface sur le cuir chevelu, soit le problème direct en EEG. Pour résoudre le problème direct, des modèles sont requis à la fois pour la configuration de source sous-jacente, soit le modèle de source, et pour les tissues environnants, soit le modèle de la tête. Cette thèse traite deux approches bien distinctes pour la résolution du problème direct et inverse en EEG en utilisant la méthode des éléments de frontières (BEM): l’approche conventionnelle et l’approche réciproque. L’approche conventionnelle pour le problème direct comporte le calcul des potentiels de surface en partant de sources de courant dipolaires. D’un autre côté, l’approche réciproque détermine d’abord le champ électrique aux sites des sources dipolaires quand les électrodes de surfaces sont utilisées pour injecter et retirer un courant unitaire. Le produit scalaire de ce champ électrique avec les sources dipolaires donne ensuite les potentiels de surface. L’approche réciproque promet un nombre d’avantages par rapport à l’approche conventionnelle dont la possibilité d’augmenter la précision des potentiels de surface et de réduire les exigences informatiques pour les solutions inverses. Dans cette thèse, les équations BEM pour les approches conventionnelle et réciproque sont développées en utilisant une formulation courante, la méthode des résidus pondérés. La réalisation numérique des deux approches pour le problème direct est décrite pour un seul modèle de source dipolaire. Un modèle de tête de trois sphères concentriques pour lequel des solutions analytiques sont disponibles est utilisé. Les potentiels de surfaces sont calculés aux centroïdes ou aux sommets des éléments de discrétisation BEM utilisés. La performance des approches conventionnelle et réciproque pour le problème direct est évaluée pour des dipôles radiaux et tangentiels d’excentricité variable et deux valeurs très différentes pour la conductivité du crâne. On détermine ensuite si les avantages potentiels de l’approche réciproquesuggérés par les simulations du problème direct peuvent êtres exploités pour donner des solutions inverses plus précises. Des solutions inverses à un seul dipôle sont obtenues en utilisant la minimisation par méthode du simplexe pour à la fois l’approche conventionnelle et réciproque, chacun avec des versions aux centroïdes et aux sommets. Encore une fois, les simulations numériques sont effectuées sur un modèle à trois sphères concentriques pour des dipôles radiaux et tangentiels d’excentricité variable. La précision des solutions inverses des deux approches est comparée pour les deux conductivités différentes du crâne, et leurs sensibilités relatives aux erreurs de conductivité du crâne et au bruit sont évaluées. Tandis que l’approche conventionnelle aux sommets donne les solutions directes les plus précises pour une conductivité du crâne supposément plus réaliste, les deux approches, conventionnelle et réciproque, produisent de grandes erreurs dans les potentiels du cuir chevelu pour des dipôles très excentriques. Les approches réciproques produisent le moins de variations en précision des solutions directes pour différentes valeurs de conductivité du crâne. En termes de solutions inverses pour un seul dipôle, les approches conventionnelle et réciproque sont de précision semblable. Les erreurs de localisation sont petites, même pour des dipôles très excentriques qui produisent des grandes erreurs dans les potentiels du cuir chevelu, à cause de la nature non linéaire des solutions inverses pour un dipôle. Les deux approches se sont démontrées également robustes aux erreurs de conductivité du crâne quand du bruit est présent. Finalement, un modèle plus réaliste de la tête est obtenu en utilisant des images par resonace magnétique (IRM) à partir desquelles les surfaces du cuir chevelu, du crâne et du cerveau/liquide céphalorachidien (LCR) sont extraites. Les deux approches sont validées sur ce type de modèle en utilisant des véritables potentiels évoqués somatosensoriels enregistrés à la suite de stimulation du nerf médian chez des sujets sains. La précision des solutions inverses pour les approches conventionnelle et réciproque et leurs variantes, en les comparant à des sites anatomiques connus sur IRM, est encore une fois évaluée pour les deux conductivités différentes du crâne. Leurs avantages et inconvénients incluant leurs exigences informatiques sont également évalués. Encore une fois, les approches conventionnelle et réciproque produisent des petites erreurs de position dipolaire. En effet, les erreurs de position pour des solutions inverses à un seul dipôle sont robustes de manière inhérente au manque de précision dans les solutions directes, mais dépendent de l’activité superposée d’autres sources neurales. Contrairement aux attentes, les approches réciproques n’améliorent pas la précision des positions dipolaires comparativement aux approches conventionnelles. Cependant, des exigences informatiques réduites en temps et en espace sont les avantages principaux des approches réciproques. Ce type de localisation est potentiellement utile dans la planification d’interventions neurochirurgicales, par exemple, chez des patients souffrant d’épilepsie focale réfractaire qui ont souvent déjà fait un EEG et IRM.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les enjeux liés aux politiques éducatives ont considérablement changé au cours des dernières décennies. Ces changements sont liés, entre autres, à l’accroissement de l’imputabilité et de la reddition de compte qui est devenue une caractéristique importante des réformes curriculaires et pédagogiques. Les politiques à enjeux élevés exercent une pression énorme sur les districts et les écoles états-unienne afin qu’ils augmentent le rendement des élèves en utilisant des systèmes de conséquences (Hall & Ryan, 2011; Loeb & Strunk, 2007). Ces politiques envoient de puissants messages sur l'importance de certaines matières scolaires au détriment d'autres - circonscrivant les exigences en termes de compétences et de connaissances. La langue maternelle d’enseignement et les mathématiques sont devenues des mesures centrales sur lesquelles reposent l’évaluation et le degré de performance des districts et des écoles. Conséquemment, les administrateurs de districts et les directions d’écoles ont souvent recours à des réformes curriculaires et pédagogiques comme moyen d'augmenter le rendement des élèves dans les matières scolaires visées par ces politiques. Les politiques contraignent les acteurs scolaires de concentrer les ressources sur les programmes curriculaires et les évaluations, le développement professionnel, et la prise de décision pilotée par les données (Anagnostopoulos & Ruthledge, 2007; Honig & Hatch, 2004; Spillane, Diamond, et al., 2002; Weitz White & Rosenbaum, 2008). Cette thèse examine la manière dont les politiques à enjeux élevés opèrent quotidiennement dans les interactions et les pratiques au sein des écoles. Nous analysons plus particulièrement les différents messages provenant de la politique transmis aux acteurs scolaires sur les manières d'apporter des changements substantiels dans le curriculum et l'enseignement. Nous élargissons l’analyse en prenant en compte le rôle des administrateurs de district ainsi que des partenaires universitaires qui façonnent également la manière dont certains aspects des messages provenant des politiques sont transmis, négociés et/ou débattus et d’autres sont ignorés (Coburn & Woulfin, 2012). En utilisant l’analyse de discours, nous examinons le rôle du langage comme constituant et médiateur des interactions sociales entre les acteurs scolaires et d’autres parties prenantes. De telles analyses impliquent une investigation approfondie d’un nombre d’étude de cas limité. Les données utilisées dans cette thèse ont été colligées dans une école primaire états-unienne du mid-West. Cette étude de cas fait partie d’une étude longitudinale de quatre ans qui comprenait huit écoles dans les milieux urbains entre 1999 et 2003 (Distributed Leadership Studies, http://www.distributedleadership.org). La base de données analysée inclut des observations de réunions formelles et des entrevues auprès des administrateurs du district, des partenaires universitaires, de la direction d’école et des enseignants. En plus de l’introduction et de la problématique (chapitre 1) et de discussion et conclusion (chapitre 5), cette thèse comprend un ensemble de trois articles interdépendants. Dans le premier article (chapitre 2), nous effectuons une recension des écrits portant sur le domaine de l’implantation de politiques (policy implementation) et la complexité des relations locales, nationales et internationales dans les systèmes éducatifs. Pour démystifier cette complexité, nous portons une attention particulière à la construction de sens des acteurs scolaires comme étant une dimension clé du processus de mise en œuvre des réformes. Dans le deuxième article (chapitre 3), nous cherchons à comprendre les processus sociaux qui façonnent les réponses stratégiques des acteurs scolaires à l’égard des politiques du district et de l’état et en lien avec la mise en œuvre d’un curriculum prescrit en mathématiques. Plus particulièrement, nous explorons les différentes situations dans lesquelles les acteurs scolaires argumentent au sujet des changements curriculaires et pédagogiques proposés par les administrateurs de district et des partenaires universitaires afin d’augmenter les résultats scolaires en mathématiques dans une école à faible performance. Dans le troisième article (chapitre 4), nous cherchons à démystifier les complexités liées à l’amélioration de l’enseignement dans un environnement de politiques à enjeux élevés. Pour ce faire, nous utilisons l'interaction entre les notions d'agentivité et la structure afin d'analyser la manière dont les conceptions d’imputabilité et les idées qui découlent de l'environnement politique et les activités quotidiennes jouent dans les interactions entre les acteurs scolaires concernant sur l’enseignement de la langue maternelle. Nous explorons trois objectifs spécifiques : 1) la manière dont les politiques à enjeux élevés façonnent les éléments de l’enseignement qui sont reproduits et ceux qui sont transformés au fil du temps ; 2) la manière dont la compréhension des leaders de l’imputabilité façonne les aspects des messages politiques que les acteurs scolaires remarquent à travers les interactions et les conversations et 3) la manière les acteurs scolaires portent une attention particulière à certaines messages au détriment d’autres. Dans le dernier chapitre de cette thèse, nous discutons les forces et les limites de l’analyse secondaire de données qualitatives, les implications des résultats pour le domaine d’études de l’implantation de politiques et les pistes futures de recherches.