999 resultados para Bootstrap restreint et efficace
Resumo:
Ma thèse est composée de trois essais sur l'inférence par le bootstrap à la fois dans les modèles de données de panel et les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peut être faible. La théorie asymptotique n'étant pas toujours une bonne approximation de la distribution d'échantillonnage des estimateurs et statistiques de tests, je considère le bootstrap comme une alternative. Ces essais tentent d'étudier la validité asymptotique des procédures bootstrap existantes et quand invalides, proposent de nouvelles méthodes bootstrap valides. Le premier chapitre #co-écrit avec Sílvia Gonçalves# étudie la validité du bootstrap pour l'inférence dans un modèle de panel de données linéaire, dynamique et stationnaire à effets fixes. Nous considérons trois méthodes bootstrap: le recursive-design bootstrap, le fixed-design bootstrap et le pairs bootstrap. Ces méthodes sont des généralisations naturelles au contexte des panels des méthodes bootstrap considérées par Gonçalves et Kilian #2004# dans les modèles autorégressifs en séries temporelles. Nous montrons que l'estimateur MCO obtenu par le recursive-design bootstrap contient un terme intégré qui imite le biais de l'estimateur original. Ceci est en contraste avec le fixed-design bootstrap et le pairs bootstrap dont les distributions sont incorrectement centrées à zéro. Cependant, le recursive-design bootstrap et le pairs bootstrap sont asymptotiquement valides quand ils sont appliqués à l'estimateur corrigé du biais, contrairement au fixed-design bootstrap. Dans les simulations, le recursive-design bootstrap est la méthode qui produit les meilleurs résultats. Le deuxième chapitre étend les résultats du pairs bootstrap aux modèles de panel non linéaires dynamiques avec des effets fixes. Ces modèles sont souvent estimés par l'estimateur du maximum de vraisemblance #EMV# qui souffre également d'un biais. Récemment, Dhaene et Johmans #2014# ont proposé la méthode d'estimation split-jackknife. Bien que ces estimateurs ont des approximations asymptotiques normales centrées sur le vrai paramètre, de sérieuses distorsions demeurent à échantillons finis. Dhaene et Johmans #2014# ont proposé le pairs bootstrap comme alternative dans ce contexte sans aucune justification théorique. Pour combler cette lacune, je montre que cette méthode est asymptotiquement valide lorsqu'elle est utilisée pour estimer la distribution de l'estimateur split-jackknife bien qu'incapable d'estimer la distribution de l'EMV. Des simulations Monte Carlo montrent que les intervalles de confiance bootstrap basés sur l'estimateur split-jackknife aident grandement à réduire les distorsions liées à l'approximation normale en échantillons finis. En outre, j'applique cette méthode bootstrap à un modèle de participation des femmes au marché du travail pour construire des intervalles de confiance valides. Dans le dernier chapitre #co-écrit avec Wenjie Wang#, nous étudions la validité asymptotique des procédures bootstrap pour les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peu être faible. Nous montrons analytiquement qu'un bootstrap standard basé sur les résidus et le bootstrap restreint et efficace #RE# de Davidson et MacKinnon #2008, 2010, 2014# ne peuvent pas estimer la distribution limite de l'estimateur du maximum de vraisemblance à information limitée #EMVIL#. La raison principale est qu'ils ne parviennent pas à bien imiter le paramètre qui caractérise l'intensité de l'identification dans l'échantillon. Par conséquent, nous proposons une méthode bootstrap modifiée qui estime de facon convergente cette distribution limite. Nos simulations montrent que la méthode bootstrap modifiée réduit considérablement les distorsions des tests asymptotiques de type Wald #$t$# dans les échantillons finis, en particulier lorsque le degré d'endogénéité est élevé.
Resumo:
Un processus de réinsertion professionnelle pertinent sous-entend une gestion pertinente des travailleurs absents et leur prise en charge rapide et coordonnée. Dans le cadre d'un projet de recherche, des problèmes lors de l'identification des cas ont été rencontrés. Différents éléments faisant clairement obstacle au processus de sélection instauré dans les entreprises partenaires ont été mis en évidence. Ceux-ci doivent être considérés de manière plus large comme des freins à l'dentification précoce des individus à risque d'invalidité et ainsi au processus de réinsertion professionnelle. [Auteurs]
Resumo:
Introductionþ: L'insulinothérapie intraveineuse est la mieux adaptée pour obtenirun contrôle glycémique rapidement efficace ou lors de besoins en insulinechangeants de façon peu prévisible, mais son emploi hors des soins intensifs seheurte souvent aux manque de formation et réticences des soignants. L'inclusionL'inclusiondu contrôle glycémique rapide dans nos standards institutionnels de priseen charge de l'AVC aigu a suscité une demande de protocole thérapeutiqueadapté aux besoins de l'Unité cérébrovasculaire.Patients et méthodesþ: Le protocole d'insulinothérapie a été dérivé d'algorithmespubliés intégrant glycémie actuelle, cinétique glycémique et sensibilité àl'insuline du patient. Aux repas, une augmentation du débit d'insuline iv. pendant1 h a été ajoutée. Les objectifs glycémiques étaient 4-6þmmol/l en préprandialetþ< 8þmmol/l en postprandial. L'implémentation s'est faite à travers unprocessus de co-construction (outils de gestion, documents et activités de formation)avec les responsables médico-infirmiers du service.Résultatsþ: Les données des 90 premiers patients ont été analysées (diabète connuþ:38, hyperglycémie nouvelleþ: 52, 2715h de traitement cumulées). Les duréesd'insulinothérapie iv. étaient de 34,5 h [interquartile 24-39] et 26,5 h [21-36,3] respectivement(pþ=þ0,03), les délais d'atteinte de l'objectif de 5 h [4.0-8.25] et 7 h[4.0-9.75] (pþ=þns.). Pendant les 24 h suivantes, les taux de glycémies dans la cibleétaient de 70,4þ%/81,3þ% (90,3þ%/94,6þ% entre 4-8þmmol/l), avec un faible tauxd'hypoglycémies (3,9þ%/3,1þ%þ< 4,0þmmol/l, 0,4þ%/0,2þ%þ<þ3,3þmmol/l) et un contrôleglycémique postprandial comparable (excursions +2,6þmmol/l [0,7-3,9] et+1,7þmmol/l [0,6-3,7]þ; Nþ=þ75þ; pþ=þns.).Conclusionþ: L'insulinothérapie intraveineuse hors des soins intensifs est faisable,hautement sûre et efficace, même avec des objectifs glycémiques particulièrementstricts. Outre la fiabilité perçue de l'outil de gestion, la démarche departenariat adoptée avec les soignants, permettant la prise en compte de leurspréoccupations à chaque étape du processus, a été un facteur de succès importantpour son implémentation.
Resumo:
Mode of access: Internet.
Resumo:
La recherche, faisant l'objet de la présente communication, interroge cette nouvelle répartition des rôles telle qu'elle a été théorisée dans les écrits gestionnaires portant sur la NGP. Nous investiguons donc la véracité de l'affirmation selon laquelle une gestion moderne, efficiente et efficace des affaires publiques implique une séparation plus stricte des sphères politiques et administratives. Autrement dit, est-ce que la mise en oeuvre des réformes managériales au sein des administrations cantonales de Suisse romande change effectivement la nature de la relation entre les hauts fonctionnaires et leurs ministres de tutelle ? Pour apporter un début de réponse à cette question, nous avons décidé de nous approcher de trois cantons romands qui se trouvent dans des dynamiques de réforme administrative d'ampleur différentes. Aussi, notre choix de terrain s'est porté sur le canton du Valais, qui est l'un des plus avancés en matière de NGP, sur le canton de Neuchâtel, qui se trouve dans une dynamique hybride puisque certains services administratifs ont adopté les principes de la contractualisation sur base volontaire et d'autres non, ansi que le canton du Jura qui n'a pas, pour l'instant, opté pour les nouveaux principes et outils de la NGP. La comparaison de ces trois entités, dont les trajectoires de modernisation diffèrent, nous permettra de constater ou non des différences d'appréciation dans la nature des relations politico-administratives des trois cantons. Si l'on se réfère à la description idéale-typique proposée par les tenants de la NGP, nous devrions constater d'importantes divergences. Enfin, il est à relever que cette recherche est pionnière en Suisse puisqu'aucune autre étude à ce jour ne s'est attelée à décrire ces changements relationnels, comme cela a été le cas dans la plupart des pays de l'OCDE.
Resumo:
L'intubation endotrachéale reste la méthode de premier choix pour assurer la ventilation et la protection des voies aériennes supérieures. Ce geste fait partie intégrante du savoir-faire des équipes d'anesthésiologie, dans un contexte de chirurgie élective, de réanimation ou de soins intensifs. En règle générale, l'intubation s'avère rapide, sûre et efficace. Un apprentissage et une pratique régulière sont néanmoins nécessaires pour acquérir et maintenir les habilités requises pour gérer les situations standards et d'urgences usuelles, et pour minimiser le risque de complication, notamment iatrogènes. De nombreuses techniques ont été conçues pour faciliter l'intubation ou palier aux éventuelles difficultés. De nouveaux outils ne cessent d'être mis au point. La place qu'ils seront amenés à prendre dans la pratique quotidienne reste à définir. Ils font néanmoins désormais partie du paysage anesthésique. Il existe un certain nombre de conditions morphologiques ou pathologiques qui peuvent entraver l'intubation et risquer de converger pour aboutir à une situation d'intubation difficile. Afin de minimiser les risques de prise en charge des voies aériennes, il importe de détecter ces conditions et de pouvoir s'y adapter, notamment par le choix d'un matériel et d'un protocole adaptés. Les voies aériennes difficiles représentent en ce sens une interaction complexe entre les facteurs propres au patient, le contexte clinique et les capacités de l'anesthésiste. Les intubations trachéales difficiles restent une source majeure de morbidité et de mortalité dans la pratique clinique, particulièrement lorsqu'elles ne sont pas anticipées et dans les situations d'urgence. Même si la pharmacologie, les méthodes de travail et les moyens techniques ont évolués et garantissent une meilleure gestion du risque et une meilleure prise en charge des situations complexes, la gestion des voies aériennes et la prédiction des voies aériennes difficiles restent un défi central de la prise en charge anesthésiologique. La gestion des voies aériennes difficiles reste donc une composante importante de la pratique anesthésique, de part l'incidence d'événements potentiellement graves pour le patient qu'elle génère. La nécessité d'évaluer le risque d'ID est désormais ancrée dans les préceptes de la prise en charge anesthésique. Lors de l'évaluation préopératoire, le dépistage des facteurs de risque d'ID doit être systématique et correctement documenté. L'anticipation d'un risque trop élevé ou d'une situation potentiellement compliquée permet d'adapter sa planification, de compléter les examens préopératoires, d'orienter le choix de la technique et de se préparer à pouvoir répondre de manière rapide et efficace à une situation urgente. Même si les situations d'ID ne pourront probablement jamais êtres toutes anticipées, il importe donc de définir les facteurs de risque significatifs et de les intégrer dans la prise en charge des voies aériennes. L'accent a notamment été mis sur la recherche de critères prédictifs efficaces. Ces stratégies ont toutes pour but de stratifier le risque de difficultés intubatoires afin de minimiser l'incidence d'événements délétères, par une préparation optimale et la prise en charge adéquate des situations difficiles. L'absence de recommandations internationales standardisées d'identification et de prise en charge de l'ID sont principalement liées à l'absence de définitions standardisées, au manque de critères suffisamment sensibles et spécifiques, au caractère subjectif de certains critères cliniques utilisés et à la kyrielle de techniques et d'outils alternatifs à l'intubation orotrachéale laryngoscopique standard à disposition. Aucune anomalie anatomo-pathologique usuelle ni aucune de leurs combinaisons n'est strictement associée à l'intubation difficile. Certains examens sont en outre difficilement justifiables pour une consultation pré-anesthésique usuelle. Dans le cadre de cette problématique, l'objectif fondamental de ce travail est de participer à l'amélioration la prédictibilité de l'intubation difficile dans la pratique anesthésique. L'étude portera sur l'analyse rétrospective de dossiers anesthésiques de 3600 patients, adultes et pédiatriques, pris en charge par le service d'anesthésiologie dans le secteur hors bloc opératoire au CHUV, entre le 1er janvier et le 31 décembre 2010. L'analyse des résultats devrait permettre de déterminer l'incidence et le taux de prédictibilité de l'intubation difficile prévue et non prévue, ainsi que de citer les techniques actuelles de prise en charge dans une institution hospitalière universitaire telle que le CHUV. Un analyse critique des stratégies de prédiction employées, de leur mise en pratique et des techniques de travail privilégiées dans la prise en charge des situations d'intubations difficiles pourrait permettre l'élaboration de pistes réflexives dans le but de les optimiser et d'améliorer la prise en charge du patient et la gestion du risque anesthésique. Cette étude pourrait déboucher sur la proposition d'un score simple de prédiction de l'intubation difficile à intégrer sur la feuille de consultation pré- anesthésique. Le but est est d'améliorer les recommandations de prise en charge préopératoire et d'améliorer la transmission interprofessionnelle des informations liées aux voies aériennes, afin de minimiser le risque d'intubation difficile non prévue ainsi que l'incidence et la sévérité des complications liées aux ID.
Resumo:
Ce travail de thèse décrit dans un premier volet le contexte historique et géopolitique de l'héroïne et de la cocaïne, ainsi que la composition chimique des produits et les étapes de leur fabrication. Le second volet est consacré à la description du concept du profilage et aux méthodes d'analyses chimiques et de comparaison de profils. Le troisième volet présente l'utilisation d'outils permettant une gestion et une visualisation des liens chimiques mis en évidence. L'ensemble de la démarche s'inscrit dans le but visant à cerner mieux les rouages de l'organisation du trafic de stupéfiants et de proposer une architecture cohérente et efficace de la gestion des analyses des produits stupéfiants. Le résultat permet de fournir une information opérationnelle utile aux forces de police actives dans la lutte contre le trafic de stupéfiant. Enfin une réflexion est menée sur l'interprétation des résultats et la valeur probante de ceux-ci, notamment lorsqu'une expertise est rédigée à l'attention d'un magistrat ou d'un tribunal.
Resumo:
Une lésion nerveuse périphérique est susceptible d'engendrer une douleur neuropathique caractérisée par des changements d'expression génique dans les neurones nociceptifs des ganglions spinaux. Parmi ces modifications, on note une augmentation transcriptionnelle du gène codant pour la guanosine triphosphate cyclohydrolase 1 (GCH1) considérée comme modulateur clé des douleurs neuropathiques périphériques1. La surexpression de la GCH1 induit alors une hausse de la concentration de la tétrahydrobiopterin (BH4), un cofacteur essentiel pour la production de catécholamines, de sérotonine et d'oxide nitrique dans les ganglions spinaux. La surexpression de ce cofacteur induit la production de ces neurotransmetteurs et contribue à l'augmentation de la sensibilité douloureuse. Dans ce travail, j'ai modulé l'expression de GCH1 par l'utilisation d'un vecteur viral adéno-associé. Tout d'abord, j'ai testé in vitro dans des cellules PC12 différentes molécules d'ARN interfèrent permettant la régulation négative de GCH1. Les cellules PC 12 contiennent constitutionnellement la GCH1 et sont donc intéressantes afin de tester et sélectionner un plasmide permettant une régulation négative efficace de cette molécule in vitro. Cela m'a permis de choisir après sélection de cellules par FACS et quantification protéique par Western blot les meilleurs sh-ARN à utiliser tant pour la régulation négative de GCH1 que pour le vecteur contrôle. J'ai ensuite co- transfecté ces plasmides avec le plasmide pDF6 dans des cellules HEK293T pour la production de mon vecteur viral (rAAV2/6) permettant la régulation négative de la GCH1 ainsi que de mon vecteur contrôle. Après avoir étudié deux voies d'injection chez le rat (dans le nerf sciatique et en intrathécal), j'ai retenu la voie intrathécale comme ayant le meilleur taux de transduction de mon vecteur viral au niveau des ganglions spinaux. Utiliser cette voie d'injection pour mon vecteur permet de cibler plus particulièrement les neurones nociceptifs des ganglions spinaux. J'ai ensuite étudié la modulation de la GCH1 et sa répercussion sur le développement et le maintien des douleurs neuropathiques dans le modèle animal « spared nerve injury » (SNI). Je n'ai pas obtenu de diminution de douleur ni au niveau comportemental ni au niveau moléculaire chez le rat. Ayant répété l'expérience chez la souris, j'ai obtenu une diminution significative de l'expression de la GCH1 au niveau de l'ARN messager. Je n'ai pas étudié l'efficacité de mon vecteur in vivo chez la souris car un autre groupe m'a devancé dans cette expérience et a publié une étude similaire montrant une régulation négative et efficace de la GCH1 sur les symptômes de douleur neuropathique. Mes résultats, associés à cette publication, démontrent la validité de mon hypothèse de départ et ouvrent de nouvelles perspectives thérapeutiques en prenant comme cible la production de BH4.
Resumo:
Un résumé en anglais est également disponible. Article qui reprend une allocution présentée lors de la Conférence organisée conjointement par l’US Department of Commerce et le Groupe de l’article 29, Bruxelles, Centre Borschette, les 23 et 24 octobre 2006.
Resumo:
"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de maîtrise en droit des technologies de l'information"
Resumo:
Comment conseiller l’action ? En la pensant bien et totalement pour qu’elle soit bonne et juste, dit-on, puisque conforme à la raison. La pensée de l’acte s’impose d’elle-même au sujet de l’action comme allant de soi, assurée de réussir, effective et efficace. Qui peut ainsi assigner au sujet rationnel la nécessité de son acte ? Le maître-penseur qu’est le théoricien de l’action. Cette figure de conseiller-philosophe de l’action est-elle constitutive de toute pensée de l’action ? Peut-on échapper à cette assimilation du sujet de l’action et de la pensée de l’acte qui transforme le conseil en ordre ? L’auteur examine les éléments philosophiques de cette illusion du conseil. L’analyse proudhonienne du travail industriel ne fournit-elle pas un moyen de surmonter cet obstacle épistémologique ?
Resumo:
L’infection par le VIH-1 est caractérisée par une déplétion progressive des cellules T CD4+ ainsi que par un dysfonctionnement des cellules T qui, en l’absence de traitements anti-rétroviraux, conduit inéluctablement à la progression de la maladie vers le stade SIDA. Certains des mécanismes impliqués dans ce dysfonctionnement de la réponse cellulaire T ont été élucidés et ont révélé un rôle important de la molécule PD-1 dans l’exhaustion des cellules T en phase chronique de l’infection. En effet, des niveaux élevés de PD-1 ont été associés à une charge virale élevée ainsi qu’à une diminution de la production de cytokines et de la capacité de proliférer des cellules T spécifiques du virus. De plus, bloquer in vitro l’interaction de PD-1 avec son ligand PD-L1 en utilisant un anticorps bloquant rétabli la fonction de ces cellules. De façon intéressante, notre groupe ainsi que d’autres équipes, ont montré que l’expression de PD-1 était non seulement augmentée sur les cellules spécifiques de l’antigène mais aussi sur les cellules T totales. Cependant, peu de choses sont connues quant à l’impact de l’expression de PD-1 sur le renouvellement et la différenciation des cellules T qui expriment PD-1, et ce au cours de l’infection. L’expression de PD-1 n’a notamment pas été étudiée en phase aigue de l’infection. Nous montrons clairement que, aussi bien chez les individus en phase aigue qu’en phase chronique de l’infection, l’expression de PD-1 est augmentée sur toutes les sous-populations T, y compris les cellules naïves. Nous avons également mis en relief une distribution anormale des sous-populations T, ces cellules ayant un phénotype plus différencié, et ce à tous les stades de la maladie. Dans cette thèse, nous discutons le rôle possible de PD-1 dans l’homéostasie des cellules T chez les individus infectés par le VIH-1. En étudiant la transition de la phase aigue à la phase chronique de l’infection, nous avons trouvé que les sous-populations T CD8+ des individus récemment infectés exprimaient moins de PD-1 que celles des individus à un stade plus avancé de la maladie. Ces niveaux plus élevés de PD-1 sur les cellules T CD8+ en phase chronique sont associés à des niveaux réduits de prolifération in vivo – comme mesuré par l’expression de Ki67 – suggérant que l’expression de PD-1 est partiellement impliquée dans cette perte de fonction des cellules T CD8+. De plus, les cellules naïves s’accumulent en fréquence lors de la transition de la phase aigue à la phase chronique de l’infection. Considérant que les cellules naïves expriment déjà des hauts niveaux de PD-1, nous avons émis l’hypothèse que l’activation initiale des cellules T chez les individus chroniquement infectés est affectée. En résumé, nous proposons un modèle où des hauts niveaux d’expression de PD-1 sont associés à (1) un dysfonctionnement de la réponse cellulaire T CD8+ et (2) un défaut d’activation des cellules naïves ce qui contribue non seulement à la progression de la maladie mais aussi ce qui va limiter l’efficacité de potentiels vaccins dans l’infection par le VIH-1 en empêchant toute nouvelle réponse d’être initiée. Afin de mieux disséquer la réponse immunitaire mise en place lors d’une infection comme celle du VIH-1, nous avons développé un outil qui permet de détecter les cellules T CD4+ i.e. des tétramères de CMH de classe II. Ces réactifs ont pour but d’augmenter l’avidité du CMH de classe II pour son ligand et donc de détecter des TCR de faible affinité. Dans cette thèse, nous décrivons une méthode originale et efficace pour produire diverses molécules de HLA-DR liant de façon covalente le peptide antigénique. Mieux déterminer les mécanismes responsables de l’exhaustion des cellules T dans l’infection par le VIH-1 et de la progression de la maladie, ainsi que développer des outils de pointe pour suivre ces réponses T, est central à une meilleure compréhension de l’interaction entre le virus et le système immunitaire de l’hôte, et permettra ainsi le développement de stratégies pertinentes pour lutter contre l’infection par le VIH-1.
Resumo:
La stratégie de la tectonique moléculaire a montré durant ces dernières années son utilité dans la construction de nouveaux matériaux. Elle repose sur l’auto-assemblage spontané de molécule dite intelligente appelée tecton. Ces molécules possèdent l’habilité de se reconnaitre entre elles en utilisant diverses interactions intermoléculaires. L'assemblage résultant peut donner lieu à des matériaux moléculaires avec une organisation prévisible. Cette stratégie exige la création de nouveaux tectons, qui sont parfois difficiles à synthétiser et nécessitent dans la plupart des cas de nombreuses étapes de synthèse, ce qui empêche ou limite leur mise en application pratique. De plus, une fois formées, les liaisons unissant le corps central du tecton avec ces groupements de reconnaissance moléculaire ne peuvent plus être rompues, ce qui ne permet pas de remodeler le tecton par une procédure synthétique simple. Afin de contourner ces obstacles, nous proposons d’utiliser une stratégie hybride qui se sert de la coordination métallique pour construire le corps central du tecton, combinée avec l'utilisation des interactions plus faibles pour contrôler l'association. Nous appelons une telle entité métallotecton du fait de la présence du métal. Pour explorer cette stratégie, nous avons construit une série de ligands ditopiques comportant soit une pyridine, une bipyridine ou une phénantroline pour favoriser la coordination métallique, substitués avec des groupements diaminotriazinyles (DAT) pour permettre aux complexes de s'associer par la formation de ponts hydrogène. En plus de la possibilité de créer des métallotectons par coordination, ces ligands ditopiques ont un intérêt intrinsèque en chimie supramoléculaire en tant qu'entités pouvant s'associer en 3D et en 2D. En parallèle à notre étude de la chimie de coordination, nous avons ii examiné l'association des ligands, ainsi que celle des analogues, par la diffraction des rayons-X (XRD) et par la microscopie de balayage à effet tunnel (STM). L'adsorption de ces molécules sur la surface de graphite à l’interface liquide-solide donne lieu à la formation de différents réseaux 2D par un phénomène de nanopatterning. Pour comprendre les détails de l'adsorption moléculaire, nous avons systématiquement comparé l’organisation observée en 2D par STM avec celle favorisée dans les structures 3D déterminées par XRD. Nous avons également simulé l'adsorption par des calculs théoriques. Cette approche intégrée est indispensable pour bien caractériser l’organisation moléculaire en 2D et pour bien comprendre l'origine des préférences observées. Ces études des ligands eux-mêmes pourront donc servir de référence lorsque nous étudierons l'association des métallotectons dérivés des ligands par coordination. Notre travail a démontré que la stratégie combinant la chimie de coordination et la reconnaissance moléculaire est une méthode de construction rapide et efficace pour créer des réseaux supramoléculaires. Nous avons vérifié que la stratégie de la tectonique moléculaire est également efficace pour diriger l'organisation en 3D et en 2D, qui montre souvent une homologie importante. Nous avons trouvé que nos ligands hétérocycliques ont une aptitude inattendue à s’adsorber fortement sur la surface de graphite, créant ainsi des réseaux organisés à l'échelle du nanomètre. L’ensemble de ces résultats promet d’offrir des applications dans plusieurs domaines, dont la catalyse hétérogène et la nanotechnologie. Mots clés : tectonique moléculaire, interactions intermoléculaires, stratégie hybride, coordination métallique, diffraction des rayons-X, microscopie de balayage à effet tunnel, graphite, phénomène de nanopatterning, calculs théoriques, ponts hydrogène, chimie supramoléculaire, ligands hétérocycliques, groupements DAT, catalyse hétérogène, nanotechnologie.
Resumo:
Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système.