973 resultados para Réseau organique covalent
Resumo:
Les Technologies de l’Information et de la Communication (TIC) sont de plus en plus présentes dans toutes les sphères de la société y compris dans l’éducation. Pour favoriser des usages effectifs de ces technologies par des enseignants dans les salles de classe, il devient pertinent de s’intéresser aux usages qu’en font certains formateurs et futurs enseignants dans le cadre de la formation initiale. Ainsi, dans le contexte de la formation initiale des enseignants en Côte d’Ivoire à l’ENS d’Abidjan, l’objectif général de la présente thèse est de documenter les usages et la compétence TIC. Pour répondre à ces préoccupations, une étude qualitative exploratoire a été réalisée à l’Ecole normale supérieure (ENS) d’Abidjan en Côte d’Ivoire. Les entrevues individuelles semi-dirigées avec des formateurs (n = 9) et des futurs enseignants (n = 15) ont été analysées, en adoptant une approche méthodologique basée essentiellement sur l’analyse du contenu. Les résultats sont présentés sous forme d’articles scientifiques. La thèse tente ainsi de décrire des usages des TIC par des futurs enseignants, de dresser un profil des formateurs usagers des TIC dans le cadre de la formation initiale à l’ENS d’Abidjan. Elle veut aussi examiner les usages des TIC par des futurs enseignants, en formation initiale, pour certaines des composantes de la compétence TIC. Les résultats obtenus permettent de dresser une typologie des usages des TIC par des futurs enseignants dans le cadre de leurs activités d’apprentissage. Pour ce qui est des formateurs, trois profils d’usagers ont été dressés : 1. Les usagers de bas niveau qui font usage des TIC uniquement pour la recherche et la production de documents ; 2. Les usagers de niveau moyen qui, en plus de la recherche et la production de documents, utilisent les outils électroniques de communication dans leurs pratiques professionnelles, et font souvent usage des TIC dans leur classe ; 3. Les usagers de bon niveau qui, en plus de faire usage des outils de communication dans leurs pratiques professionnelles et d’intégrer les TIC dans leurs pratiques en classe, disposent de pages Web à but éducatif. Par ailleurs, l’analyse des discours des futurs enseignants sur les usages des TIC laisse percevoir que la compétence TIC se révèle de façon inégale à travers quatre de ses composantes. En effet, même s’ils n’ont pas une posture critique face aux TIC, ces futurs enseignants ont une conscience de leurs avantages dans le cadre de leur formation. Ainsi, ils utilisent les TIC pour communiquer, rechercher les informations, les interpréter afin de résoudre un problème, se constituer un réseau d’échanges et de formation continue. Même si l’intégration des TIC dans la formation initiale des enseignants en Côte d’Ivoire n’est pas encore effective, des formateurs et des futurs enseignants en font usage dans le cadre de la formation.
Resumo:
Résumé: Les progrès réalisés dans le domaine médical ont permis un prolongement de l’espérance de vie, l’amélioration de la qualité de vie des patients; ce qui implique aussi des changements dans des domaines comme l’assurance-vie. Le principe de la tarification en assurance-vie est basé sur la comparaison du risque (probabilité) de décès d’un individu candidat à une police d’assurance à celui d’une population de référence la plus proche possible du candidat. C’est ainsi que l’analyse de la littérature médicale est devenue un outil indispensable dans la sélection des risques. L’assurance-vie est présente en Afrique subsaharienne depuis environ deux cents ans, mais les assureurs ne disposaient pas jusqu'à nos jours d’outils de tarification spécifiques au contexte africain. A notre connaissance notre travail est le premier effort de ce type à s’intéresser à ce sujet. Son objectif est d’élaborer un outil de tarification qui tiendra compte des aspects spécifiques de la mortalité et de la morbidité sur le continent africain. Dans une première partie nous avons conduit une revue de la littérature médicale disponible sur différents problèmes de santé; dans une seconde étape nous avons identifié les facteurs de risque de morbidité et de mortalité afin de proposer une sélection des risques pour une tarification. Les résultats montrent que les études de mortalité, et principalement les cohortes de suivi à long terme sont rares en Afrique subsaharienne; la majorité des études sont de courte durée et en plus elles enrôlent un nombre restreint de patients. Ces insuffisances ne permettent pas une analyse actuarielle approfondie et les résultats sont difficiles à extrapoler directement dans le domaine de la tarification. Cependant, l’identification des facteurs d’aggravation de la mortalité et de la morbidité permettra un ajustement de la tarification de base. Le sujet noir africain présente un profil de mortalité et de morbidité qui est sensiblement différent de celui du sujet caucasien, d’où la nécessité d’adapter les outils de tarification actuellement utilisés dans les compagnies d’assurance qui opèrent en Afrique subsaharienne. L’Afrique au sud du Sahara a besoin aujourd’hui plus que jamais de données épidémiologiques solides qui permettront de guider les politiques sanitaires mais aussi servir au développement d’une sélection des risques adaptés au contexte africain. Ceci passera par la mise en place d’un réseau coordonné de santé publique, un système de surveillance démographique fiable et un suivi continu des mouvements de la population. Pour atteindre un tel objectif, une collaboration avec les pays développés qui sont déjà très avancés dans de tels domaines sera nécessaire.
Resumo:
La saprolégniose est une maladie fongique causée par le champignon aquatique Saprolegnia sp. qui affecte les poissons sauvages et ceux provenant des piscicultures. L’apparition de touffes cotonneuses semblables à de la ouate de couleur blanche à grise est souvent la première indication de l’infection. Ce saprophyte ubiquitaire se nourrit habituellement des œufs de poissons morts, mais peut se propager rapidement aux œufs sains causant la mort de ces derniers. La saprolégniose est souvent une infection secondaire, mais des souches virulentes peuvent facilement se développer sur les salmonidés ayant subi un stress ou une mauvaise manipulation. De grandes pertes économiques associées à la saprolégniose sont rapportées chaque année à travers le monde surtout dans l’industrie de la pisciculture. Jusqu’en 2002, le contrôle de la saprolégniose pouvait se faire par l’utilisation du vert de malachite, un colorant organique ayant une grande activité antifongique. Malheureusement, cette molécule a été bannie à cause de ses propriétés cancérigènes. Aucun composé aussi efficace n’est actuellement disponible pour traiter les infections de la saprolégniose. Des molécules ou extraits naturels ayant un potentiel antifongique ont donc été testés à l’aide de deux techniques (par graines de chanvre et par cylindre d’agar). Les molécules d’un extrait de propolis (cire de ruches d’abeilles) démontrant de l’activité anti-Saprolegnia ont été identifiées. De plus, une bactérie, Pseudomonas aeruginosa, pouvant être retrouvée dans le même environnement que Saprolegnia sp. a démontré un effet antagoniste au champignon. Une molécule de signalisation intercellulaire produite par P. aeruginosa, 4-hydroxy-2-heptylquinoline (HHQ), a été identifiée comme responsable de l’effet antagoniste contre Saprolegnia sp.
Resumo:
Dans ce mémoire, je présente mes études sur une stratégie efficace développée pour la synthèse de cétones homoallyliques substituées à partir de l’addition en cascade de réactifs de Grignard vinyliques substitués sur des α-amino esters catalysée par des sels de cuivre. L’utilisation de ces cétones homoallyliques a permis d’obtenir des mimes peptidiques comprenant un isostère de type hydroxyéthylène du lien amide. L’étape clé de cette stratégie repose sur la synthèse de cétones homoallyliques substituées intermédiaires à partir de la réaction d’additions en cascade catalysée au cuivre, de bromure de β,β-diméthylevinyle magnésium sur des analogues d’esters de la phénylalanine et de la sérine. Les cétones homoallyliques résultantes sont réduites sélectivement en alcool, la liaison double est clivée oxydativement et l’acide carboxylique résultant est couplé à un acide aminé. Afin d’évaluer l’effet qu’ont le remplacement du lien amide central dans un coude β par un hydroxyéthylène et de la présence d’un gem diméthyle sur la chaîne carbonée sur la conformation tridimensionnelle adoptée par les tripeptides générés, des analyses à l’état solide par diffraction aux rayons X, des analyses en solution par la spectroscopie RMN et des expériences de type NOESY ont été réalisées. Ces études ont permis de définir un nouveau type de coude β. La présence de pont hydrogène intramoléculaire et l’effet de restriction de conformation induit par le gem diméthyle, généralement appelé effet Thorpe-Ingold, favorisent la formation d’un coude β.
Resumo:
INTRODUCTION : En milieu urbain, l’amélioration de la sécurité des piétons pose un défi de santé publique. Pour chaque décès attribuable aux collisions routières, il y a des centaines de personnes blessées et, dans les pays riches, la diminution du nombre annuel de piétons décédés s’expliquerait en partie par la diminution de la marche. Les stratégies préventives prédominantes n’interviennent pas sur le volume de circulation automobile, un facteur pourtant fondamental. De plus, les interventions environnementales pour améliorer la sécurité des infrastructures routières se limitent habituellement aux sites comptant le plus grand nombre de décès ou de blessés. Cette thèse vise à décrire la contribution des volumes de circulation automobile, des pratiques locales de marche et de la géométrie des routes au nombre et à la répartition des piétons blessés en milieu urbain, et d’ainsi établir le potentiel d’une approche populationnelle orientée vers la reconfiguration des environnements urbains pour améliorer la sécurité des piétons. MÉTHODE : Le devis est de type descriptif et transversal. Les principales sources de données sont les registres des services ambulanciers d’Urgences-santé (blessés de la route), l’enquête Origine-Destination (volumes de circulation automobile), la Géobase du réseau routier montréalais (géométrie des routes) et le recensement canadien (pratiques locales de marche, position socioéconomique). Les analyses descriptives comprennent la localisation cartographique (coordonnées x,y) de l’ensemble des sites de collision. Des modèles de régression multi-niveaux nichent les intersections dans les secteurs de recensement et dans les arrondissements. RÉSULTATS : Les analyses descriptives démontrent une grande dispersion des sites de collision au sein des quartiers. Les analyses multivariées démontrent les effets significatifs, indépendants du volume de circulation automobile, de la présence d’artère(s) et d’une quatrième branche aux intersections, ainsi que du volume de marche dans le secteur, sur le nombre de piétons blessés aux intersections. L’analyse multi-niveaux démontre une grande variation spatiale de l’effet du volume de circulation automobile. Les facteurs environnementaux expliquent une part substantielle de la variation spatiale du nombre de blessés et du gradient socioéconomique observé. DISCUSSION : La grande dispersion des sites de collision confirme la pertinence d’une approche ne se limitant pas aux sites comptant le plus grand nombre de blessés. Les résultats suggèrent que des stratégies préventives basées sur des approches environnementales et populationnelle pourraient considérablement réduire le nombre de piétons blessés ainsi que les inégalités observées entre les quartiers.
Resumo:
Les pratiques religieuses dans les pays de l’Atlantique Nord se transforment et on observe pour une partie de leur population le passage d’un « croire institutionnalisé » à une spiritualité influencée par diverses traditions, dont certaines ont fait leur apparition sur ce territoire au milieu du 20e siècle. Le présent mémoire vise à mettre en lumière une des facettes de la diversité religieuse contemporaine; suite aux questionnements qui ont surgi au long du travail, il aborde aussi certains enjeux sous-jacents à l’analyse d’un groupe religieux en anthropologie, notamment comment aborder le terrain et comment considérer un tel groupe. J’ai choisi pour ce faire de décrire un groupe religieux québécois qui est lié à un culte afro-brésilien – l’umbanda– et qui est membre d’un réseau transnational de temples. J’examinerai d’abord comment l’umbanda s’est développée au Brésil, car cela fournira des indications pertinentes sur, entre autres choses, l’éventuelle perméabilité de cette tradition, une fois le groupe implanté dans un pays de l’Atlantique Nord. J’examinerai ensuite le type de transnationalisation qui a présidé à la naissance du temple à Montréal, car cette analyse offre des indices permettant de déterminer comment un tel groupe s’insère dans le paysage religieux de divers pays. Enfin, en me penchant sur les pratiques religieuses des membres du groupe, je tenterai de dégager certaines particularités locales.
Resumo:
Les cyclopropanes sont des motifs d’une grande importance puisqu’ils sont présents dans plusieurs molécules biologiquement actives en plus d’être de puissants intermédiaires dans la synthèse de molécules complexes. Au cours de cet ouvrage, nous avons développé une nouvelle méthode générale pour la synthèse d’ylures d’iodonium de malonates, soit d’importants précurseurs d’esters cyclopropane-1,1-dicarboxyliques. Ainsi, à l’aide de ces ylures, une méthode très efficace pour la synthèse d’esters cyclopropane-1,1-dicarboxyliques racémiques a été développée. Des travaux ont aussi été entrepris pour la synthèse énantiosélective de ces composés. Par ailleurs, les esters cyclopropane-1,1-dicarboxyliques ont été utilisés dans le développement de deux nouvelles méthodologies, soit dans une réaction de cycloaddition (3+3) avec des imines d’azométhines et dans la formation d’allènes par l’addition-1,7 de cuprates. Nous avons aussi poursuivi l’étude synthétique du cylindrocyclophane F impliquant l’utilisation de cyclopropanes pour le contrôle des centres chiraux. Ainsi l’addition-1,5 d’un cuprate sur un ester cyclopropane-1,1-dicarboxylique a été utilisée comme l’une des étapes clés de notre synthèse. L’autre centre chiral a pu être contrôlé par l’hydrogénolyse sélective d’un cyclopropylméthanol. Ces études ont, par ailleurs, mené au développement d’une nouvelle réaction d’arylcyclopropanation énantiosélective utilisant des carbénoïdes de zinc générés in situ à partir de réactifs diazoïques. Cette méthode permet d’accéder très efficacement aux cyclopropanes 1,2,3-substitués. De plus, nous avons développé la première réaction de Simmons-Smith catalytique en zinc menant à un produit énantioenrichi.
Resumo:
Cette thèse porte sur l’introduction des politiques de transfert de revenu au Brésil. L’objectif central de la recherche est de comprendre comment ces politiques se sont imposées dans le cadre des réformes de la protection sociale brésilienne pendant les années 1990, notamment à partir de 1995 et comment elles ont engendré un changement paradigmatique de troisième ordre de la politique nationale d’assistance sociale. Nous posons deux hypothèses de recherche : la première est que l’introduction de telles politiques au Brésil fut le résultat du rôle historique des intellectuels engagés dans la défense du revenu minimum en tant qu’alternative au modèle de protection sociale brésilien. Cette défense du revenu minimum fut soutenue par des intellectuels, des communautés épistémiques et par des politiciens qui ont inscrit le débat sur le revenu minimum à l’agenda politique brésilien. La deuxième hypothèse suggère que la convergence d’idées, d’institutions et d’intérêts a favorisé l’adoption de ces politiques. Cette convergence d’idées, d’institutions et d’intérêts repose sur le rôle de plusieurs acteurs tels les intellectuels, le président Cardoso et d’autres politiciens qui se sont mis à la défense du social au Brésil depuis 1999, des institutions parlementaires brésiliennes et des organisations internationales, notamment le FMI, la Banque mondiale et la Banque interaméricaine de développement – BID. Nous proposons l’approche des trois i pour rendre compte de ce changement. L’apprentissage social, les processus de diffusion et de lesson-drawing sont les facteurs à l’origine de la formation de la convergence autour des programmes de transfert de revenu. Nous montrerons que l’expérience brésilienne de programmes de transfert de revenu a non seulement engendré un processus d’apprentissage social renversé auprès de la Banque Mondiale mais qu'elle a aussi eu un effet aussi sur les actions de la BID. Nous suggérons que le changement paradigmatique de la protection sociale brésilienne a été amorcé par le gouvernement Cardoso dans un processus d’essais et d’erreurs. Ce processus, qui est à l’origine des réaménagements du programme « Comunidade Solidária », a permis la création du « Projeto Alvorada » et du « Réseau de protection sociale » en 2001. Les programmes de transfert de revenu reliés à l’éducation et aux soins de santé ont été les plus influents dans la construction du consensus qui s’est établi autour des programmes de transfert de revenu comme alternative à l’ancien modèle de protection sociale puisqu’ils procurent le renforcement du capital social en même temps qu’ils fonctionnent comme facteur structurant de la protection sociale. Ce legs du gouvernement Cardoso a permis au gouvernement de Luis Inácio Lula da Silva de consolider le nouveau paradigme avec la création du programme national Bolsa-Família. Le gouvernement Lula a donc bénéficié de l’héritage historique des deux mandats de Cardoso et, ironiquement, a récolté les fruits de l’apprentissage social. Le phénomène du « lulismo » en est la preuve. Par ailleurs, cette thèse met en question la paternité du programme Bolsa-Família puisqu’elle montre la création de ce programme d'abord comme la consolidation du processus d’apprentissage et puis comme conséquence de la création d’un nouveau paradigme pour la politique d’assistance sociale au Brésil qui a eu lieu pendant les deux mandats de Cardoso.
Resumo:
Cette thèse porte sur une classe d'algorithmes d'apprentissage appelés architectures profondes. Il existe des résultats qui indiquent que les représentations peu profondes et locales ne sont pas suffisantes pour la modélisation des fonctions comportant plusieurs facteurs de variation. Nous sommes particulièrement intéressés par ce genre de données car nous espérons qu'un agent intelligent sera en mesure d'apprendre à les modéliser automatiquement; l'hypothèse est que les architectures profondes sont mieux adaptées pour les modéliser. Les travaux de Hinton (2006) furent une véritable percée, car l'idée d'utiliser un algorithme d'apprentissage non-supervisé, les machines de Boltzmann restreintes, pour l'initialisation des poids d'un réseau de neurones supervisé a été cruciale pour entraîner l'architecture profonde la plus populaire, soit les réseaux de neurones artificiels avec des poids totalement connectés. Cette idée a été reprise et reproduite avec succès dans plusieurs contextes et avec une variété de modèles. Dans le cadre de cette thèse, nous considérons les architectures profondes comme des biais inductifs. Ces biais sont représentés non seulement par les modèles eux-mêmes, mais aussi par les méthodes d'entraînement qui sont souvent utilisés en conjonction avec ceux-ci. Nous désirons définir les raisons pour lesquelles cette classe de fonctions généralise bien, les situations auxquelles ces fonctions pourront être appliquées, ainsi que les descriptions qualitatives de telles fonctions. L'objectif de cette thèse est d'obtenir une meilleure compréhension du succès des architectures profondes. Dans le premier article, nous testons la concordance entre nos intuitions---que les réseaux profonds sont nécessaires pour mieux apprendre avec des données comportant plusieurs facteurs de variation---et les résultats empiriques. Le second article est une étude approfondie de la question: pourquoi l'apprentissage non-supervisé aide à mieux généraliser dans un réseau profond? Nous explorons et évaluons plusieurs hypothèses tentant d'élucider le fonctionnement de ces modèles. Finalement, le troisième article cherche à définir de façon qualitative les fonctions modélisées par un réseau profond. Ces visualisations facilitent l'interprétation des représentations et invariances modélisées par une architecture profonde.
Resumo:
Le Virus Herpès Simplex de type 1 (HSV-1) est un agent infectieux qui cause l’herpès chez une grande proportion de la population mondiale. L’herpès est généralement considéré comme une maladie bénigne dont la forme la plus commune est l'herpès labial (communément appelé « bouton de fièvre »), mais elle peut se révéler très sérieuse et causer la cécité et l’encéphalite, voir létale dans certain cas. Le virus persiste toute la vie dans le corps de son hôte. Jusqu'à présent, aucun traitement ne peut éliminer le virus et aucun vaccin n’a été prouvé efficace pour contrôler l’infection herpétique. HSV-1 est un virus avec un génome d’ADN bicaténaire contenu dans une capside icosaèdrale entourée d’une enveloppe lipidique. Treize glycoprotéines virales se trouvent dans cette enveloppe et sont connues ou supposées jouer des rôles distincts dans différentes étapes du cycle de réplication viral, incluant l'attachement, l'entrée, l’assemblage, et la propagation des virus. La glycoprotéine M (gM) qui figure parmi ces glycoprotéines d’enveloppe, est la seule glycoprotéine non essentielle mais est conservée dans toute la famille herpesviridae. Récemment, l’homologue de gM dans le Pseudorabies virus (PRV), un autre herpesvirus, a été impliqué dans la phase finale de l’assemblage (i.e. l’enveloppement cytoplasmique) au niveau du réseau trans-Golgi (TGN) en reconnaissant spécifiquement des protéines tégumentaires et d’autres glycoprotéines d’enveloppe ([1]). Toutefois, il a été proposé que cette hypothèse ne s’applique pas pour le HSV-1 ([2]). De plus, contrairement à la localisation au TGN dans les cellules transfectées, HSV-1 gM se localise dans la membrane nucléaire et sur les virions périnucléaires durant une infection. L’objectif du projet présenté ici était d’éclaircir la relation de la localisation et la fonction de HSV-1 gM dans le contexte d’une infection. Dans les résultats rapportés ici, nous décrivons tout abord un mécanisme spécifique de ciblage nucléaire de HSV-1 gM. En phase précoce d’une infection, gM est ciblée à la membrane nucléaire d'une manière virus ii dépendante. Cela se produit avant la réorganisation du TGN normalement induite par l’infection et avant que gM n’entre dans la voie de sécrétion. Ce ciblage nucléaire actif et spécifique de gM ne semble pas dépendre des plusieurs des partenaires d’interaction proposés dans la littérature. Ces données suggèrent que la forme nucléaire de gM pourrait avoir un nouveau rôle indépendant de l’enveloppement final dans le cytoplasme. Dans la deuxième partie du travail présenté ici, nous avons concentré nos efforts sur le rôle de gM dans l’assemblage du virus en phase tardive de l’infection et en identifiant un domaine critique de gM. Nos résultats mettent en valeur l’importance du domaine carboxyl-terminal cytoplasmique de gM dans le transport de gM du réticulum endoplasmique (RE) à l’appareil de Golgi, dans l’enveloppement cytoplasmique et la propagation intercellulaire du virus. Ainsi, l’export du RE de gM a été complètement compromis dans les cellules transfectées exprimant un mutant de gM dépourvu de sa région C-terminale. La délétion la queue cytoplasmique de gM cause une réduction légère du titre viral et de la taille des plaques. L'analyse de ces mutants par microscopie électronique a démontré une accumulation des nucléocapsides sans enveloppe dans le cytoplasme par rapport aux virus de type sauvage. Étrangement, ce phénotype était apparent dans les cellules BHK mais absent dans les cellules 143B, suggérant que la fonction de gM dépende du type cellulaire. Finalement, le criblage de partenaires d’interaction du domaine C-terminal de gM identifiés par le système de double-hybride nous a permis de proposer plusieurs candidats susceptibles de réguler la fonction de gM dans la morphogénèse et la propagation de virus.
Resumo:
Le prestige occupationnel est une mesure utilisée en sociologie des professions pour déterminer le statut social d’un emploi sous la forme d’un continuum hiérarchisé. Cette mesure peut être définie selon : le revenu, l’autorité, l’autonomie et les compétences. En ce basant sur des entrevues auprès de délinquants incarcérés (n=138), cette étude évalue si la notion de prestige s’applique aux occupations illicites. Les résultats suggèrent que les domaines d’activité des occupations illicites ne présentent pas d’homogénéité en termes de prestige. Certaines caractéristiques définissant le prestige des occupations licites, comme le revenu et la compétence, contribuent à définir le prestige des occupations illicites, par contre, l’autonomie et l’autorité n’y contribuent pas. Le milieu criminel présente des caractéristiques particulières comme la difficulté d’atteindre une continuité dans son occupation. Cette continuité explique le prestige des occupations illicites, mais non celui des occupations licites. D’autres indicateurs, comme le réseau criminel et la présence d’un mentor, influençant pourtant les revenus, n’ont pas d’impact sur le prestige des occupations illicite. Des modèles d’équations structurelles ont été utilisés pour vérifier les relations indirectes et les conversions entre les types de capitaux selon la théorie de l’espace social de Pierre Bourdieu. Ces analyses suggèrent l’essentialité de la notion de compétence et de continuité. La discussion et la conclusion élabore sur les notions de continuité, d’accumulation et de conversion de capital.
Resumo:
Ce mémoire a comme sujet principal les réactions d’ouvertures d’aziridines et leur application synthétique. Notre groupe de recherche a récemment mis au point une méthode d’aziridination énantiosélective catalysée au cuivre à partir de N-tosyloxycarbamates qui permet d’obtenir une grande variété d’arylaziridines protégées avec un groupement carbamate. Or, même si le motif aziridine se retrouve dans certains produits naturels, l’intérêt de sa synthèse provient en partie de l’accès facile à différents composés contenant une fonction amine protégée qui peuvent être obtenus suite à l’ouverture d’aziridines par différents nucléophiles. L’ouverture nucléophile des aziridines fut largement explorée pour une variété de nucléophiles et d’aziridines. Toutefois, puisque les arylaziridines protégées par un groupement carbamate n’étaient auparavant pas disponibles, leur régio- et stéréosélectivité est encore méconnue. Nous présentons ici dans un premier temps, les résultats obtenus lors de l’ouverture de la p-nitrophénylaziridine protégée par un groupement Troc avec différents nucléophiles. Puis, suite à l’obtention de bonnes diastéréosélectivités lors de la synthèse d’aziridines avec le dérivé chiral PhTrocNHOTs, des réactions d’ouvertures ont été tentées avec la p-nitrophénylaziridine protégée avec un groupement PhTroc. Les conditions optimisées d’ouverture impliquent l’acide de Lewis BF3∙OEt2 (10 mol%) à 23 °C avec une variété de nucléophiles. Ces conditions ont été appliquées à l’ouverture d’une gamme d’aziridines protégées par le groupement PhTroc dont les résultats sont décrits dans cet ouvrage. Finalement, le dernier chapitre de ce mémoire rapporte l’utilisation de ces conditions dans la synthèse du (R)-Nifenalol, un agent beta-bloquant qui a démontré une activité en tant qu’antiangineux et antiarythmique.
Resumo:
Réalisé en cotutelle, sous la direction du Pr. Bernold Hasenknopf, à l'Institut Parisien de Chimie Moléculaire, Université Pierre et Marie Curie (Paris VI, France) et dans le cadre de l'Ecole Doctorale "Physique et Chimie des Matériaux" - Spécialité Chimie Inorganique (ED397).
Resumo:
Depuis quelques années, la recherche dans le domaine des réseaux maillés sans fil ("Wireless Mesh Network (WMN)" en anglais) suscite un grand intérêt auprès de la communauté des chercheurs en télécommunications. Ceci est dû aux nombreux avantages que la technologie WMN offre, telles que l'installation facile et peu coûteuse, la connectivité fiable et l'interopérabilité flexible avec d'autres réseaux existants (réseaux Wi-Fi, réseaux WiMax, réseaux cellulaires, réseaux de capteurs, etc.). Cependant, plusieurs problèmes restent encore à résoudre comme le passage à l'échelle, la sécurité, la qualité de service (QdS), la gestion des ressources, etc. Ces problèmes persistent pour les WMNs, d'autant plus que le nombre des utilisateurs va en se multipliant. Il faut donc penser à améliorer les protocoles existants ou à en concevoir de nouveaux. L'objectif de notre recherche est de résoudre certaines des limitations rencontrées à l'heure actuelle dans les WMNs et d'améliorer la QdS des applications multimédia temps-réel (par exemple, la voix). Le travail de recherche de cette thèse sera divisé essentiellement en trois principaux volets: le contrôle d‟admission du trafic, la différentiation du trafic et la réaffectation adaptative des canaux lors de la présence du trafic en relève ("handoff" en anglais). Dans le premier volet, nous proposons un mécanisme distribué de contrôle d'admission se basant sur le concept des cliques (une clique correspond à un sous-ensemble de liens logiques qui interfèrent les uns avec les autres) dans un réseau à multiples-sauts, multiples-radios et multiples-canaux, appelé RCAC. Nous proposons en particulier un modèle analytique qui calcule le ratio approprié d'admission du trafic et qui garantit une probabilité de perte de paquets dans le réseau n'excédant pas un seuil prédéfini. Le mécanisme RCAC permet d‟assurer la QdS requise pour les flux entrants, sans dégrader la QdS des flux existants. Il permet aussi d‟assurer la QdS en termes de longueur du délai de bout en bout pour les divers flux. Le deuxième volet traite de la différentiation de services dans le protocole IEEE 802.11s afin de permettre une meilleure QdS, notamment pour les applications avec des contraintes temporelles (par exemple, voix, visioconférence). À cet égard, nous proposons un mécanisme d'ajustement de tranches de temps ("time-slots"), selon la classe de service, ED-MDA (Enhanced Differentiated-Mesh Deterministic Access), combiné à un algorithme efficace de contrôle d'admission EAC (Efficient Admission Control), afin de permettre une utilisation élevée et efficace des ressources. Le mécanisme EAC prend en compte le trafic en relève et lui attribue une priorité supérieure par rapport au nouveau trafic pour minimiser les interruptions de communications en cours. Dans le troisième volet, nous nous intéressons à minimiser le surcoût et le délai de re-routage des utilisateurs mobiles et/ou des applications multimédia en réaffectant les canaux dans les WMNs à Multiples-Radios (MR-WMNs). En premier lieu, nous proposons un modèle d'optimisation qui maximise le débit, améliore l'équité entre utilisateurs et minimise le surcoût dû à la relève des appels. Ce modèle a été résolu par le logiciel CPLEX pour un nombre limité de noeuds. En second lieu, nous élaborons des heuristiques/méta-heuristiques centralisées pour permettre de résoudre ce modèle pour des réseaux de taille réelle. Finalement, nous proposons un algorithme pour réaffecter en temps-réel et de façon prudente les canaux aux interfaces. Cet algorithme a pour objectif de minimiser le surcoût et le délai du re-routage spécialement du trafic dynamique généré par les appels en relève. Ensuite, ce mécanisme est amélioré en prenant en compte l‟équilibrage de la charge entre cliques.
Resumo:
À partir d’observations personnelles sur l’importance de la technique et des technologies dans la production musicale, le projet de ce mémoire fut élaboré autour de la sociologie de la musique de Weber. En premier lieu, un questionnement du rapport entre musique, technologie et société permet d’établir de nombreuses voies pour la recherche concernant les médiations techniques de la musique. Ces médiations sont maintenant caractérisées par les changements issus de l’implantation de l’informatique dans de nombreuses sociétés et la modification des rapports de pouvoir et des rapports sociaux par les possibilités nouvelles offertes par le médium numérique. Si Internet semble avoir bouleversé l’industrie de la musique, de nouvelles possibilités de dépasser les limitations des technologies traditionnelles de la musique sont toutefois aussi apparues au sein de ce « système sociotechnique ». Ces modifications prennent la forme de philosophies, mais aussi de pratiques sociales qui se répandent, avant tout, auprès de la jeune génération, ce qu’il est possible d’observer par les changements dans les pratiques musicales. À partir des outils conceptuels de Weber, deux idéaltypes seront créés qui représentent autant de modes de diffusion de musique sur Internet. L’accent est mis sur la différence entre les pratiques sociales et musicales de ces modes de diffusions : l’un est basé sur des pratiques traditionnelles et greffé sur la nouvelle plateforme Internet, l’autre emprunte les caractéristiques de la diffusion de l’information en réseau caractéristique de la culture Internet et se caractérise par des pratiques dites réflexives. Ces idéaltypes, ainsi que les cas qui les constituent et qu’ils mettent en lumière, sont mis à profit pour discuter des motifs de l’action chez différents agents au cœur des pratiques de diffusion et, finalement, des modalités variées que prend la rationalisation de la diffusion de la musique à partir du médium numérique.