999 resultados para réseaux Bayésiens dynamiques


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mon projet de thèse démontre comment le genre de la bande dessinée peut être mobilisé de façon à déstabiliser les idéologies identitaires dominantes dans un contexte autobiographique. À partir de théories contemporaines de récits de vie et de leurs emphase sur la construction du sujet au travers du processus autobiographique, j’explore les façons par lesquelles les propriétés formelles de la bande dessinée permettent aux artistes féminines et minoritaires d’affirmer leurs subjectivités et de s’opposer aux idéaux hégémoniques reliés à la représentation du genre, du traumatisme, de la sexualité, de l’ethnicité, et du handicap, en s’auto-incarnant à même la page de bande dessinée. Par une analyse visuelle formelle, ma thèse prouve que les esthétiques hyper-personnelles du dessin à la main découlant d’une forme ancrée dans l’instabilité générique et le (re)mixage continu des codes verbaux et visuels permettent aux artistes de déstabiliser les régimes de représentation conventionnels dans une danse complexe d’appropriation et de resignification qui demeure toujours ouverte à la création de nouveaux sens. Suite à l’introduction, mon second chapitre explique la résistance de Julie Doucet par rapport aux plaisirs visuels découlant de la contemplation des femmes dans la bande dessinée par son utilisation du concept originairement misogyne de la matérialité féminine grotesque comme principe génératif à partir duquel elle articule une critique de la forme et du contenu des représentations normatives et restrictives du corps féminin. Le troisième chapitre considère la capacité de la bande dessinée à représenter le traumatisme, et se penche sur les efforts de Phoebe Gloeckner visant à faire face aux abus sexuels de son enfance par l’entremise d’un retour récursif sur des souvenirs visuels fondamentaux. Le chapitre suivant maintient que la nature sérielle de la bande dessinée, sa multimodalité et son association à la culture zine, fournissent à Ariel Schrag les outils nécessaires pour expérimenter sur les codes visuels et verbaux de façon à décrire et à affirmer le sens identitaire en flux de l’adolescent queer dans sa quadrilogie expérimentale Künstlerroman. Le cinquième chapitre suggère que l’artiste de provenance Libanaise Toufic El Rassi utilise la forme visuelle pour dénoncer les mécanismes générateurs de préjugés anti-Arabes, et qu’il affirme son identité grâce au pouvoir de rhétorique temporaire que lui procure l’incarnation d’un stéréotype connu. Mon dernier chapitre démontre comment Al Davison emploie la bande dessinée pour mettre en scène des rencontres d’observations dynamiques avec le spectateur implicite pouvant potentiellement aider l’auteur à éviter le regard objectivant généralement associé à la perception du handicap.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Des évidences expérimentales récentes indiquent que les ARN changent de structures au fil du temps, parfois très rapidement, et que ces changements sont nécessaires à leurs activités biochimiques. La structure de ces ARN est donc dynamique. Ces mêmes évidences notent également que les structures clés impliquées sont prédites par le logiciel de prédiction de structure secondaire MC-Fold. En comparant les prédictions de structures du logiciel MC-Fold, nous avons constaté un lien clair entre les structures presque optimales (en termes de stabilité prédites par ce logiciel) et les variations d’activités biochimiques conséquentes à des changements ponctuels dans la séquence. Nous avons comparé les séquences d’ARN du point de vue de leurs structures dynamiques afin d’investiguer la similarité de leurs fonctions biologiques. Ceci a nécessité une accélération notable du logiciel MC-Fold. L’approche algorithmique est décrite au chapitre 1. Au chapitre 2 nous classons les impacts de légères variations de séquences des microARN sur la fonction naturelle de ceux-ci. Au chapitre 3 nous identifions des fenêtres dans de longs ARN dont les structures dynamiques occupent possiblement des rôles dans les désordres du spectre autistique et dans la polarisation des œufs de certains batraciens (Xenopus spp.).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis les années 1980, les archéologues ont remarqué l'originalité des collections de céramiques trouvées sur des sites occupés par les pêcheurs basques au cours du XVIe au XVIIIe siècle sur les côtes atlantiques du Canada. Le site de Red Bay (Labrador) a été le premier à fournir une riche collection de terre cuites communes, majoliques et grès, qui ont permis aux archéologues de reconnaître une tradition céramique distincte. Pendant plus de deux siècles, ces céramiques constituent un fil conducteur qui montre la permanence des activités commerciales basques au Canada. En utilisant une approche mutualiste et comparative de quatre sites de pêche basque (Red Bay (1530-1580), Anse-à-la-Cave (1580-1630), Petit-Mécatina (1630-1713), Pabos (1713- 1760)) et leurs ports d’attache dans l’Europe atlantique, nous observons comment à partir du milieu du XVIe siècle, l’ensemble des céramiques se transforme d'un endroit à l’autre sans perdre son air distinctif jusqu'au début du XVIIIe siècle quand les témoins des céramiques basques changent radicalement. Finalement, une perspective globale qui relie les deux côtes atlantiques par le biais de ces matériaux céramiques nous aide à mieux connaître les réseaux d'approvisionnement liés aux traversées de pêche et l’espace économique complexe qui s’articule aux routes maritimes et de l’intérieur. Ces deux éléments se veulent essentiels à la compréhension de l'expansion outremers, ses materiaux laissés et son rôle dans l'économie mondiale au début de l'époque moderne.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The purpose of this research is to find out whether higher levels of education cause the exodus of Quebec’s Chinese skilled worker immigrants to other provinces. I first examine the history of Chinese immigration in Canada; the federal and Quebec’s immigration policies and selection criteria, as well as statistics regarding Chinese migration to Quebec and their out- migration from the province. My study’s ethnographic findings suggest that higher levels of education are not the main cause of the exodus, nor is the lack of French language competence. Rather, kin ties, age, and marital status play an influential role on interprovincial-migration of Quebec’s Chinese skilled immigrants. While based on a small number of respondents, my study indicates that having personal networks in Quebec before immigration tends to retain immigrants in the province.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La réalité des marchés de la drogue, opérés par des adolescents sur les lieux mêmes de leur école secondaire, demeure méconnue. L’actuelle recherche fut entreprise avec l’objectif d’explorer cet univers particulier. Pour y parvenir, cette étude a donné la parole à douze jeunes vendeurs adolescents, ayant transigé sur leur lieu d’enseignement. Les quatre objectifs spécifiques, définis au préalable, ont été atteints. Premièrement, selon les propos recueillis de la part des jeunes vendeurs, un phénomène de normalisation de la consommation de cannabis et certaines autres drogues serait bien présent au sein de cette population. Toutefois, les jeunes expliquent que leur définition de « normal » fluctuerait selon leur étape de vie du moment. Deuxièmement, toujours selon la compréhension des adolescents rencontrés, leur implication au sein du trafic de drogue s’expliquerait par trois facteurs: financier, réseautage, prestige et pouvoir. Troisièmement, les jeunes trafiquants rencontrés ont émis leur opinion sur l’efficacité des moyens de répression et de prévention situationnelle instaurés dans les écoles, ainsi que sur leurs astuces pour les déjouer. Ils ont aussi relaté une réalité de violence qui serait présente au sein de ces réseaux. Finalement, les jeunes interviewés ont explicité leur compréhension de l’impact des interventions tentées par l’école secondaire, pour les détourner de leur trajectoire criminelle. La conclusion essentielle de ce mémoire demeure le besoin, exprimé par ces adolescents, d’être encadrés et limités par leur environnement scolaire, parental et autres adultes de leur entourage. Comme il leur serait difficile de se discipliner; ils demandent qu’on les protège d’eux-mêmes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les restructurations et les mutations de plus en plus nombreuses dans les entreprises font évoluer la trajectoire de carrière des employés vers un cheminement moins linéaire et amènent une multiplication des changements de rôle (Delobbe & Vandenberghe, 2000). Les organisations doivent de plus en plus se soucier de l’intégration de ces nouveaux employés afin de leur transmettre les éléments fondamentaux du fonctionnement et de la culture qu’elles privilégient. Par contre, la plupart des recherches sur la socialisation organisationnelle portent sur les « meilleures pratiques », et les résultats qui en découlent sont mixtes. Cette étude comparative cherche à déterminer si et sur quelles variables les nouveaux employés socialisés par leur entreprise diffèrent des nouveaux employés « non socialisés ». Premièrement, cette étude vise à comparer ces deux groupes sur 1) les résultantes proximales (la maîtrise du contenu de la socialisation organisationnelle et la clarté de rôle) et 2) les résultantes distales (l’engagement organisationnel affectif, la satisfaction au travail et l’intention de quitter) du processus de socialisation organisationnelle, ainsi que sur 3) les caractéristiques des réseaux sociaux d’information, en contrôlant pour la proactivité. Dans un second temps, cette étude a pour objectif d’explorer si le processus de socialisation organisationnelle (les relations entre les variables) diffère entre les nouveaux employés socialisés ou non. Cinquante-trois nouveaux employés (moins d’un an d’ancienneté) d’une grande entreprise québécoise ont participé à cette étude. L’entreprise a un programme de socialisation en place, mais son exécution est laissée à la discrétion de chaque département, créant deux catégories de nouveaux employés : ceux qui ont été socialisés par leur département, et ceux qui n’ont pas été socialisés (« non socialisés »). Les participants ont été sondés sur les stratégies proactives, les résultantes proximales et distales et les caractéristiques des réseaux sociaux d’information. Pour le premier objectif, les résultats indiquent que les nouveaux employés socialisés maîtrisent mieux le contenu de la socialisation organisationnelle que les nouveaux employés non socialisés. En ce qui a trait au deuxième objectif, des différences dans le processus de socialisation organisationnelle ont été trouvées. Pour les nouveaux employés « non socialisés », la recherche proactive d’informations et la recherche de rétroaction sont liées à certaines caractéristiques des réseaux sociaux, alors que le cadrage positif est lié à la satisfaction au travail et à l’intention de quitter, et que la clarté de rôle est liée uniquement à la satisfaction au travail. Les nouveaux employés socialisés, quant à eux, démontrent des liens entre la maîtrise du contenu de la socialisation organisationnelle et chacune des résultantes distales (l’engagement organisationnel affectif, la satisfaction au travail et l’intention de quitter). Globalement, l’intégration des nouveaux employés non socialisés serait plutôt influencée par leurs stratégies proactives, tandis que celle des nouveaux employés non socialisés serait facilitée par leur maîtrise du contenu de la socialisation organisationnelle. De façon générale, cette étude comparative offre un aperçu intéressant des nouveaux employés rarement trouvé dans les recherches portant sur les « meilleures pratiques » de la socialisation organisationnelle. Des recommandations pour la recherche et la pratique en suivent.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les algorithmes d'apprentissage profond forment un nouvel ensemble de méthodes puissantes pour l'apprentissage automatique. L'idée est de combiner des couches de facteurs latents en hierarchies. Cela requiert souvent un coût computationel plus elevé et augmente aussi le nombre de paramètres du modèle. Ainsi, l'utilisation de ces méthodes sur des problèmes à plus grande échelle demande de réduire leur coût et aussi d'améliorer leur régularisation et leur optimization. Cette thèse adresse cette question sur ces trois perspectives. Nous étudions tout d'abord le problème de réduire le coût de certains algorithmes profonds. Nous proposons deux méthodes pour entrainer des machines de Boltzmann restreintes et des auto-encodeurs débruitants sur des distributions sparses à haute dimension. Ceci est important pour l'application de ces algorithmes pour le traitement de langues naturelles. Ces deux méthodes (Dauphin et al., 2011; Dauphin and Bengio, 2013) utilisent l'échantillonage par importance pour échantilloner l'objectif de ces modèles. Nous observons que cela réduit significativement le temps d'entrainement. L'accéleration atteint 2 ordres de magnitude sur plusieurs bancs d'essai. Deuxièmement, nous introduisont un puissant régularisateur pour les méthodes profondes. Les résultats expérimentaux démontrent qu'un bon régularisateur est crucial pour obtenir de bonnes performances avec des gros réseaux (Hinton et al., 2012). Dans Rifai et al. (2011), nous proposons un nouveau régularisateur qui combine l'apprentissage non-supervisé et la propagation de tangente (Simard et al., 1992). Cette méthode exploite des principes géometriques et permit au moment de la publication d'atteindre des résultats à l'état de l'art. Finalement, nous considérons le problème d'optimiser des surfaces non-convexes à haute dimensionalité comme celle des réseaux de neurones. Tradionellement, l'abondance de minimum locaux était considéré comme la principale difficulté dans ces problèmes. Dans Dauphin et al. (2014a) nous argumentons à partir de résultats en statistique physique, de la théorie des matrices aléatoires, de la théorie des réseaux de neurones et à partir de résultats expérimentaux qu'une difficulté plus profonde provient de la prolifération de points-selle. Dans ce papier nous proposons aussi une nouvelle méthode pour l'optimisation non-convexe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans cette dissertation, nous présentons plusieurs techniques d’apprentissage d’espaces sémantiques pour plusieurs domaines, par exemple des mots et des images, mais aussi à l’intersection de différents domaines. Un espace de représentation est appelé sémantique si des entités jugées similaires par un être humain, ont leur similarité préservée dans cet espace. La première publication présente un enchaînement de méthodes d’apprentissage incluant plusieurs techniques d’apprentissage non supervisé qui nous a permis de remporter la compétition “Unsupervised and Transfer Learning Challenge” en 2011. Le deuxième article présente une manière d’extraire de l’information à partir d’un contexte structuré (177 détecteurs d’objets à différentes positions et échelles). On montrera que l’utilisation de la structure des données combinée à un apprentissage non supervisé permet de réduire la dimensionnalité de 97% tout en améliorant les performances de reconnaissance de scènes de +5% à +11% selon l’ensemble de données. Dans le troisième travail, on s’intéresse à la structure apprise par les réseaux de neurones profonds utilisés dans les deux précédentes publications. Plusieurs hypothèses sont présentées et testées expérimentalement montrant que l’espace appris a de meilleures propriétés de mixage (facilitant l’exploration de différentes classes durant le processus d’échantillonnage). Pour la quatrième publication, on s’intéresse à résoudre un problème d’analyse syntaxique et sémantique avec des réseaux de neurones récurrents appris sur des fenêtres de contexte de mots. Dans notre cinquième travail, nous proposons une façon d’effectuer de la recherche d’image ”augmentée” en apprenant un espace sémantique joint où une recherche d’image contenant un objet retournerait aussi des images des parties de l’objet, par exemple une recherche retournant des images de ”voiture” retournerait aussi des images de ”pare-brises”, ”coffres”, ”roues” en plus des images initiales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans l'apprentissage machine, la classification est le processus d’assigner une nouvelle observation à une certaine catégorie. Les classifieurs qui mettent en œuvre des algorithmes de classification ont été largement étudié au cours des dernières décennies. Les classifieurs traditionnels sont basés sur des algorithmes tels que le SVM et les réseaux de neurones, et sont généralement exécutés par des logiciels sur CPUs qui fait que le système souffre d’un manque de performance et d’une forte consommation d'énergie. Bien que les GPUs puissent être utilisés pour accélérer le calcul de certains classifieurs, leur grande consommation de puissance empêche la technologie d'être mise en œuvre sur des appareils portables tels que les systèmes embarqués. Pour rendre le système de classification plus léger, les classifieurs devraient être capable de fonctionner sur un système matériel plus compact au lieu d'un groupe de CPUs ou GPUs, et les classifieurs eux-mêmes devraient être optimisés pour ce matériel. Dans ce mémoire, nous explorons la mise en œuvre d'un classifieur novateur sur une plate-forme matérielle à base de FPGA. Le classifieur, conçu par Alain Tapp (Université de Montréal), est basé sur une grande quantité de tables de recherche qui forment des circuits arborescents qui effectuent les tâches de classification. Le FPGA semble être un élément fait sur mesure pour mettre en œuvre ce classifieur avec ses riches ressources de tables de recherche et l'architecture à parallélisme élevé. Notre travail montre que les FPGAs peuvent implémenter plusieurs classifieurs et faire les classification sur des images haute définition à une vitesse très élevée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Beaucoup d'efforts dans le domaine des matériaux polymères sont déployés pour développer de nouveaux matériaux fonctionnels pour des applications spécifiques, souvent très sophistiquées, en employant des méthodes simplifiées de synthèse et de préparation. Cette thèse porte sur les polymères photosensibles – i.e. des matériaux fonctionnels qui répondent de diverses manières à la lumière – qui sont préparés à l'aide de la chimie supramoléculaire – i.e. une méthode de préparation qui repose sur l'auto-assemblage spontané de motifs moléculaires plus simples via des interactions non covalentes pour former le matériau final désiré. Deux types de matériaux photosensibles ont été ciblés, à savoir les élastomères thermoplastiques à base de copolymères à blocs (TPE) et les complexes d'homopolymères photosensibles. Les TPEs sont des matériaux bien connus, et même commercialisés, qui sont généralement composés d’un copolymère tribloc, avec un bloc central très flexible et des blocs terminaux rigides qui présentent une séparation de phase menant à des domaines durs isolés, composés des blocs terminaux rigides, dans une matrice molle formée du bloc central flexible, et ils ont l'avantage d'être recyclable. Pour la première fois, au meilleur de notre connaissance, nous avons préparé ces matériaux avec des propriétés photosensibles, basé sur la complexation supramoléculaire entre un copolymère tribloc simple parent et une petite molécule possédant une fonctionnalité photosensible via un groupe azobenzène. Plus précisément, il s’agit de la complexation ionique entre la forme quaternisée d'un copolymère à blocs, le poly(méthacrylate de diméthylaminoéthyle)-poly(acrylate de n-butyle)-poly(méthacrylate de diméthylaminoéthyle) (PDM-PnBA-PDM), synthétisé par polymérisation radicalaire par transfert d’atomes (ATRP), et l'orange de méthyle (MO), un composé azo disponible commercialement comportant un groupement SO3 -. Le PnBA possède une température de transition vitreuse en dessous de la température ambiante (-46 °C) et les blocs terminaux de PDM complexés avec le MO ont une température de transition vitreuse élevée (140-180 °C, en fonction de la masse molaire). Des tests simples d'élasticité montrent que les copolymères à blocs complexés avec des fractions massiques allant de 20 à 30% présentent un caractère élastomère. Des mesures d’AFM et de TEM (microscopie à force atomique et électronique à ii transmission) de films préparés à l’aide de la méthode de la tournette, montrent une corrélation entre le caractère élastomère et les morphologies où les blocs rigides forment une phase minoritaire dispersée (domaines sphériques ou cylindriques courts). Une phase dure continue (morphologie inversée) est observée pour une fraction massique en blocs rigides d'environ 37%, ce qui est beaucoup plus faible que celle observée pour les copolymères à blocs neutres, dû aux interactions ioniques. La réversibilité de la photoisomérisation a été démontrée pour ces matériaux, à la fois en solution et sous forme de film. La synthèse du copolymère à blocs PDM-PnBA-PDM a ensuite été optimisée en utilisant la technique d'échange d'halogène en ATRP, ainsi qu’en apportant d'autres modifications à la recette de polymérisation. Des produits monodisperses ont été obtenus à la fois pour la macroamorceur et le copolymère à blocs. À partir d'un seul copolymère à blocs parent, une série de copolymères à blocs partiellement/complètement quaternisés et complexés ont été préparés. Des tests préliminaires de traction sur les copolymères à blocs complexés avec le MO ont montré que leur élasticité est corrélée avec la fraction massique du bloc dur, qui peut être ajustée par le degré de quaternisation et de complexation. Finalement, une série de complexes d'homopolymères auto-assemblés à partir du PDM et de trois dérivés azobenzènes portant des groupes (OH, COOH et SO3) capables d'interactions directionnelles avec le groupement amino du PDM ont été préparés, où les dérivés azo sont associés avec le PDM, respectivement, via des interactions hydrogène, des liaisons ioniques combinées à une liaison hydrogène à travers un transfert de proton (acidebase), et des interactions purement ioniques. L'influence de la teneur en azo et du type de liaison sur la facilité d’inscription des réseaux de diffraction (SRG) a été étudiée. L’efficacité de diffraction des SRGs et la profondeur des réseaux inscrits à partir de films préparés à la méthode de la tournette montrent que la liaison ionique et une teneur élevée en azo conduit à une formation plus efficace des SRGs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La thèse propose d’introduire une perspective globale dans le traitement juridique du transport intermodal international qui prendrait racine dans la stratégie logistique des entreprises. La conception juridique se heurte, en effet, aux évolutions opérationnelles et organisationnelles des transports et aboutit à une incertitude juridique. Les transporteurs ont dû s’adapter aux exigences d’optimisation des flux des chargeurs dont les modes de production et de distribution reposent sur le supply chain management (SCM). Ce concept est le fruit de la mondialisation et des technologies de l’information. La concurrence induite par la mondialisation et le pilotage optimal des flux ont impulsé de nouvelles stratégies de la part des entreprises qui tentent d’avoir un avantage concurrentiel sur le marché. Ces stratégies reposent sur l’intégration interfonctionnelle et interoganisationnelle. Dans cette chaîne logistique globale (ou SCM) l’intermodal est crucial. Il lie et coordonne les réseaux de production et de distribution spatialement désagrégés des entreprises et, répond aux exigences de maîtrise de l’espace et du temps, à moindre coût. Ainsi, le transporteur doit d’une part, intégrer les opérations de transport en optimisant les déplacements et, d’autre part, s’intégrer à la chaîne logistique du client en proposant des services de valeur ajoutée pour renforcer la compétitivité de la chaîne de valeur. Il en découle une unité technique et économique de la chaîne intermodale qui est pourtant, juridiquement fragmentée. Les Conventions internationales en vigueur ont été élaborées pour chaque mode de transport en faisant fi de l’interaction entre les modes et entre les opérateurs. L’intermodal est considéré comme une juxtaposition des modes et des régimes juridiques. Ce dépeçage juridique contraste avec la gestion de la chaîne intermodale dont les composantes individuelles s’effacent au profit de l’objectif global à atteindre. L’on expose d’abord l’ampleur de l’incertitude juridique due aux difficultés de circonscrire le champ d’opérations couvert par les Conventions en vigueur. Une attention est portée aux divergences d’interprétations qui débouchent sur la « désunification » du droit du transport. On s’intéresse ensuite aux interactions entre le transport et la chaîne logistique des chargeurs. Pour cela, on retrace l’évolution des modes de production et de distribution de ces derniers. C’est effectivement de la stratégie logistique que découle la conception de la chaîne intermodale. Partant de ce système, on identifie les caractéristiques fondamentales de l’intermodal. La thèse aboutit à dissiper les confusions liées à la qualification de l’intermodal et qui sont à la base des divergences d’interprétations et de l’incertitude juridique. De plus, elle met en exergue l’unité économique du contrat de transport intermodal qui devrait guider la fixation d’un régime de responsabilité dédié à ce système intégré de transport. Enfin, elle initie une approche ignorée des débats juridiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le système hématopoïétique est un tissu en constant renouvellement et les cellules souches hématopoïétiques (CSHs) sont indispensables pour soutenir la production des cellules matures du sang. Deux fonctions définissent les CSHs; la propriété d’auto-renouvellement, soit la capacité de préserver l’identité cellulaire suivant une division, et la multipotence, le potentiel de différenciation permettant de générer toutes les lignées hématopoïétiques. Chez l’adulte, la majorité des CSHs sont quiescentes et l’altération de cet état corrèle avec une diminution du potentiel de reconstitution des CSHs, suggérant que la quiescence protège les fonctions des CSHs. La quiescence est un état réversible et dynamique et les réseaux génétiques le contrôlant restent peu connus. Un nombre croissant d’évidences suggère que si à l’état d’homéostasie il y a une certaine redondance entre les gènes impliqués dans ces réseaux de contrôle, leurs rôles spécifiques sont révélés en situation de stress. La famille des bHLHs (basic helix-loop-helix) inclue différentes classes des protéines dont ceux qui sont tissu-spécifiques comme SCL, et les protéines E, comme E12/E47 et HEB. Certains bHLHs sont proposés êtres important pour la fonction des cellules souches, mais cela ne fait pas l’unanimité, car selon le contexte cellulaire, il y a redondance entre ces facteurs. La question reste donc entière, y a-t-il un rôle redondant entre les bHLHs d’une même classe pour la fonction à long-terme des CSHs? Les travaux présentés dans cette thèse visaient dans un premier temps à explorer le lien encore mal compris entre la quiescence et la fonction des CSHs en mesurant leurs facultés suite à un stress prolifératif intense et dans un deuxième temps, investiguer l’importance et la spécificité de trois gènes pour la fonction des CSHs adultes, soit Scl/Tal1, E2a/Tcf3 et Heb/Tcf12. Pour répondre à ces questions, une approche cellulaire (stress prolifératif) a été combinée avec une approche génétique (invalidation génique). Plus précisément, la résistance des CSHs au stress prolifératif a été étudiée en utilisant deux tests fonctionnels quantitatifs optimisés, soit un traitement basé sur le 5-fluorouracil, une drogue de chimiothérapie, et la transplantation sérielle en nombre limite. Dans la mesure où la fonction d’un réseau génique ne peut être révélée que par une perturbation intrinsèque, trois modèles de souris, i.e. Scl+/-, E2a+/- et Heb+/- ont été utilisés. Ceci a permis de révéler que l’adaptation des CSHs au stress prolifératif et le retour à l’équilibre est strictement contrôlé par les niveaux de Scl, lesquels règlent le métabolisme cellulaire des CSHs en maintenant l’expression de gènes ribosomaux à un niveau basal. D’autre part, bien que les composantes du réseau puissent paraître redondants à l’équilibre, mes travaux montrent qu’en situation de stress prolifératif, les niveaux de Heb restreignent la prolifération excessive des CSHs en induisant la sénescence et que cette fonction ne peut pas être compensée par E2a. En conclusion, les résultats présentés dans cette thèse montrent que les CSHs peuvent tolérer un stress prolifératif intense ainsi que des dommages à l’ADN non-réparés, tout en maintenant leur capacité de reconstituer l’hématopoïèse à long-terme. Cela implique cependant que leur métabolisme revienne au niveau de base, soit celui trouvé à l’état d’homéostasie. Par contre, avec l’augmentation du nombre de division cellulaire les CSHs atteignent éventuellement une limite d’expansion et entrent en sénescence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La violence chronique qui caractérise la Somalie depuis plus de deux décennies a forcé près de deux millions de personnes à fuir. Cette ethnographie étudie l’expérience de l’asile prolongé de jeunes Somaliens qui ont grandi au camp de Kakuma, au Kenya. Leur expérience est hors du commun, bien qu’un nombre croissant de réfugiés passent de longues années dans des camps pourtant conçus comme temporaires, en vertu de la durée des conflits et de la normalisation de pratiques de mise à l’écart de populations « indésirables ». Nous explorons la perception qu’ont ces jeunes de leur environnement et de quelle façon leur exil structure leur perception du passé et de leur pays d’origine, et de leur futur. Ce faisant, nous considérons à la fois les spécificités du contexte et l’environnement global, afin de comprendre comment l’expérience des gens est façonnée par (et façonne) les dynamiques sociales, politiques, économiques et historiques. Nous observons que le camp est, et demeure, un espace de confinement, indépendamment de sa durée d’existence ; bien que conçu comme un lieu de gestion rationnelle des populations, le camp devient un monde social où se développent de nouvelles pratiques ; les jeunes Somaliens font preuve d’agentivité et interprètent leur expérience de manière à rendre leur quotidien acceptable ; ces derniers expriment une frustration croissante lorsque leurs études sont terminées et qu’ils peinent à s’établir en tant qu’adultes, ce qui exacerbe leur désir de quitter le camp. En effet, même s’il existe depuis plus de 20 ans, le camp demeure un lieu de transition. L’expérience de jeunes Somaliens qui ont grandi dans un camp de réfugiés n’a pas été étudiée auparavant. Nous soutenons que cette expérience est caractérisée par des tensions entre contraintes et opportunités, mobilité et immobilité, isolation et connexion ou victimisation et affirmation du sujet – et des temporalités contradictoires. Cette étude souligne que des notions comme la convivialité ou la pluralité des appartenances développées dans la littérature sur la cohabitation interethnique dans les villes ou sur l’identité des migrants aident à appréhender le réalité du camp. Cette ethnographie montre également que, loin d’être des victimes passives, les réfugiés contribuent à trouver des solutions à leur exil.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le concept de mouvement social, dans sa définition usuelle, fait référence à l’ensemble des militants et des organisations, qui, structurés plus ou moins formellement en réseaux, développent des actions concertées en faveur d’une cause plus ou moins définie. Quelle que soit l’approche théorique considérée, les organisations du mouvement social sont présentées comme distinctes de partis politiques perçus comme des acteurs de la politique institutionnelle, intervenant au sein de l’arène électorale. Dans cette perspective, les partis politiques et les mouvements sociaux entretiennent évidemment des relations, mais sont présentés comme opérant sur des terrains de jeux disjoints : la représentation politique institutionnalisée pour les uns, le champ de la protestation sociale pour les autres. Pourtant, la « frontière » entre participation politique institutionnelle et extra-institutionnelle est on ne peut plus poreuse. Dans cet article, nous soutenons que, dans certaines configurations de mouvements sociaux, les partis politiques peuvent faire partie intégrante du mouvement social dont ils sont issus et en constituent même les acteurs pivots. En basant notre démonstration sur le cas du mouvement souverainiste au Québec et sa transformation au cours des 40 dernières années, nous montrons comment le Parti québécois et le Bloc québécois se trouvent au coeur de la mouvance souverainiste et contribuent encore, vaille que vaille, à la définition d’un mouvement qui les dépasse.