989 resultados para Ultrapuissance (limite)


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’analyse biomécanique du mouvement humain en utilisant des systèmes optoélectroniques et des marqueurs cutanés considère les segments du corps comme des corps rigides. Cependant, le mouvement des tissus mous par rapport à l'os, c’est à dire les muscles et le tissu adipeux, provoque le déplacement des marqueurs. Ce déplacement est le fait de deux composantes, une composante propre correspondant au mouvement aléatoire de chaque marqueur et une composante à l’unisson provoquant le déplacement commun des marqueurs cutanés lié au mouvement des masses sous-jacentes. Si nombre d’études visent à minimiser ces déplacements, des simulations ont montré que le mouvement des masses molles réduit la dynamique articulaire. Cette observation est faite uniquement par la simulation, car il n'existe pas de méthodes capables de dissocier la cinématique des masses molles de celle de l’os. L’objectif principal de cette thèse consiste à développer une méthode numérique capable de distinguer ces deux cinématiques. Le premier objectif était d'évaluer une méthode d'optimisation locale pour estimer le mouvement des masses molles par rapport à l’humérus obtenu avec une tige intra-corticale vissée chez trois sujets. Les résultats montrent que l'optimisation locale sous-estime de 50% le déplacement des marqueurs et qu’elle conduit à un classement de marqueurs différents en fonction de leur déplacement. La limite de cette méthode vient du fait qu'elle ne tient pas compte de l’ensemble des composantes du mouvement des tissus mous, notamment la composante en unisson. Le second objectif était de développer une méthode numérique qui considère toutes les composantes du mouvement des tissus mous. Plus précisément, cette méthode devait fournir une cinématique similaire et une plus grande estimation du déplacement des marqueurs par rapport aux méthodes classiques et dissocier ces composantes. Le membre inférieur est modélisé avec une chaine cinématique de 10 degrés de liberté reconstruite par optimisation globale en utilisant seulement les marqueurs placés sur le pelvis et la face médiale du tibia. L’estimation de la cinématique sans considérer les marqueurs placés sur la cuisse et le mollet permet d'éviter l’influence de leur déplacement sur la reconstruction du modèle cinématique. Cette méthode testée sur 13 sujets lors de sauts a obtenu jusqu’à 2,1 fois plus de déplacement des marqueurs en fonction de la méthode considérée en assurant des cinématiques similaires. Une approche vectorielle a montré que le déplacement des marqueurs est surtout dû à la composante à l’unisson. Une approche matricielle associant l’optimisation locale à la chaine cinématique a montré que les masses molles se déplacent principalement autour de l'axe longitudinal et le long de l'axe antéro-postérieur de l'os. L'originalité de cette thèse est de dissocier numériquement la cinématique os de celle des masses molles et les composantes de ce mouvement. Les méthodes développées dans cette thèse augmentent les connaissances sur le mouvement des masses molles et permettent d’envisager l’étude de leur effet sur la dynamique articulaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte & Objectifs : La manométrie perfusée conventionnelle et la manométrie haute résolution (HRM) ont permis le développement d’une variété de paramètres pour mieux comprendre la motilité de l'œsophage et quantifier les caractéristiques de la jonction œsophago-gastrique (JOG). Cependant, l'anatomie de la JOG est complexe et les enregistrements de manométrie détectent à la fois la pression des structures intrinsèques et des structures extrinsèques à l'œsophage. Ces différents composants ont des rôles distincts au niveau de la JOG. Les pressions dominantes ainsi détectées au niveau de la JOG sont attribuables au sphincter œsophagien inférieur (SOI) et aux piliers du diaphragme (CD), mais aucune des technologies manométriques actuelles n’est capable de distinguer ces différents composants de la JOG. Lorsqu’on analyse les caractéristiques de la JOG au repos, celle ci se comporte avant tout comme une barrière antireflux. Les paramètres manométriques les plus couramment utilisés dans ce but sont la longueur de la JOG et le point d’inversion respiratoire (RIP), défini comme le lieu où le pic de la courbe de pression inspiratoire change de positif (dans l’abdomen) à négatif (dans le thorax), lors de la classique manœuvre de « pull-through ». Cependant, l'importance de ces mesures reste marginale comme en témoigne une récente prise de position de l’American Gastroenterology Association Institute (AGAI) (1) qui concluait que « le rôle actuel de la manométrie dans le reflux gastro-œsophagien (RGO) est d'exclure les troubles moteurs comme cause des symptômes présentés par la patient ». Lors de la déglutition, la mesure objective de la relaxation de la JOG est la pression de relaxation intégrée (IRP), qui permet de faire la distinction entre une relaxation normale et une relaxation anormale de la JOG. Toutefois, puisque la HRM utilise des pressions moyennes à chaque niveau de capteurs, certaines études de manométrie laissent suggérer qu’il existe une zone de haute pression persistante au niveau de la JOG même si un transit est mis en évidence en vidéofluoroscopie. Récemment, la manométrie haute résolution « 3D » (3D-HRM) a été développée (Given Imaging, Duluth, GA) avec le potentiel de simplifier l'évaluation de la morphologie et de la physiologie de la JOG. Le segment « 3D » de ce cathéter de HRM permet l'enregistrement de la pression à la fois de façon axiale et radiale tout en maintenant une position fixe de la sonde, et évitant ainsi la manœuvre de « pull-through ». Par conséquent, la 3D-HRM devrait permettre la mesure de paramètres importants de la JOG tels que sa longueur et le RIP. Les données extraites de l'enregistrement fait par 3D-HRM permettraient également de différencier les signaux de pression attribuables au SOI des éléments qui l’entourent. De plus, l’enregistrement des pressions de façon radiaire permettrait d’enregistrer la pression minimale de chaque niveau de capteurs et devrait corriger cette zone de haute pression parfois persistante lors la déglutition. Ainsi, les objectifs de ce travail étaient: 1) de décrire la morphologie de la JOG au repos en tant que barrière antireflux, en comparant les mesures effectuées avec la 3D-HRM en temps réel, par rapport à celle simulées lors d’une manœuvre de « pull-through » et de déterminer quelles sont les signatures des pressions attribuables au SOI et au diaphragme; 2) d’évaluer la relaxation de la JOG pendant la déglutition en testant l'hypothèse selon laquelle la 3D-HRM permet le développement d’un nouveau paradigme (appelé « 3D eSleeve ») pour le calcul de l’IRP, fondé sur l’utilisation de la pression radiale minimale à chaque niveau de capteur de pression le long de la JOG. Ce nouveau paradigme sera comparé à une étude de transit en vidéofluoroscopie pour évaluer le gradient de pression à travers la JOG. Méthodes : Nous avons utilisé un cathéter 3D-HRM, qui incorpore un segment dit « 3D » de 9 cm au sein d’un cathéter HRM par ailleurs standard. Le segment 3D est composé de 12 niveaux (espacés de 7.5mm) de 8 capteurs de pression disposés radialement, soit un total de 96 capteurs. Neuf volontaires ont été étudiés au repos, où des enregistrements ont été effectués en temps réel et pendant une manœuvre de « pull-through » du segment 3D (mobilisation successive du cathéter de 5 mm, pour que le segment 3D se déplace le long de la JOG). Les mesures de la longueur du SOI et la détermination du RIP ont été réalisées. La longueur de la JOG a été mesurée lors du « pull-through » en utilisant 4 capteurs du segment 3D dispersés radialement et les marges de la JOG ont été définies par une augmentation de la pression de 2 mmHg par rapport à la pression gastrique ou de l’œsophage. Pour le calcul en temps réel, les limites distale et proximale de la JOG ont été définies par une augmentation de pression circonférentielle de 2 mmHg par rapport à la pression de l'estomac. Le RIP a été déterminée, A) dans le mode de tracé conventionnel avec la méthode du « pull-through » [le RIP est la valeur moyenne de 4 mesures] et B) en position fixe, dans le mode de représentation topographique de la pression de l’œsophage, en utilisant l’outil logiciel pour déterminer le point d'inversion de la pression (PIP). Pour l'étude de la relaxation de la JOG lors de la déglutition, 25 volontaires ont été étudiés et ont subi 3 études de manométrie (10 déglutitions de 5ml d’eau) en position couchée avec un cathéter HRM standard et un cathéter 3D-HRM. Avec la 3D-HRM, l’analyse a été effectuée une fois avec le segment 3D et une fois avec une partie non 3D du cathéter (capteurs standard de HRM). Ainsi, pour chaque individu, l'IRP a été calculée de quatre façons: 1) avec la méthode conventionnelle en utilisant le cathéter HRM standard, 2) avec la méthode conventionnelle en utilisant le segment standard du cathéter 3D-HRM, 3) avec la méthode conventionnelle en utilisant le segment « 3D » du cathéter 3D-HRM, et 4) avec le nouveau paradigme (3D eSleeve) qui recueille la pression minimale de chaque niveau de capteurs (segment 3D). Quatorze autres sujets ont subi une vidéofluoroscopie simultanée à l’étude de manométrie avec le cathéter 3D-HRM. Les données de pression ont été exportés vers MATLAB ™ et quatre pressions ont été mesurées simultanément : 1) la pression du corps de l’œsophage, 2cm au-dessus de la JOG, 2) la pression intragastrique, 3) la pression radiale moyenne de la JOG (pression du eSleeve) et 4) la pression de la JOG en utilisant la pression minimale de chaque niveau de capteurs (pression du 3D eSleeve). Ces données ont permis de déterminer le temps permissif d'écoulement du bolus (FPT), caractérisé par la période au cours de laquelle un gradient de pression existe à travers la JOG (pression œsophagienne > pression de relaxation de la JOG > pression gastrique). La présence ou l'absence du bolus en vidéofluoroscopie et le FPT ont été codés avec des valeurs dichotomiques pour chaque période de 0,1 s. Nous avons alors calculé la sensibilité et la spécificité correspondant à la valeur du FPT pour la pression du eSleeve et pour la pression du 3D eSleeve, avec la vidéofluoroscopie pour référence. Résultats : Les enregistrements avec la 3D-HRM laissent suggérer que la longueur du sphincter évaluée avec la méthode du « pull-through » était grandement exagéré en incorporant dans la mesure du SOI les signaux de pression extrinsèques à l’œsophage, asymétriques et attribuables aux piliers du diaphragme et aux structures vasculaires. L’enregistrement en temps réel a permis de constater que les principaux constituants de la pression de la JOG au repos étaient attribuables au diaphragme. L’IRP calculé avec le nouveau paradigme 3D eSleeve était significativement inférieur à tous les autres calculs d'IRP avec une limite supérieure de la normale de 12 mmHg contre 17 mmHg pour l’IRP calculé avec la HRM standard. La sensibilité (0,78) et la spécificité (0,88) du 3D eSleeve étaient meilleurs que le eSleeve standard (0,55 et 0,85 respectivement) pour prédire le FPT par rapport à la vidéofluoroscopie. Discussion et conclusion : Nos observations suggèrent que la 3D-HRM permet l'enregistrement en temps réel des attributs de la JOG, facilitant l'analyse des constituants responsables de sa fonction au repos en tant que barrière antireflux. La résolution spatiale axiale et radiale du segment « 3D » pourrait permettre de poursuivre cette étude pour quantifier les signaux de pression de la JOG attribuable au SOI et aux structures extrinsèques (diaphragme et artéfacts vasculaires). Ces attributs du cathéter 3D-HRM suggèrent qu'il s'agit d'un nouvel outil prometteur pour l'étude de la physiopathologie du RGO. Au cours de la déglutition, nous avons évalué la faisabilité d’améliorer la mesure de l’IRP en utilisant ce nouveau cathéter de manométrie 3D avec un nouveau paradigme (3D eSleeve) basé sur l’utilisation de la pression radiale minimale à chaque niveau de capteurs de pression. Nos résultats suggèrent que cette approche est plus précise que celle de la manométrie haute résolution standard. La 3D-HRM devrait certainement améliorer la précision des mesures de relaxation de la JOG et cela devrait avoir un impact sur la recherche pour modéliser la JOG au cours de la déglutition et dans le RGO.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les humains communiquent via différents types de canaux: les mots, la voix, les gestes du corps, des émotions, etc. Pour cette raison, un ordinateur doit percevoir ces divers canaux de communication pour pouvoir interagir intelligemment avec les humains, par exemple en faisant usage de microphones et de webcams. Dans cette thèse, nous nous intéressons à déterminer les émotions humaines à partir d’images ou de vidéo de visages afin d’ensuite utiliser ces informations dans différents domaines d’applications. Ce mémoire débute par une brève introduction à l'apprentissage machine en s’attardant aux modèles et algorithmes que nous avons utilisés tels que les perceptrons multicouches, réseaux de neurones à convolution et autoencodeurs. Elle présente ensuite les résultats de l'application de ces modèles sur plusieurs ensembles de données d'expressions et émotions faciales. Nous nous concentrons sur l'étude des différents types d’autoencodeurs (autoencodeur débruitant, autoencodeur contractant, etc) afin de révéler certaines de leurs limitations, comme la possibilité d'obtenir de la coadaptation entre les filtres ou encore d’obtenir une courbe spectrale trop lisse, et étudions de nouvelles idées pour répondre à ces problèmes. Nous proposons également une nouvelle approche pour surmonter une limite des autoencodeurs traditionnellement entrainés de façon purement non-supervisée, c'est-à-dire sans utiliser aucune connaissance de la tâche que nous voulons finalement résoudre (comme la prévision des étiquettes de classe) en développant un nouveau critère d'apprentissage semi-supervisé qui exploite un faible nombre de données étiquetées en combinaison avec une grande quantité de données non-étiquetées afin d'apprendre une représentation adaptée à la tâche de classification, et d'obtenir une meilleure performance de classification. Finalement, nous décrivons le fonctionnement général de notre système de détection d'émotions et proposons de nouvelles idées pouvant mener à de futurs travaux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le méthotrexate (MTX), un agent anti-cancéreux fréquemment utilisé en chimiothérapie, requiert généralement un suivi thérapeutique de la médication (Therapeutic Drug Monitoring, TDM) pour surveiller son niveau sanguin chez le patient afin de maximiser son efficacité tout en limitant ses effets secondaires. Malgré la fenêtre thérapeutique étroite entre l’efficacité et la toxicité, le MTX reste, à ce jour, un des agents anti-cancéreux les plus utilisés au monde. Les techniques analytiques existantes pour le TDM du MTX sont coûteuses, requièrent temps et efforts, sans nécessairement fournir promptement les résultats dans le délai requis. Afin d’accélérer le processus de dosage du MTX en TDM, une stratégie a été proposée basée sur un essai compétitif caractérisé principalement par le couplage plasmonique d’une surface métallique et de nanoparticules d’or. Plus précisément, l’essai quantitatif exploite la réaction de compétition entre le MTX et une nanoparticule d’or fonctionnalisée avec l’acide folique (FA-AuNP) ayant une affinité pour un récepteur moléculaire, la réductase humaine de dihydrofolate (hDHFR), une enzyme associée aux maladies prolifératives. Le MTX libre mixé avec les FA-AuNP, entre en compétition pour les sites de liaison de hDHFR immobilisés sur une surface active en SPR ou libres en solution. Par la suite, les FA-AuNP liées au hDHFR fournissent une amplification du signal qui est inversement proportionnelle à la concentration de MTX. La résonance des plasmons de surface (SPR) est généralement utilisée comme une technique spectroscopique pour l’interrogation des interactions biomoléculaires. Les instruments SPR commerciaux sont généralement retrouvés dans les grands laboratoires d’analyse. Ils sont également encombrants, coûteux et manquent de sélectivité dans les analyses en matrice complexe. De plus, ceux-ci n’ont pas encore démontré de l’adaptabilité en milieu clinique. Par ailleurs, les analyses SPR des petites molécules comme les médicaments n’ont pas été explorés de manière intensive dû au défi posé par le manque de la sensibilité de la technique pour cette classe de molécules. Les développements récents en science des matériaux et chimie de surfaces exploitant l’intégration des nanoparticules d’or pour l’amplification de la réponse SPR et la chimie de surface peptidique ont démontré le potentiel de franchir les limites posées par le manque de sensibilité et l’adsorption non-spécifique pour les analyses directes dans les milieux biologiques. Ces nouveaux concepts de la technologie SPR seront incorporés à un système SPR miniaturisé et compact pour exécuter des analyses rapides, fiables et sensibles pour le suivi du niveau du MTX dans le sérum de patients durant les traitements de chimiothérapie. L’objectif de cette thèse est d’explorer différentes stratégies pour améliorer l’analyse des médicaments dans les milieux complexes par les biocapteurs SPR et de mettre en perspective le potentiel des biocapteurs SPR comme un outil utile pour le TDM dans le laboratoire clinique ou au chevet du patient. Pour atteindre ces objectifs, un essai compétitif colorimétrique basé sur la résonance des plasmons de surface localisée (LSPR) pour le MTX fut établi avec des nanoparticules d’or marquées avec du FA. Ensuite, cet essai compétitif colorimétrique en solution fut adapté à une plateforme SPR. Pour les deux essais développés, la sensibilité, sélectivité, limite de détection, l’optimisation de la gamme dynamique et l’analyse du MTX dans les milieux complexes ont été inspectés. De plus, le prototype de la plateforme SPR miniaturisée fut validé par sa performance équivalente aux systèmes SPR existants ainsi que son utilité pour analyser les échantillons cliniques des patients sous chimiothérapie du MTX. Les concentrations de MTX obtenues par le prototype furent comparées avec des techniques standards, soit un essai immunologique basé sur la polarisation en fluorescence (FPIA) et la chromatographie liquide couplée avec de la spectrométrie de masse en tandem (LC-MS/MS) pour valider l’utilité du prototype comme un outil clinique pour les tests rapides de quantification du MTX. En dernier lieu, le déploiement du prototype à un laboratoire de biochimie dans un hôpital démontre l’énorme potentiel des biocapteurs SPR pour utilisation en milieux clinique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La gazéification est aujourd'hui l'une des stratégies les plus prometteuses pour valoriser les déchets en énergie. Cette technologie thermo-chimique permet une réduction de 95 % de la masse des intrants et génère des cendres inertes ainsi que du gaz de synthèse (syngaz). Le syngaz est un combustible gazeux composé principalement de monoxyde de carbone (CO), d'hydrogène (H2) et de dioxyde de carbone (CO2). Le syngaz peut être utilisé pour produire de la chaleur et de l'électricité. Il est également la pierre angulaire d'un grand nombre de produits à haute valeur ajoutée, allant de l'éthanol à l'ammoniac et l'hydrogène pur. Les applications en aval de la production de syngaz sont dictées par son pouvoir calorifique, lui-même dépendant de la teneur du gaz en H2. L’augmentation du contenu du syngaz en H2 est rendu possible par la conversion catalytique à la vapeur d’eau, largement répandu dans le cadre du reformage du méthane pour la production d'hydrogène. Au cours de cette réaction, le CO est converti en H2 et CO2 selon : CO + H2O → CO2 + H2. Ce processus est possible grâce à des catalyseurs métalliques mis en contact avec le CO et de la vapeur. La conversion catalytique à la vapeur d’eau a jusqu'ici été réservé pour de grandes installations industrielles car elle nécessite un capital et des charges d’exploitations très importantes. Par conséquent, les installations de plus petite échelle et traitant des intrants de faible qualité (biomasse, déchets, boues ...), n'ont pas accès à cette technologie. Ainsi, la seule utilisation de leur syngaz à faible pouvoir calorifique, est limitée à la génération de chaleur ou, tout au plus, d'électricité. Afin de permettre à ces installations une gamme d’application plus vaste de leurs syngaz, une alternative économique à base de catalyseur biologique est proposée par l’utilisation de bactéries hyperthermophiles hydrogénogènes. L'objectif de cette thèse est d'utiliser Carboxydothermus hydrogenoformans, une bactérie thermophile carboxydotrophe hydrogénogène comme catalyseur biologique pour la conversion du monoxyde de carbone en hydrogène. Pour cela, l’impact d'un phénomène de biominéralisation sur la production d’H2 a été étudié. Ensuite, la faisabilité et les limites de l’utilisation de la souche dans un bioréacteur ont été évaluées. Tout d'abord, la caractérisation de la phase inorganique prédominante lorsque C. hydrogenoformans est inoculé dans le milieu DSMZ, a révélé une biominéralisation de phosphate de calcium (CaP) cristallin en deux phases. L’analyse par diffraction des rayons X et spectrométrie infrarouge à transformée de Fourier de ce matériau biphasique indique une signature caractéristique de la Mg-whitlockite, alors que les images obtenues par microscopie électronique à transmission ont montré l'existence de nanotiges cristallines s’apparentant à de l’hydroxyapatite. Dans les deux cas, le mode de biominéralisation semble être biologiquement induit plutôt que contrôlé. L'impact du précipité de CaP endogène sur le transfert de masse du CO et la production d’H2 a ensuite été étudié. Les résultats ont été comparés aux valeurs obtenues dans un milieu où aucune précipitation n'est observée. Dans le milieu DSMZ, le KLa apparent (0.22 ± 0.005 min-1) et le rendement de production d’H2 (89.11 ± 6.69 %) étaient plus élevés que ceux obtenus avec le milieu modifié (0.19 ± 0.015 min-1 et 82.60 ± 3.62% respectivement). La présence du précipité n'a eu aucune incidence sur l'activité microbienne. En somme, le précipité de CaP offre une nouvelle stratégie pour améliorer les performances de transfert de masse du CO en utilisant les propriétés hydrophobes de gaz. En second lieu, la conversion du CO en H2 par la souche Carboxydothermus hydrogenoformans fut étudiée et optimisée dans un réacteur gazosiphon de 35 L. Parmi toutes les conditions opérationnelles, le paramètre majeur fut le ratio du débit de recirculation du gaz sur le débit d'alimentation en CO (QR:Qin). Ce ratio impacte à la fois l'activité biologique et le taux de transfert de masse gaz-liquide. En effet, au dessus d’un ratio de 40, les performances de conversion du CO en H2 sont limitées par l’activité biologique alors qu’en dessous, elles sont limitées par le transfert de masse. Cela se concrétise par une efficacité de conversion maximale de 90.4 ± 0.3 % et une activité spécifique de 2.7 ± 0.4 molCO·g–1VSS·d–1. Malgré des résultats prometteurs, les performances du bioréacteur ont été limitées par une faible densité cellulaire, typique de la croissance planctonique de C. hydrogenoformans. Cette limite est le facteur le plus contraignant pour des taux de charge de CO plus élevés. Ces performances ont été comparées à celles obtenues dans un réacteur à fibres creuses (BRFC) inoculé par la souche. En dépit d’une densité cellulaire et d’une activité volumétrique plus élevées, les performances du BRFC à tout le moins cinétiquement limitées quand elles n’étaient pas impactées par le transfert de masse, l'encrassement et le vieillissement de la membrane. Afin de parer à la dégénérescence de C. hydrogenoformans en cas de pénurie de CO, la croissance de la bactérie sur pyruvate en tant que seule source de carbone a été également caractérisée. Fait intéressant, en présence simultanée de pyruvate et de CO, C. hydrogenoformans n’a amorcé la consommation de pyruvate qu’une fois le CO épuisé. Cela a été attribué à un mécanisme d'inhibition du métabolisme du pyruvate par le CO, faisant ainsi du pyruvate le candidat idéal pour un système in situ de secours.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche vise à apporter un éclairage sur les facteurs déterminants de la concertation économique. De manière spécifique, elle poursuit trois principaux objectifs. Premièrement, nous cherchons à définir la notion de dialogue social et les termes qui y sont généralement associés tels que la concertation, la consultation, le tripartisme, le partenariat, la négociation collective, etc. Deuxièmement, nous faisons le point sur l’État du dialogue social au Québec, notamment en décrivant son évolution historique, les acteurs impliqués, les objets abordés et les instances de dialogue. Certaines comparaisons entre la culture québécoise de concertation et celles caractérisant d’autres cultures (Canada, États-Unis, Europe) sont par ailleurs présentées. De plus, ce tour d’horizon des différents lieux de dialogue social permettra de mieux saisir les composantes de la concertation en lien avec le développement économique, plus particulièrement, sur les façons de planifier le développement économique d’une manière socialement responsable (Papadakis, 2010). Troisièmement, une analyse empirique des facteurs déterminants de la concertation économique est effectuée. Pour atteindre les objectifs et répondre à notre question de recherche, nous articulons cette recherche en deux phases. Dans un premier temps, une cartographie des instances de dialogue social au Québec et la collecte de données auprès d’instances québécoises sont établies. Cette première phase permet également d’identifier quels sont les facteurs déterminants de la concertation économique généralement reconnus au sein de la littérature. Afin de mieux saisir ces facteurs et par conséquent, bonifier le modèle d’analyse, l’étude s’appuie sur une série d’entretiens exploratoires réalisés au Québec, mais aussi en France où la culture de dialogue social économique semble plus développée. Ce mouvement itératif entre la littérature et les entretiens exploratoires effectués permet de construire un modèle d’analyse des facteurs déterminants de la concertation économique. Dans un second temps, ce modèle d’analyse est testé en se concentrant sur deux organismes de concertation économique au Québec. Au sein de ces organismes ont été rencontrés des acteurs syndicaux, patronaux et gouvernementaux. L’entretien a été retenu comme la méthode de collecte de données utilisée auprès des individus (Gavard-Perret, Gotteland, Haon et Jolibert, 2008) et plus spécifiquement, des entretiens semi-directifs auprès des répondants afin de leur laisser la liberté de s’exprimer de façon plus large sur les questions et possiblement apporter de nouveaux éléments pouvant enrichir le modèle. La méthode de l’appariement logique sert à analyser les réponses aux questionnaires d’entrevues (Yin, 1994) et à les comparer aux propositions de recherche. Au plan théorique, l’apport des théories néo-institutionnalistes permet d’approfondir nos constats en lien avec la naissance et le développement des institutions de dialogue social. L’analyse de nos résultats nous permet de vérifier la théorie sur la création des institutions qui se veut la prise de conscience d’une problématique par les acteurs qui perçoivent leur implication au sein des institutions comme une façon de résoudre cette situation. Nous vérifions également la notion d’acteur dominant via le double rôle de l’acteur gouvernemental comme participant et comme donneur d’argent. Finalement, notre recherche a permis de confirmer notre modèle d’analyse tout en le raffinant par l’ajout de nouveaux facteurs déterminants de la concertation économique. Les entrevues que nous avons réalisées nous ont permis d’apporter des nuances et de préciser la portée des facteurs déterminants tirés de la littérature. Notre analyse confirme trois de nos propositions de recherche telle que formulées et deux autres le sont que partiellement. Nos constats confirment en effet que la volonté réelle des parties à travailler ensemble, la présence d’intérêts communs et la participation de l’État sont tous des facteurs qui ont un impact positif sur la concertation économique. La question de la confiance est nécessaire pour la poursuite de la concertation. En appui aux travaux antérieurs sur la question, nous avons observé que la confiance entre les acteurs influence positivement le déroulement de la concertation économique. Nous avons toutefois constaté qu’un certain niveau de méfiance réside entre les acteurs qui participent à ce processus, ces derniers représentant des organisations distinctes qui ont leurs intérêts propres. Pour permettre la concertation entre acteurs, le niveau de confiance doit être plus élevé que le niveau de méfiance. Nos observations nous ont aussi permis d’établir des liens entre la présence des facteurs déterminants et l’atteinte de résultats par la concertation, mais nous ne pouvons pas déterminer leur importance relative: nous ne pouvons donc pas prétendre qu’un plus grand nombre de facteurs réunis va assurer la réussite du processus de concertation ou s’il s’agit plutôt de la présence de certains facteurs qui auraient plus d’impact sur les résultats. Notre recherche fournit un apport important à la littérature sur la concertation puisqu’elle a permis de cerner de nouveaux facteurs déterminants à la réussite de ce processus. Les entretiens réalisés ont montré que le « contrôle des égos » des acteurs de la concertation et la mise en place de mécanismes permettant une intégration réussie des nouveaux participants au processus constituent des facteurs à ne pas négliger. De plus, notre recherche a permis de raffiner notre modèle conceptuel puisque nous avons été en mesure de cerner différents sous-facteurs qui permettent d’approfondir l’analyse des facteurs déterminants de la concertation. Notre recherche comporte toutefois certaines limites puisque les institutions comparées présentent des différences importantes en termes de culture et le nombre restreint d’organisme étudié limite grandement la généralisation des résultats.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous démontrons qu'il est possible de former des bicouches fluides non phospholipides en milieu aqueux avec un mélange d'acide palmitique (PA), cholestérol (Chol) et sulfate de cholestérol (Schol) avec une proportion molaire de 30/28/42. Ces liposomes non phospholipidiques peuvent maintenir un gradient de pH (pHinterne 8 / pHexterne 6) sur une période 100 fois plus longue que les liposomes faits de 1-palmitoyl-2-oléoyl-sn-glycéro-3-phosphocholine (POPC) et de cholestérol (60/40 mol/mol). De plus, ces LUV non phospholipidiques protègent l'acide ascorbique d'un milieu oxydant (1 mM de fer (III)). Une fois piégé dans les liposomes, l'acide ascorbique présente une vitesse de dégradation similaire à celle obtenue en l'absence de fer(III). Ces performances illustrent la perméabilité exceptionnellement limitée de ces liposomes, ce qui implique qu'ils peuvent présenter des avantages comme nanocontenants pour certaines applications. D'autre part, des vésicules unilamellaires géantes (GUV pour Giant Unilamellar Vesicles) ont été formées à partir d'un mélange d'acide palmitique et de cholestérol (30/70 mol/mol). Ces GUV sont stables sur l'échelle de temps de semaines, elles ne s'agrègent pas et elles sont sensibles au pH. Afin d'établir la formation des GUV, l'imagerie par microscopie confocale à balayage laser a été utilisée. Deux sondes fluorescentes ont été utilisées: le rouge du Nile, une sonde hydrophobe qui s'insère dans le cœur hydrophobe des bicouches lipidiques, et la calcéine, une sonde hydrophile qui a été emprisonné dans le réservoir interne des GUV. Cette approche a permis l'observation des parois des GUV ainsi que de leur contenu. Ces résultats montrent la possibilité de former de nouveaux microcontenants à partir d'un mélange d'un amphiphile monoalkylé et de stérol.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les amidons non modifiées et modifiés représentent un groupe d’excipients biodégradables et abondants particulièrement intéressant. Ils ont été largement utilisés en tant qu’excipients à des fins diverses dans des formulations de comprimés, tels que liants et/ou agents de délitement. Le carboxyméthylamidon sodique à haute teneur en amylose atomisé (SD HASCA) a été récemment proposé comme un excipient hydrophile à libération prolongée innovant dans les formes posologiques orales solides. Le carboxyméthylamidon sodique à haute teneur en amylose amorphe (HASCA) a d'abord été produit par l'éthérification de l'amidon de maïs à haute teneur en amylose avec le chloroacétate. HASCA a été par la suite séché par atomisation pour obtenir le SD HASCA. Ce nouvel excipient a montré des propriétés présentant certains avantages dans la production de formes galéniques à libération prolongée. Les comprimés matriciels produits à partir de SD HASCA sont peu coûteux, simples à formuler et faciles à produire par compression directe. Le principal objectif de cette recherche était de poursuivre le développement et l'optimisation des comprimés matriciels utilisant SD HASCA comme excipient pour des formulations orales à libération prolongée. A cet effet, des tests de dissolution simulant les conditions physiologiques du tractus gastro-intestinal les plus pertinentes, en tenant compte de la nature du polymère à l’étude, ont été utilisés pour évaluer les caractéristiques à libération prolongée et démontrer la performance des formulations SD HASCA. Une étude clinique exploratoire a également été réalisée pour évaluer les propriétés de libération prolongée de cette nouvelle forme galénique dans le tractus gastro-intestinal. Le premier article présenté dans cette thèse a évalué les propriétés de libération prolongée et l'intégrité physique de formulations contenant un mélange comprimé de principe actif, de chlorure de sodium et de SD HASCA, dans des milieux de dissolution biologiquement pertinentes. L'influence de différentes valeurs de pH acide et de temps de séjour dans le milieu acide a été étudiée. Le profil de libération prolongée du principe actif à partir d'une formulation de SD HASCA optimisée n'a pas été significativement affecté ni par la valeur de pH acide ni par le temps de séjour dans le milieu acide. Ces résultats suggèrent une influence limitée de la variabilité intra et interindividuelle du pH gastrique sur la cinétique de libération à partir de matrices de SD HASCA. De plus, la formulation optimisée a gardé son intégrité pendant toute la durée des tests de dissolution. L’étude in vivo exploratoire a démontré une absorption prolongée du principe actif après administration orale des comprimés matriciels de SD HASCA et a montré que les comprimés ne se sont pas désintégrés en passant par l'estomac et qu’ils ont résisté à l’hydrolyse par les α-amylases dans l'intestin. Le deuxième article présente le développement de comprimés SD HASCA pour une administration orale une fois par jour et deux fois par jour contenant du chlorhydrate de tramadol (100 mg et 200 mg). Ces formulations à libération prolongée ont présenté des valeurs de dureté élevées sans nécessiter l'ajout de liants, ce qui facilite la production et la manipulation des comprimés au niveau industriel. La force de compression appliquée pour produire les comprimés n'a pas d'incidence significative sur les profils de libération du principe actif. Le temps de libération totale à partir de comprimés SD HASCA a augmenté de manière significative avec le poids du comprimé et peut, de ce fait, être utilisé pour moduler le temps de libération à partir de ces formulations. Lorsque les comprimés ont été exposés à un gradient de pH et à un milieu à 40% d'éthanol, un gel très rigide s’est formé progressivement sur leur surface amenant à la libération prolongée du principe actif. Ces propriétés ont indiqué que SD HASCA est un excipient robuste pour la production de formes galéniques orales à libération prolongée, pouvant réduire la probabilité d’une libération massive de principe actif et, en conséquence, des effets secondaires, même dans le cas de co-administration avec une forte dose d'alcool. Le troisième article a étudié l'effet de α-amylase sur la libération de principe actif à partir de comprimés SD HASCA contenant de l’acétaminophène et du chlorhydrate de tramadol qui ont été développés dans les premières étapes de cette recherche (Acetaminophen SR et Tramadol SR). La modélisation mathématique a montré qu'une augmentation de la concentration d’α-amylase a entraîné une augmentation de l'érosion de polymère par rapport à la diffusion de principe actif comme étant le principal mécanisme contrôlant la libération de principe actif, pour les deux formulations et les deux temps de résidence en milieu acide. Cependant, même si le mécanisme de libération peut être affecté, des concentrations d’α-amylase allant de 0 UI/L à 20000 UI/L n'ont pas eu d'incidence significative sur les profils de libération prolongée à partir de comprimés SD HASCA, indépendamment de la durée de séjour en milieu acide, le principe actif utilisé, la teneur en polymère et la différente composition de chaque formulation. Le travail présenté dans cette thèse démontre clairement l'utilité de SD HASCA en tant qu'un excipient à libération prolongée efficace.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’émergence de nouvelles applications et de nouveaux services (tels que les applications multimédias, la voix-sur-IP, la télévision-sur-IP, la vidéo-sur-demande, etc.) et le besoin croissant de mobilité des utilisateurs entrainent une demande de bande passante de plus en plus croissante et une difficulté dans sa gestion dans les réseaux cellulaires sans fil (WCNs), causant une dégradation de la qualité de service. Ainsi, dans cette thèse, nous nous intéressons à la gestion des ressources, plus précisément à la bande passante, dans les WCNs. Dans une première partie de la thèse, nous nous concentrons sur la prédiction de la mobilité des utilisateurs des WCNs. Dans ce contexte, nous proposons un modèle de prédiction de la mobilité, relativement précis qui permet de prédire la destination finale ou intermédiaire et, par la suite, les chemins des utilisateurs mobiles vers leur destination prédite. Ce modèle se base sur : (a) les habitudes de l’utilisateur en terme de déplacements (filtrées selon le type de jour et le moment de la journée) ; (b) le déplacement courant de l’utilisateur ; (c) la connaissance de l’utilisateur ; (d) la direction vers une destination estimée ; et (e) la structure spatiale de la zone de déplacement. Les résultats de simulation montrent que ce modèle donne une précision largement meilleure aux approches existantes. Dans la deuxième partie de cette thèse, nous nous intéressons au contrôle d’admission et à la gestion de la bande passante dans les WCNs. En effet, nous proposons une approche de gestion de la bande passante comprenant : (1) une approche d’estimation du temps de transfert intercellulaire prenant en compte la densité de la zone de déplacement en terme d’utilisateurs, les caractéristiques de mobilité des utilisateurs et les feux tricolores ; (2) une approche d’estimation de la bande passante disponible à l’avance dans les cellules prenant en compte les exigences en bande passante et la durée de vie des sessions en cours ; et (3) une approche de réservation passive de bande passante dans les cellules qui seront visitées pour les sessions en cours et de contrôle d’admission des demandes de nouvelles sessions prenant en compte la mobilité des utilisateurs et le comportement des cellules. Les résultats de simulation indiquent que cette approche réduit largement les ruptures abruptes de sessions en cours, offre un taux de refus de nouvelles demandes de connexion acceptable et un taux élevé d’utilisation de la bande passante. Dans la troisième partie de la thèse, nous nous penchons sur la principale limite de la première et deuxième parties de la thèse, à savoir l’évolutivité (selon le nombre d’utilisateurs) et proposons une plateforme qui intègre des modèles de prédiction de mobilité avec des modèles de prédiction de la bande passante disponible. En effet, dans les deux parties précédentes de la thèse, les prédictions de la mobilité sont effectuées pour chaque utilisateur. Ainsi, pour rendre notre proposition de plateforme évolutive, nous proposons des modèles de prédiction de mobilité par groupe d’utilisateurs en nous basant sur : (a) les profils des utilisateurs (c’est-à-dire leur préférence en termes de caractéristiques de route) ; (b) l’état du trafic routier et le comportement des utilisateurs ; et (c) la structure spatiale de la zone de déplacement. Les résultats de simulation montrent que la plateforme proposée améliore la performance du réseau comparée aux plateformes existantes qui proposent des modèles de prédiction de la mobilité par groupe d’utilisateurs pour la réservation de bande passante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’Urgence négative est un trait caractéristique du trouble de personnalité limite. Cependant ce modèle des traits ne permet pas d’expliquer les variétés des formes d’expression ni le niveau de sévérité de gestes impulsifs, qu’ils soient dirigés contre soi ou contre autrui. L’intégration du modèle des relations d’objet à celui des traits offre une meilleure compréhension de cette variabilité. Dans la théorie des relations d’objet, la diffusion de l’identité est spécifique aux organisations limites de la personnalité. Elle est caractérisée par un manque d’intégration des représentations de soi et d’autrui à cause d’une séparation excessive des affects positifs et négatifs investis dans les images de soi et d’autrui. Elle est associée à un manque d’intégration des structures psychiques du Moi et du Surmoi. Le niveau de l’intégration de l’identité agirait en modulant la relation en un trait d’urgence négative élevé et l’expression des gestes impulsifs. Cette étude, réalisée auprès d’étudiants, était la première à tester une telle hypothèse. Bien qu’elle n’ait pas permis de démontrer une telle relation de modération, compte tenu de certaines limites, il apparaît nécessaire de réévaluer ce modèle modérateur au sein d’un d’échantillon de plus grande taille.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Problème: Ma thèse porte sur l’identité individuelle comme interrogation sur les enjeux personnels et sur ce qui constitue l’identification hybride à l’intérieur des notions concurrentielles en ce qui a trait à l’authenticité. Plus précisément, j’aborde le concept des identifications hybrides en tant que zones intermédiaires pour ce qui est de l’alternance de codes linguistiques et comme négociation des espaces continuels dans leur mouvement entre les cultures et les langues. Une telle négociation engendre des tensions et/ou apporte le lien créatif. Les tensions sont inhérentes à n’importe quelle construction d’identité où les lignes qui définissent des personnes ne sont pas spécifiques à une culture ou à une langue, où des notions de l’identité pure sont contestées et des codes communs de l’appartenance sont compromis. Le lien créatif se produit dans les exemples où l’alternance de code linguistique ou la négociation des espaces produit le mouvement ouvert et fluide entre les codes de concurrence des références et les différences à travers les discriminations raciales, la sexualité, la culture et la langue. Les travaux que j’ai sélectionnés représentent une section transversale de quelques auteurs migrants provenant de la minorité en Amérique du Nord qui alternent les codes linguistiques de cette manière. Les travaux détaillent le temps et l’espace dans leur traitement de l’identité et dans la façon dont ils cernent l’hybridité dans les textes suivants : The Woman Warrior de Maxine Hong Kingston (1975-76), Hunger of Memory de Richard Rodriguez (1982), Comment faire l’amour avec un nègre sans se fatiguer de Dany Laferrière (1985), Borderlands/La Frontera de Gloria Anzalduá (1987), Lost in Translation de Eva Hoffman (1989), Avril ou l’anti-passion de Antonio D’Alfonso (1990) et Chorus of Mushrooms de Hiromi Goto (1994). Enjeux/Questions La notion de l’identification hybride est provocante comme sujet. Elle met en question l’identité pure. C’est un sujet qui a suscité beaucoup de discussions tant en ce qui a trait à la littérature, à la politique, à la société, à la linguistique, aux communications, qu’au sein même des cercles philosophiques. Ce sujet est compliqué parce qu’il secoue la base des espaces fixes et structurés de l’identité dans sa signification culturelle et linguistique. Par exemple, la notion de patrie n’a pas les représentations exclusives du pays d’origine ou du pays d’accueil. De même, les notions de race, d’appartenance ethnique, et d’espaces sexuels sont parfois négativement acceptées si elles proviennent des codes socialement admis et normalisés de l’extérieur. De tels codes de la signification sont souvent définis par l’étiquette d’identification hétérosexuelle et blanche. Dans l’environnement généralisé d’aujourd’hui, plus que jamais, une personne doit négocier qui elle est, au sens de son appartenance à soi, en tant qu’individu et ce, face aux modèles locaux, régionaux, nationaux, voire même globaux de la subjectivité. Nous pouvons interpréter ce mouvement comme une série de couches superposées de la signification. Quand nous rencontrons une personne pour la première fois, nous ne voyons que la couche supérieure. D’ailleurs, son soi intérieur est caché par de nombreuses couches superposées (voir Joseph D. Straubhaar). Toutefois, sous cette couche supérieure, on retrouve beaucoup d’autres couches et tout comme pour un oignon, on doit les enlever une par une pour que l’individualité complète d’une personne soit révélée et comprise. Le noyau d’une personne représente un point de départ crucial pour opposer qui elle était à la façon dont elle se transforme sans cesse. Sa base, ou son noyau, dépend du moment, et comprend, mais ne s’y limite pas, ses origines, son environnement et ses expériences d’enfance, son éducation, sa notion de famille, et ses amitiés. De plus, les notions d’amour-propre et d’amour pour les autres, d’altruisme, sont aussi des points importants. Il y a une relation réciproque entre le soi et l’autre qui établit notre degré d’estime de soi. En raison de la mondialisation, notre façon de comprendre la culture, en fait, comment on consomme et définit la culture, devient rapidement un phénomène de déplacement. À l’intérieur de cette arène de culture généralisée, la façon dont les personnes sont à l’origine chinoises, mexicaines, italiennes, ou autres, et poursuivent leur évolution culturelle, se définit plus aussi facilement qu’avant. Approche Ainsi, ma thèse explore la subjectivité hybride comme position des tensions et/ou des relations créatrices entre les cultures et les langues. Quoique je ne souhaite aucunement simplifier ni le processus, ni les questions de l’auto-identification, il m’apparaît que la subjectivité hybride est aujourd’hui une réalité croissante dans l’arène généralisée de la culture. Ce processus d’échange est particulièrement complexe chez les populations migrantes en conflit avec leur désir de s’intégrer dans les nouveaux espaces adoptés, c’est-à-dire leur pays d’accueil. Ce réel désir d’appartenance peut entrer en conflit avec celui de garder les espaces originels de la culture définie par son pays d’origine. Ainsi, les références antérieures de l’identification d’une personne, les fondements de son individualité, son noyau, peuvent toujours ne pas correspondre à, ou bien fonctionner harmonieusement avec, les références extérieures et les couches d’identification changeantes, celles qu’elle s’approprie du pays d’accueil. Puisque nos politiques, nos religions et nos établissements d’enseignement proviennent des représentations nationales de la culture et de la communauté, le processus d’identification et la création de son individualité extérieure sont formées par le contact avec ces établissements. La façon dont une personne va chercher l’identification entre les espaces personnels et les espaces publics détermine ainsi le degré de conflit et/ou de lien créatif éprouvé entre les modes et les codes des espaces culturels et linguistiques. Par conséquent, l’identification des populations migrantes suggère que la « community and culture will represent both a hybridization of home and host cultures » (Straubhaar 27). Il y a beaucoup d’écrits au sujet de l’hybridité et des questions de l’identité et de la patrie, toutefois cette thèse aborde la valeur créative de l’alternance de codes culturels et linguistiques. Ce que la littérature indiquera Par conséquent, la plate-forme à partir de laquelle j’explore mon sujet de l’hybridité flotte entre l’interprétation postcoloniale de Homi Bhabha concernant le troisième espace hybride; le modèle d’hétéroglossie de Mikhail Bakhtine qui englobent plusieurs de mes exemples; la représentation de Roland Barthes sur l’identité comme espace transgressif qui est un modèle de référence et la contribution de Chantal Zabus sur le palimpseste et l’alternance de codes africains. J’utilise aussi le modèle de Sherry Simon portant sur l’espace urbain hybride de Montréal qui établit un lien important avec la valeur des échanges culturels et linguistiques, et les analyses de Janet Paterson. En effet, la façon dont elle traite la figure de l’Autre dans les modèles littéraires au Québec fournisse un aperçu régional et national de l’identification hybride. Enfin, l’exploration du bilinguisme de Doris Sommer comme espace esthétique et même humoristique d’identification situe l’hybridité dans une espace de rencontre créative. Conséquence Mon approche dans cette thèse ne prétend pas résoudre les problèmes qui peuvent résulter des plates-formes de la subjectivité hybride. Pour cette raison, j’évite d’aborder toute approche politique ou nationaliste de l’identité qui réfute l’identification hybride. De la même façon, je n’amène pas de discussion approfondie sur les questions postcoloniales. Le but de cette thèse est de démontrer à quel point la subjectivité hybride peut être une zone de relation créatrice lorsque l’alternance de codes permet des échanges de communication plus intimes entre les cultures et les langues. C’est un espace qui devient créateur parce qu’il favorise une attitude plus ouverte vis-à-vis les différents champs qui passent par la culture, aussi bien la langue, que la sexualité, la politique ou la religion. Les zones hybrides de l’identification nous permettent de contester les traditions dépassées, les coutumes, les modes de communication et la non-acceptation, toutes choses dépassées qui emprisonnent le désir et empêchent d’explorer et d’adopter des codes en dehors des normes et des modèles de la culture contenus dans le discours blanc, dominant, de l’appartenance culturelle et linguistique mondialisée. Ainsi, il appert que ces zones des relations multi-ethniques exigent plus d’attention des cercles scolaires puisque la population des centres urbains à travers l’Amérique du Nord devient de plus en plus nourrie par d’autres types de populations. Donc, il existe un besoin réel d’établir une communication sincère qui permettrait à la population de bien comprendre les populations adoptées. C’est une invitation à stimuler une relation plus intime de l’un avec l’autre. Toutefois, il est évident qu’une communication efficace à travers les frontières des codes linguistiques, culturels, sexuels, religieux et politiques exige une négociation continuelle. Mais une telle négociation peut stimuler la compréhension plus juste des différences (culturelle ou linguistique) si des institutions académiques offrent des programmes d’études intégrant davantage les littératures migrantes. Ma thèse vise à illustrer (par son choix littéraire) l’identification hybride comme une réalité importante dans les cultures généralisées qui croissent toujours aujourd’hui. Les espaces géographiques nous gardent éloignés les uns des autres, mais notre consommation de produits exotiques, qu’ils soient culturels ou non, et même notre consommation de l’autre, s’est rétrécie sensiblement depuis les deux dernières décennies et les indicateurs suggèrent que ce processus n’est pas une tendance, mais plutôt une nouvelle manière d’éprouver la vie et de connaître les autres. Ainsi les marqueurs qui forment nos frontières externes, aussi bien que ces marqueurs qui nous définissent de l’intérieur, exigent un examen minutieux de ces enjeux inter(trans)culturels, surtout si nous souhaitons nous en tenir avec succès à des langues et des codes culturels présents, tout en favorisant la diversité culturelle et linguistique. MOTS-CLÉS : identification hybride, mouvement ouvert, alternance de code linguistique, négociation des espaces, tensions, connectivité créative

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ma thèse, je me sers de modèles de recherche solides pour répondre à des questions importantes de politique publique. Mon premier chapitre évalue l’impact causal de l’allégeance partisane (républicain ou démocrate) des gouverneurs américains sur le marché du travail. Dans ce chapitre, je combine les élections des gouverneurs avec les données du March CPS pour les années fiscales 1977 à 2008. En utilisant un modèle de régression par discontinuité, je trouve que les gouverneurs démocrates sont associés à de plus faibles revenus individuels moyens. Je mets en évidence que cela est entrainée par un changement dans la composition de la main-d’oeuvre à la suite d’une augmentation de l’emploi des travailleurs à revenus faibles et moyens. Je trouve que les gouverneurs démocrates provoquent une augmentation de l’emploi des noirs et de leurs heures travaillées. Ces résultats conduisent à une réduction de l’écart salarial entre les travailleurs noir et blanc. Mon deuxième chapitre étudie l’impact causal des fusillades qui se produisent dans les écoles secondaires américaines sur les performances des éléves et les résultats des écoles tels que les effectifs et le nombre d’enseignants recruté, a l’aide d’une stratégie de différence-en-différence. Le chapitre est coécrit avec Dongwoo Kim. Nous constatons que les fusillades dans les écoles réduisent significativement l’effectif des élèves de 9e année, la proportion d’élèves ayant un niveau adéquat en anglais et en mathématiques. Nous examinons aussi l’effet hétérogene des tueries dans les écoles secondaires entre les crimes et les suicides. Nous trouvons que les fusillades de natures criminelles provoquent la diminution du nombre d’inscriptions et de la proportion d’élèves adéquats en anglais et mathématiques. En utilisant des données sur les élèves en Californie, nous confirmons qu’une partie de l’effet sur la performance des élèves provient des étudiants inscrits et ce n’est pas uniquement un effet de composition. Mon troisième chapitre étudie l’impact des cellulaires sur la performance scolaire des élèves. Le chapitre est coécrit avec Richard Murphy. Dans ce chapitre, nous combinons une base de données unique contenant les politiques de téléphonie mobile des écoles obtenues à partir d’une enquète auprès des écoles dans quatre villes en Angleterre avec des données administratives sur la performance scolaire des éleves. Nous étudions ainsi l’impact de l’introduction d’une interdiction de téléphonie mobile sur le rendement des éleves. Nos résultats indiquent qu’il y a une augmentation du rendement des éleves après l’instauration de l’interdiction des cellulaires à l’école, ce qui suggère que les téléphones mobiles sont sources de distraction pour l’apprentissage et l’introduction d’une interdiction à l’école limite ce problème.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’amour, la mort et la souffrance sont parmi les expériences les plus incompréhensibles que l’homme doit affronter dans sa vie. Elles définissent sa nature et font partie intégrante de son univers symbolique. Le saut de Leucade aurait été pratiqué pendant plus de mille ans. À la fois présent dans les récits mythiques, religieux et historiques, le rituel est attesté par les premiers historiens de l’Antiquité qui décrivent ce phénomène à partir des données de l’historiographie antique. La forme traditionnelle du saut s’inscrit dans l’univers mythologique des Grecs et le plongeon est un acte de délivrance de la passion amoureuse. La nature du rituel change selon les contextes littéraires, passant d’un rite érotique à un rituel apotropaïque pour se voir perpétuer de manière désacralisée dans les récits plus tardifs. L’analyse des différentes fonctions du saut semble démontrer le profil d’une expérience limite, où la mort serait vécue de manière métaphorique et pose le problème de la nature ordalique du rituel qui serait à la base de son efficacité pragmatique. Cette étude projette d’analyser les formes de la pensée grecque dans son expression anthropologique à travers la dialectique du mythe et du rite et vise à comprendre l’interprétation de la souffrance amoureuse dans le cadre du rituel de précipitation. Le saut de Leucade serait dès lors un discours spécifique qui témoignerait d’une certaine conception de la nature humaine, de la mort et de la souffrance amoureuse dans l’imaginaire de la Grèce ancienne.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Essai doctoral présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de doctorat en psychologie (D.Psy.) option psychologie clinique