949 resultados para Charge sur un lien


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les centres d’appels sont des éléments clés de presque n’importe quelle grande organisation. Le problème de gestion du travail a reçu beaucoup d’attention dans la littérature. Une formulation typique se base sur des mesures de performance sur un horizon infini, et le problème d’affectation d’agents est habituellement résolu en combinant des méthodes d’optimisation et de simulation. Dans cette thèse, nous considérons un problème d’affection d’agents pour des centres d’appels soumis a des contraintes en probabilité. Nous introduisons une formulation qui exige que les contraintes de qualité de service (QoS) soient satisfaites avec une forte probabilité, et définissons une approximation de ce problème par moyenne échantillonnale dans un cadre de compétences multiples. Nous établissons la convergence de la solution du problème approximatif vers celle du problème initial quand la taille de l’échantillon croit. Pour le cas particulier où tous les agents ont toutes les compétences (un seul groupe d’agents), nous concevons trois méthodes d’optimisation basées sur la simulation pour le problème de moyenne échantillonnale. Étant donné un niveau initial de personnel, nous augmentons le nombre d’agents pour les périodes où les contraintes sont violées, et nous diminuons le nombre d’agents pour les périodes telles que les contraintes soient toujours satisfaites après cette réduction. Des expériences numériques sont menées sur plusieurs modèles de centre d’appels à faible occupation, au cours desquelles les algorithmes donnent de bonnes solutions, i.e. la plupart des contraintes en probabilité sont satisfaites, et nous ne pouvons pas réduire le personnel dans une période donnée sont introduire de violation de contraintes. Un avantage de ces algorithmes, par rapport à d’autres méthodes, est la facilité d’implémentation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

To investigate the role of muscles in the development of adolescent idiopathic scoliosis (AIS), our group was initially interested in Duchenne muscular dystrophy (DMD) diseases where a muscular degeneration often leads to scoliosis. Few years ago the studies with those patients provided interesting results but were obtained only from few patients. To increase that number, the present project was initiated but recruitment of new DMD patients from Marie-Enfant hospital was found impossible. As an alternative, patients with Friedreich’s ataxia (FA) were recruited since they also suffer from a muscular deficiency which often induces a scoliosis. So, 4 FA patients and 4 healthy controls have been chosen to closely match the age, weight and body mass indexes (BMI) of the patients were enrolled in our experiments. As in the previous study, electromyography (EMG) activity of paraspinal muscles were recorded on each side of the spine during three types of contraction at 2 different maximum voluntary contractions (MVC). Moreover, the volume and skinfold thickness of these muscles were determined from ultrasound images (US) in order to facilitate the interpretation of EMG signals recorded on the skin surface. For the 3 FA right scoliotic patients, EMG activity was most of the time larger on the concave side of the deviation. The opposite was found for the 4th one (P4, left scoliosis, 32°) for whom EMG activity was larger on the convex side; it should however be noted that all his signals were of small amplitude. This was associated to a muscle weakness and a large skinfold thickness (12 mm) vs 7 mm for the 3 others. As for the paraspinal muscle volume, it was present on the convex side of P1, P3 and P4 and on the concave side for P2. As for skinfold thickness over this muscle, it was larger on the concave side for P1 and P2 and the opposite for P3 and P4. At the apex of each curve, the volume and skinfold thickness differences were the largest. Although the study covers only a small number of FA patients, the presence of larger EMG signals on the concave side of a spinal deformation is similar to pre-scoliotic DMD patients for whom the deformation is in its initial stage. It thus seems that our FA patients with more EMG activity on their concave side could see progression of their spinal deformation in the coming months in spite of their already important Cobb angle.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La passion est un élément central dans les œuvres d’Anne Hébert. Chez les personnages hébertiens, la passion se traduit par une rhétorique distinctive: la rhétorique du pâtir. L’Île de la Demoiselle, pièce de théâtre radiophonique diffusée en 1974, ainsi que Kamouraska, roman publié en 1970, sont des exemples de la construction textuelle du pâtir. Cette forme de souffrance est particulière dans le cas des deux œuvres, car elle semble à la fois subie et voulue par les protagonistes. Notre mémoire porte sur un outil de théâtralisation spécifique, la parole dans le texte, et ce, principalement celle des héroïnes Marguerite de Notron et Elisabeth d’Aulnières. Nous étudions comment le discours construit un pâtir en partie subi, mais aussi maîtrisé et voulu par les protagonistes par le biais de la théâtralisation de la parole. À l’image du théoricien Jean-Pierre Richard, nous effectuons pour chacune des œuvres des microlectures d’extraits, afin de montrer comment le pâtir se déploie dans la parole au fil des phrases. Ces microlectures servent de tremplin à une ouverture sur l’ensemble du texte. Nous appuyant sur la théorie du langage d’Austin, nous analysons le discours, afin de montrer comment il y a performativité de la parole chez les protagonistes, même si les personnages en proie à la passion semblent inactifs. Notre objectif est de montrer comment la mise en scène de la parole est la même dans les deux œuvres.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La thèse qui suit est organisée en deux volets: un premier volet portant sur les modèles de masse de galaxies et un second volet sur la conception de revêtements optiques et le contrôle de leurs propriétés mécaniques. Les modèles de masse présentés dans cette thèse ont été réalisés sur un sous-échantillon de dix galaxies de l'étude SINGS comprenant neuf galaxies normales et une galaxie naine. Ce travail visait à fixer le rapport masse-luminosité du disque à tout rayon en utilisant les résultats de modèles d'évolution galactique chimio-spectrophotométriques ajustés spécifiquement à chaque galaxie grâce à son profil de photométrie multi-bandes. Les résultats montrent que les disques stellaires tels que normalisés par les rapports masse-luminosité issus des modèles ont des masses cohérentes dans toutes les bandes étudiées de l'ultra-violet, du visible ainsi que du proche infrarouge (bandes FUV à IRAC2). Ces disques peuvent être considérés comme maximaux par rapport aux données cinématiques des galaxies étudiées. Ceci est dû au fait que le rapport M/L est plus élevé au centre que sur les bords. Les disques étant maximaux et physiquement justifiés, on ne peut dès lors ignorer les effets de composants tels que les bulbes ou les barres et les corrections nécessaires doivent être apportées aux profils de luminosité et de vitesses de rotation de la galaxie. Dans les travaux de la seconde partie, le logiciel en développement libre OpenFilters a été modifié afin de tenir compte des contraintes mécaniques dans la conception numérique de revêtements optiques. Les contraintes mécaniques dans les couches minces ont un effet délétère sur leurs performances optiques. Un revêtement destiné à rendre réflectives les lames d'un étalon Fabry-Perot utilisé en astronomie a été conçu et fabriqué afin d'évaluer les performances réelles de la méthode. Ce cas a été choisi à cause de la diminution de la finesse d'un étalon Fabry-Perot apporté par la courbure des lames sous l'effet des contraintes. Les résultats montrent que les mesures concordent avec les modèles numériques et qu'il est donc possible à l'aide de ce logiciel d'optimiser les revêtements pour leur comportement mécanique autant que pour leurs propriétés optiques.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'utilisation des informations proprioceptives pour le contrôle de l’équilibre à la marche est encore mal comprise chez les sujets en santé ou hémiparétiques suite à un accident vasculaire cérébral. Le but de cette étude était d’évaluer le rôle des informations proprioceptives dans le maintien de l'équilibre à la marche chez les patients en santé et hémiparétiques. Une analyse de mouvement en trois dimensions a été faite chez treize participants en santé et six hémiparétiques qui marchaient sur un tapis roulant instrumenté pour déterminer leur difficulté à maintenir l’équilibre postural et dynamique, évaluée respectivement par les forces stabilisante et déstabilisante. Des vibrations étaient appliquées en continu ou pendant la phase d’appui sur les muscles postérieurs du cou et sur le triceps sural du côté non-dominant/parétique. La vibration continue ou à l’appui du triceps sural a diminué, chez les sujets en santé, la difficulté à maintenir l’équilibre dynamique et postural (p< 0,01), avec une position du corps plus en arrière, sans changement des paramètres temporels de marche. L'équilibre et les paramètres temporels de la marche n'étaient pas modifiés significativement par la vibration à la nuque (p>.17). Aucun effet des vibrations n'a été mesuré chez les patients hémiparétiques (p> 0,45). Les informations proprioceptives sont donc bien utilisées lors de la marche, mais leur rôle dépendrait des conditions de marche et des afférences visuelles disponibles. Un changement dans les capacités d’intégration expliquerait l'absence d'effet des vibrations chez les patients hémiparétiques. D’autres études sont nécessaires pour comprendre l’intégration des informations proprioceptives et visuelles dans le contrôle de l’équilibre à la marche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les méthodes de Monte Carlo par chaînes de Markov (MCCM) sont des méthodes servant à échantillonner à partir de distributions de probabilité. Ces techniques se basent sur le parcours de chaînes de Markov ayant pour lois stationnaires les distributions à échantillonner. Étant donné leur facilité d’application, elles constituent une des approches les plus utilisées dans la communauté statistique, et tout particulièrement en analyse bayésienne. Ce sont des outils très populaires pour l’échantillonnage de lois de probabilité complexes et/ou en grandes dimensions. Depuis l’apparition de la première méthode MCCM en 1953 (la méthode de Metropolis, voir [10]), l’intérêt pour ces méthodes, ainsi que l’éventail d’algorithmes disponibles ne cessent de s’accroître d’une année à l’autre. Bien que l’algorithme Metropolis-Hastings (voir [8]) puisse être considéré comme l’un des algorithmes de Monte Carlo par chaînes de Markov les plus généraux, il est aussi l’un des plus simples à comprendre et à expliquer, ce qui en fait un algorithme idéal pour débuter. Il a été sujet de développement par plusieurs chercheurs. L’algorithme Metropolis à essais multiples (MTM), introduit dans la littérature statistique par [9], est considéré comme un développement intéressant dans ce domaine, mais malheureusement son implémentation est très coûteuse (en termes de temps). Récemment, un nouvel algorithme a été développé par [1]. Il s’agit de l’algorithme Metropolis à essais multiples revisité (MTM revisité), qui définit la méthode MTM standard mentionnée précédemment dans le cadre de l’algorithme Metropolis-Hastings sur un espace étendu. L’objectif de ce travail est, en premier lieu, de présenter les méthodes MCCM, et par la suite d’étudier et d’analyser les algorithmes Metropolis-Hastings ainsi que le MTM standard afin de permettre aux lecteurs une meilleure compréhension de l’implémentation de ces méthodes. Un deuxième objectif est d’étudier les perspectives ainsi que les inconvénients de l’algorithme MTM revisité afin de voir s’il répond aux attentes de la communauté statistique. Enfin, nous tentons de combattre le problème de sédentarité de l’algorithme MTM revisité, ce qui donne lieu à un tout nouvel algorithme. Ce nouvel algorithme performe bien lorsque le nombre de candidats générés à chaque itérations est petit, mais sa performance se dégrade à mesure que ce nombre de candidats croît.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La scoliose idiopathique de l’adolescent est une déformation 3D du rachis. La littérature comporte une multitude d’études sur la prédiction de l’évolution et l’identification de facteurs de risque de progression. Pour l’instant les facteurs de risque établis sont l’amplitude de la déformation, la maturité squelettique et le type de courbure. Plusieurs autres champs ont été explorés comme les aspects génétiques, biochimiques, mécaniques, posturaux et topographiques, sans vraiment apporter beaucoup de précision à la prédiction de l’évolution. L’avancement de la technologie permet maintenant de générer des reconstructions 3D du rachis à l’aide des radiographies standard et d’obtenir des mesures de paramètres 3D. L’intégration de ces paramètres 3D dans un modèle prédictif représente une avenue encore inexplorée qui est tout à fait logique dans le contexte de cette déformation 3D du rachis. L’objectif général de cette thèse est de développer un modèle de prédiction de l’angle de Cobb à maturité squelettique à partir de l’information disponible au moment de la première visite, soit l’angle de Cobb initial, le type de courbure, l’âge osseux et des paramètres 3D du rachis. Dans une première étude, un indice d’âge osseux a été développé basé sur l’ossification de l’apophyse iliaque et sur le statut du cartilage triradié. Cet indice comporte 3 stades et le second stade, qui est défini par un cartilage triradié fermé avec maximum 1/3 d’ossification de l’apophyse iliaque, représente le moment pendant lequel la progression de la scoliose idiopathique de l’adolescent est la plus rapide. Une seconde étude rétrospective a permis de mettre en évidence le potentiel des paramètres 3D pour améliorer la prédiction de l’évolution. Il a été démontré qu’à la première visite il existe des différences pour 5 paramètres 3D du rachis entre un groupe de patients qui sera éventuellement opéré et un groupe qui ne progressera pas. Ces paramètres sont : la moyenne da la cunéiformisation 3D des disques apicaux, la rotation intervertébrale à la jonction inférieure de la courbure, la torsion, le ratio hauteur/largeur du corps vertébral de T6 et de la colonne complète. Les deux dernières études sont basées sur une cohorte prospective de 133 patients avec une scoliose idiopathique de l’adolescent suivi dès leur première visite à l’hôpital jusqu’à maturité squelettique. Une première étude a permis de mettre en évidence les différences morphologiques à la première visite entre les patients ayant progresser de plus ou moins de 6°. Des différences ont été mise en évidence pour la cyphose, l’angle de plan de déformation maximal, la rotation ntervertébrale l’apex, la torsion et plusieurs paramètres de «slenderness». Ensuite une seconde étude a permis de développer un modèle prédictif basé sur un modèle linéaire général en incluant l’indice d’âge osseux développé dans la première étude, le type de courbure, l’amplitude de l’angle de Cobb à la première visite, l’angle de déformation du plan maximale, la cunéiformisation 3D des disques T3-T4, T8-­T9, T11-­T12 et la somme des cunéiformisation 3D de tous les disques thoraciques et lombaires. Le coefficient de détermination multiple pour cette modélisation est de 0.715. Le modèle prédictif développé renforce l’importance de considérer la scoliose idiopathique dans les trois dimensions et il permettra d’optimiser la prédiction de l’évolution au moment de la première visite.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La scoliose idiopathique de l’adolescent (SIA) est la déformation la plus fréquente en orthopédie pédiatrique. C'est une maladie qui génère des déformations complexes du rachis, du thorax et du bassin affectant plus sévèrement et majoritairement les filles à la puberté. Malgré de nombreuses années de recherches approfondies dans le domaine de la SIA, la cause n'a toujours pas été résolue. OBJECTIFS : Il a été démontré qu’il existe une dysfonction de la signalisation de la mélatonine par les protéines G inhibitrices (Gi) dans les ostéoblastes isolés de patients atteints de SIA. Ceci a conduit à une stratification des patients en trois groupes fonctionnels. Le but de ce projet de maîtrise est d’établir les profils d’expression moléculaire correspondant à chacun des groupes fonctionnels. Les objectifs spécifiques sont d’identifier les gènes responsables de l’initiation de la SIA et du défaut différentiel observé dans la signalisation des récepteurs couplés aux protéines Gi. MÉTHODES : Des ARNs ont été préparés à partir d’ostéoblastes isolés de patients atteints de SIA sélectionnés pour chaque groupe fonctionnel et comparés aux ARNs obtenus d’ostéoblastes de sujets sains. En plus, des cellules sanguines (PBMCs) isolées d’une paire de jumelles monozygotes discordantes pour la scoliose ont été étudiées pour comparer leur profil d’expression génétique. Nous avons utilisé des biopuces à ADN contenant un ensemble de 54,000 sondes permettant l’analyse du niveau d’expression de plus de 47,000 transcrits représentant 30,000 gènes humains bien caractérisés (Affymetrix, GeneChip® Human gene 1.0 ST array). Les gènes retenus ont par la suite été validés par qPCR sur un plus grand nombre de patients afin de tester la spécificité des profils d’expression pour chaque groupe de patients à partir des cellules osseuses dérivées lors de la chirurgie. RÉSULTATS: Le profilage moléculaire proposé permettra d’établir les fondements moléculaires de la SIA selon le test fonctionnel développé par le Dr Moreau et son équipe et d’identifier de nouveaux gènes associés à la SIA. Ce projet a permis de mettre en évidence des gènes possiblement impliqués dans le défaut de signalisation associé aux protéines Gi communs aux trois groupes, ainsi que des gènes spécifiques à certains groupes, pouvant contribuer au développement de certaines co-morbidités et/ou au risque d’aggravation des déformations rachidiennes. L’étude préliminaire des jumelles monozygotes discordantes pour la scoliose a mis en évidence un nombre limité de gènes possiblement associés au défaut de signalisation observé chez la jumelle scoliotique, gènes dont l’expression pourrait être influencée par des modifications d’ordre épigénétique liées à l’environnement. CONCLUSION: Les données obtenues par des approches de transcriptomiques dans le cadre de ce projet soutiennent notre méthode de stratification fonctionnelle des patients SIA et ont conduit à l’identification de nouveaux gènes associés à la SIA. Ces résultats jettent un éclairage nouveau sur la SIA et contribuent à une meilleure compréhension des mécanismes et facteurs impliqués dans l’étiologie de la SIA. À cet égard, nos résultats permettront éventuellement d’identifier des cibles thérapeutiques potentielles et des traitements personnalisés compte tenu des profils moléculaires distincts observés pour chaque groupe de patients.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le déroulement du commerce électronique sur un marché global suscite de nombreux questionnements juridiques. D'une part, le droit est conçu à l'échelle nationale en fonction d'un milieu social tributaire de son histoire et de sa culture et d'autre part, le commerce électronique global présente des caractéristiques très singulières : dématérialisation, ubiquité et dimension transfrontalière. Or, une telle confrontation est susceptible de menacer la sécurité juridique des parties dans leurs transactions commerciales en ligne mais aussi la confiance nécessaire à leur développement. Les territoires nationaux, en limitant le pouvoir d’action effectif des États, pose un problème d’échelle : réglementer un phénomène global confronté à des souverainetés territoriales multiples. L’encadrement normatif du commerce électronique global se développe désormais, en partie, à un niveau extra étatique, confirmant l’érosion du monopole des États dans la régulation des rapports juridiques globalisés. La normativité devient le résultat d’un jeu normatif ouvert non seulement quant aux acteurs de la régulation, mais également quant à la qualification des normes impliquées dans cette régulation. Prenant la mesure de la complexité croissante de la normativité, les États interviennent pour tenter de concilier les pratiques nouvelles avec la règle de droit dans une logique de définition des règles du jeu et d’harmonisation du comportement des acteurs économiques. Les systèmes de droit nationaux apprennent à interagir avec des normes multiples de sources différentes. Cette évolution reflète l’articulation des dynamiques de mutation de la normativité avec le phénomène de globalisation du commerce électronique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les alcaloïdes Daphniphyllum constituent une vaste famille de produits naturels isolés à partir de plantes à feuillage persistant couramment utilisés dans la médecine chinoise traditionnelle. Ils affichent une gamme impressionnante d'activités biologiques; antipyrétique, anti-inflammatoire, antioxydant et même anticancéreux. La calyciphylline B appartient à cette famille et possède un motif original comprenant sept stéréocentres adjacents, dont un stéréocentre quaternaire tout carbone, avec un échafaudage hexacyclique. Sa structure a été déterminée par données spectroscopiques, plus précisément par des techniques de RMN 2D. Malgré le peu d'information sur son activité biologique, sa synthèse représente sans le moindre doute un grand défi pour les chimistes organiciens. Le groupe de recherche du Prof. Hanessian a entrepris la synthèse totale de la calyciphylline B en 2010, laquelle est toujours en cours. Une nouvelle approche a été développée pour la préparation d'un intermédiaire azabicyclo[3.3.0]octane avancé. Ce mémoire résume les travaux de recherche de l'auteur sur les progrès réalisés pour la voie alternative élaborée par le groupe du prof. Hanessian. Le travail effectué comprend la formation d'un stéréocentre quaternaire, l'alkylation d'un énolate sur un triflate d'alkyle secondaire, une réduction diastéréosélective, une cyclisation réductrice ainsi qu'une oxydation de Wacker régiosélective.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Résumé Le premier article de la thèse se veut une revue systématique des données empiriques mettant en lumière les antécédents à la base de l’émergence du leadership narcissique dans les organisations, ses composantes psychologiques ainsi que ses incidences tant pour les organisations que pour leurs membres. Conséquemment, cette étude brosse initialement une recension détaillée des principaux facteurs idiosyncrasiques, culturels, environnementaux et structurels participant à la manifestation du leadership narcissique dans les organisations. Par la suite, elle en sonde la teneur en isolant l’existence de cinq composantes psychologiques, soit le charisme, l’influence intéressée, la motivation fallacieuse, l’inhibition intellectuelle et la considération simulée. Enfin, elle souligne les conséquences négatives de son actualisation dont les principales sont : la production de prises de décisions volatiles et risquées; la création d’un climat organisationnel toxique; la destruction de la confiance des subordonnés; la détérioration de l’efficacité organisationnelle; l’émergence d’une gestion dysfonctionnelle; et la manifestation de comportements non-éthiques. Le deuxième article s’avère une analyse comparative de deux types de leadership se révélant, de prime abord, trompeusement analogues. Ces deux types sont le leadership transformationnel et le leadership narcissique. Quoique se situant aux antipodes en matière de satisfaction de besoins (influence idéalisée versus influence intéressée), de promotion de visions (motivation inspirationnelle versus motivation fallacieuse), de réceptivité à la rétroaction d’autrui (stimulation intellectuelle versus inhibition intellectuelle) et de traitement des relations interpersonnelles (considération individualisée versus considération simulée), les leaderships transformationnel et narcissique partagent entre eux un élément commun : le charisme du leader. C’est précisément cette dernière caractéristique, conférant à son détenteur un puissant halo magnétisant, qui se révèle le creuset de la spéciosité du leadership narcissique opérant essentiellement lors des tout premiers contacts avec le leader. En fait, le charisme du leader narcissique sert en quelque sorte de fard, composé de charme et de fascination, masquant une décevante réalité psychologique et dont les propriétés captieuses s’étiolent rapidement. Le troisième article de la thèse est une étude conceptuelle examinant la structuration idiosyncrasique des criminels en col blanc ayant commis des fraudes financières se chiffrant à plusieurs dizaines de millions de dollars. Exploitant le croisement des deux dimensions fondamentales de l’agression, soit sa fonction (proactive ou réactive) et sa forme (directe ou indirecte), cette étude propose une taxonomie archétypique de différents types de psychopathie susceptible de mieux cerner la psychologie du criminel en col blanc d’envergure. L’agression est dite proactive lorsqu’elle est motivée par des impératifs de prédation indépendants de l’état émotionnel de l’individu. L’action de l’individu prédateur est intentionnelle et instrumentale. Elle vise l’atteinte d’objectifs préétablis avant l’actualisation de l’agression. Par contre, elle est considérée réactive lorsque la préservation de l’intégrité physique ou psychologique de l’individu est l’objet d’une menace émergeant de son environnement externe immédiat. Dans ce cas, la réaction agressive de l’individu est émotionnellement conditionnée. Par ailleurs, nonobstant la nature de sa fonction, l’agression peut s’exprimer directement ou indirectement. Elle est considérée directe lorsqu’elle a pour cible l’agressé en tant que tel. La forme physique d’agression peut être physique (sévices corporels) ou verbale (menaces et insultes). Par contre, lorsqu’elle emprunte des modes d’expression plus subtils, tels les rumeurs, l’humour malicieux et la tromperie, l’agression est dite indirecte. Le pairage des deux dimensions fondamentales de l’agression permet la construction d’un modèle d’analyse bidimensionnelle englobant quatre types de psychopathie, à savoir les psychopathies parasitique (préservation indirecte), colérique (préservation directe), cynégétique (prédation directe) et sympathique (prédation indirecte). C’est précisément cette dernière forme de psychopathie, le type sympathique caractérisé par un étaiement idiosyncrasique narcissico-machiavélique, qui traduit le mieux la psychologie des criminels en col blanc d’envergure. Enfin, le quatrième et dernier article de la présente thèse se propose d’explorer une problématique de recherche n’ayant reçu que très peu d’attention de la part des membres de la communauté scientifique, à savoir l’examen de l’adéquation d’un modèle dimensionnel du narcissisme pathologique inspiré du modèle développé par Roche, Pincus, Lukowitsky, Ménard et Conroy (2013). Au moyen d’une étude de cas exploratoire, il a été possible d’associer la vulnérabilité narcissique au segment décompensatoire (échec des stratégies inadaptées d’agrandissement de soi) du modèle théorique inspiré de celui de Roche et al. (2013) et ce, conformément à ses prescriptions. En effet, la comparaison des résultats de l’un des deux participants de l’étude, madame H, obtenus lors des deux saisies de données espacées d’un intervalle d’une année, indique une diminution de la vulnérabilité narcissique lors de la période de re-compensation. En outre, cette diminution est accompagnée de celle de la grandiosité narcissique. En somme, la relation positive entre les deux dimensions du narcissisme pathologique se révèle, sur un plan longitudinal, constante dans les deux segments – compensatoire (recours à des stratégies inadaptées d’agrandissement de soi) et décompensatoire – du modèle théorique inspiré de celui de Roche et al. (2013). Par ailleurs, les résultats obtenus auprès des deux participants à l’étude de cas, monsieur B et de madame H, s’avèrent éclairants eu égard à la prépondérance respective de chacune des dimensions (grandiosité et vulnérabilité) narcissiques en fonction des segments compensatoire et décompensatoire du modèle théorique inspiré de celui de Roche et al. (2013). Se trouvant en mode de compensation narcissique lors des deux saisies de données, monsieur B affiche une grandiosité narcissique supérieure à sa vulnérabilité narcissique. Cette constatation respecte en tous points les prescriptions théoriques du modèle. Quant à madame H, qu’elle soit en mode de compensation ou de décompensation narcissique (postulat non démontré eu égard aux prescriptions du modèle théorique utilisé), sa vulnérabilité narcissique demeure constamment plus élevée que sa grandiosité narcissique. Théoriquement, selon les prescriptions du modèle, la prépondérance devrait être observée chez la dimension « grandiosité narcissique » en période de compensation. De toute évidence, les données obtenues auprès de madame H s’écartent de ces prescriptions.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le système ubiquitine-protéasome est le principal mécanisme par lequel les protéines intracellulaires sont dégradées. Le protéasome dit constitutif (PC) est donc essentiel à l’homéostasie mais aussi à la régulation de la majorité des processus cellulaires importants. La découverte d’un deuxième type de protéasome, appelé immunoprotéasome (IP), soulève toutefois de nouvelles questions. Pourquoi existe-t-il plus d’un type de protéasome ? L’IP a-t-il des rôles redondants ou complémentaires avec le PC ? L’IP étant présent principalement dans les cellules immunitaires ou stimulées par des cytokines, plusieurs groupes ont tenté de définir son rôle dans la réponse immunitaire. Or, l’implication de son homologue constitutif dans un éventail de processus non spécifiquement immunitaires nous laisse croire que l’IP pourrait lui aussi avoir un impact beaucoup plus large. L’objectif de cette thèse était donc de caractériser certains rôles cellulaires de l’IP dans les cellules dendritiques. Nous avons d’abord étudié l’impact global de l’IP sur la présentation antigénique de classe I. Ce faisant, nous avons pu déterminer ses deux contributions principales, soit l’augmentation drastique du nombre et de la diversité des peptides présentés sur les complexes majeurs d’histocompatibilité de classe I. Les différences de clivage entre le PC et l’IP pourraient expliquer en partie cette diversité du répertoire peptidique, notamment par l’affinité apparente de l’IP pour les régions protéiques non structurées. Dans un deuxième temps, nous avons dévoilé un nouveau rôle de l’IP sur un processus dépassant le cadre immunitaire : la transcription. Nous avons découvert que l’IP modifie l’abondance des ARNm en agissant principalement au niveau de leur synthèse. L’impact de l’IP sur le transcriptome est majeur et serait dû en partie à une dégradation différente de facteurs de transcription des familles IRF, STAT et NF-kB. Les cellules dendritiques IP-déficientes activent moins efficacement les lymphocytes T CD8+ et nous croyons que cette défaillance est causée (du moins en partie) par la perturbation transcriptomique provoquée par l’absence d’IP. Il importe donc de comprendre les différents rôles moléculaires de l’IP afin de mieux définir sa contribution globale au fonctionnement de la cellule et comprendre l’avantage évolutif, au niveau de l’organisme, procuré par une telle plasticité du système ubiquitine-protéasome.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le clade Dialiinae représente l’une des premières lignées de la sous-famille Caesalpinioideae des Leguminosae. Il se compose de 17 genres (environ 90 espèces), avec des taxons qui sont répandus dans toutes les régions tropicales du monde. Morphologiquement, le groupe comprend un assemblage divers de taxons qui peut représenter une «phase expérimentale» dans l’évolution florale des légumineuses. Différents représentants du clade présentent de la poly-, mono-, et asymétrie, et semblent avoir subi un haut degré de perte d’organe, produisant, dans certains cas, des fleurs extrêmement réduites qui sont à peine reconnaissables comme appartenant à la famille des légumineuses. Afin d’obtenir une image plus claire de l’évolution florale du clade Dialiinae, une phylogénie bien résolue et bien soutenue est nécessaire. Dans le but de créer une telle phylogénie, un total de 37 échantillons d’ADN des Dialiinae a été séquencé pour deux régions chloroplastiques, soit rps16 et trnL. De plus, une étude morphologique complète a été réalisée. Un total de 135 caractères végétatifs et reproductifs a été évalué pour 79 espèces de Dialiinae et pour quatre groupes externes. Les analyses phylogénétiques ont d’abord été effectuées sur un groupe restreint de taxons pour lesquels les trois types de données étaient disponibles. Les nœuds fortement soutenus de cette phylogénie ont ensuite été utilisés comme contrainte pour une seconde analyse de parcimonie avec les données morphologiques d’un ensemble plus important de taxons. Les caractères morphologiques ont été optimisés sur l’un des arbres les plus parcimonieux de cette seconde analyse. Un certain nombre de nouvelles relations au niveau de l’espèce ont été résolues, créant une image plus claire quant à l’évolution de la forme florale dans le temps, particulièrement pour les genres Labichea et Dialium. En plus de leur morphologie florale mature diverse, les Dialiinae sont également très variables dans leur ontogénèse florale, affichant à la fois la perte et la suppression des organes, et présentant une variété de modes d’initiation d’organes. Afin de construire une image plus complète du développement floral et de l’évolution dans ce clade, l’ontogénèse florale de plusieurs espèces non documentées à ce jour a été étudiée. La série complète du développement a été compilée pour six espèces de Dialiinae; quatre de Dialium, ainsi que Poeppigia procera et Mendoravia dumaziana. Le mode et le moment de l’initiation des organes étaient pour la plupart uniforme pour toutes les espèces de Dialium étudiés. Tant pour ce qui est des gains ou des pertes d’organes chez Dialium, une tendance est apparente – l’absence d’organe abaxial. Que ce soit pour les sépales ou les étamines, les gains se produisent toujours en position médiane adaxiale, tandis que les étamines et les pétales perdus sont toujours les organes les plus ventraux. Les taxons étudiés ici illustrent le manque apparent de canalisation du développement observé chez les Caesalpinioideae. Cette plasticité ontogénétique est le reflet de la diversité morphologique au niveau des fleurs tel qu’observée dans l’ensemble de la sous-famille. Une des espèces de Dialiinae, Apuleia leiocarpa, produit une inflorescence andromonoïque, une caractéristique qui est unique en son clade et rare dans les légumineuses dans son ensemble. La microscopie optique et électronique ont été utilisées pour entreprendre une étude détaillée de la morphologie florale de ce taxon. On a constaté que tandis que les fleurs hermaphrodites produisent un seul carpelle et deux étamines, les fleurs staminées produisent trois étamines sans toutefois montrer signe de développement du carpelle. Les inflorescences semblent produire près de quatre fois plus de fleurs staminées que de fleurs hermaphrodites, lesquelles occupent toujours la position centrale de l’inflorescence cymeuse. Ce ratio élevé mâle/bisexuel et la détermination précoce du sexe chez Apuleia sont rares chez les Caesalpinioideae, ce qui suggère que l’andromonoecie se développe dans ce genre comme un moyen d’accroître la dispersion du pollen plutôt qu’en réponse à des limitations de ressources.