983 resultados para answer set programming
Resumo:
Thèse réalisée en cotutelle avec l'Institut d’études politiques d'Aix-en-Provence, École doctorale de Sciences Po, Programme doctoral en sciences de l’information et de la communication
Resumo:
En raison des présentes transformations du marché du travail, le mouvement syndical est à la recherche d’un nouvel équilibre. Dans ce contexte plutôt changeant, réorganisations et flexibilité se négocient en échange d’une protection accrue pour ceux qui demeurent en emploi. Si d’une part, ceci mène à une prolifération de nouvelles formes d’emploi atypiques et de disparités de traitement, d’autre part la constitutionnalisation du droit du travail change le rapport quant à l’universalisme syndical. Nous nous sommes alors interrogée sur les impacts que cela peut avoir sur le devoir syndical de représentation. Prenant cela en considération, nous avons voulu au cours de notre recherche faire la lumière tant sur certains impacts de la négociation de clauses de disparité de traitement dans les milieux de travail syndiqués que sur les défis contemporains du droit du travail et de l’emploi. Cette thèse propre au champ d’études que sont les relations industrielles se distingue des autres recherches dans le même domaine en se concentrant sur l’effet empirique de la mise en œuvre d’une norme, par l’étude de deux cas suggestifs. Plus précisément, notre thèse avait comme principal objectif de répondre à la question suivante : Quels sont les effets sur l’acteur (action) syndical du recours à la norme d’égalité, à la suite la négociation de clauses « orphelin »? Pour y parvenir, nous avons dû reconstituer comment les acteurs syndicaux s’étaient approprié l’espace ouvert par la constitutionnalisation du droit du travail. Nous avons utilisé une méthode qualitative, impliquant une revue de la littérature sociohistorique, théorique et juridique, une analyse de la jurisprudence existant à ce sujet et l’étude de deux cas portant sur la négociation d’une clause « orphelin » le tout représentant soixante entrevues semi-dirigées dans plusieurs casernes et palais de justice. Les connaissances acquises permettent au plan empirique une meilleure compréhension des interactions possibles entre acteurs, institutions et stratégies lors de la mise en œuvre de la norme d’égalité ainsi que des déterminants de l’action (ou de l’inaction) syndicale. Sur le plan pratique, nous espérons que notre thèse puisse guider toute personne ou tout groupe de personnes désirant mettre en œuvre des mesures égalitaires, tant pour éviter certains écueils reliés à ces actions ou réactions suscitées par la mise en œuvre du droit à l’égalité, que pour mesurer l’efficacité des actions entreprises. De surcroît, sur le plan théorique, nous croyons que de mettre à l’épreuve un modèle théorique recoupant stratégies et institutions permettra d’aborder les problèmes à la fois au niveau de l’acteur et au niveau structurel. Les résultats obtenus aident à comprendre en quoi et comment peut se construire l’action syndicale dans certains (2) cas de mise en œuvre de la norme d’égalité. Le choix de différentes stratégies ne peut pas être dissocié des différents contextes économiques, sociaux et juridiques, ni des capacités stratégiques des différents acteurs en cause. Les principales contraintes identifiées ont pu être imputées tant aux structures de l’association syndicale qu’aux différents univers normatifs mobilisés. Les sources de tensions vécues dans les milieux à l’étude ont été rattachées notamment aux perceptions d’injustice et à la méconnaissance des différentes normes juridiques. En conséquence, il faut conclure que pour les associations syndicales (sans se restreindre à celles à l’étude), la question d’iniquité pourrait avoir de graves conséquences et non seulement sur le devoir de représentation. Nous avons spécialement souligné la fragilisation de leurs assises, dans leurs deux pôles d’actions : d’acteur économique (faille dans la capacité d’action traditionnelle) et d’acteur politique (climat hostile au syndicalisme). Nous souhaitons que l’acteur syndical puisse mobiliser, à la lumière des résultats de notre recherche, des arguments concourant à repenser l’action syndicale, que nous croyons être plus pertinente que jamais. Nous croyons également que les différents acteurs du monde du travail pourraient s’approprier certaines de nos recommandations afin de favoriser une citoyenneté au travail plus inclusive.
Resumo:
Les décisions de localisation sont souvent soumises à des aspects dynamiques comme des changements dans la demande des clients. Pour y répondre, la solution consiste à considérer une flexibilité accrue concernant l’emplacement et la capacité des installations. Même lorsque la demande est prévisible, trouver le planning optimal pour le déploiement et l'ajustement dynamique des capacités reste un défi. Dans cette thèse, nous nous concentrons sur des problèmes de localisation avec périodes multiples, et permettant l'ajustement dynamique des capacités, en particulier ceux avec des structures de coûts complexes. Nous étudions ces problèmes sous différents points de vue de recherche opérationnelle, en présentant et en comparant plusieurs modèles de programmation linéaire en nombres entiers (PLNE), l'évaluation de leur utilisation dans la pratique et en développant des algorithmes de résolution efficaces. Cette thèse est divisée en quatre parties. Tout d’abord, nous présentons le contexte industriel à l’origine de nos travaux: une compagnie forestière qui a besoin de localiser des campements pour accueillir les travailleurs forestiers. Nous présentons un modèle PLNE permettant la construction de nouveaux campements, l’extension, le déplacement et la fermeture temporaire partielle des campements existants. Ce modèle utilise des contraintes de capacité particulières, ainsi qu’une structure de coût à économie d’échelle sur plusieurs niveaux. L'utilité du modèle est évaluée par deux études de cas. La deuxième partie introduit le problème dynamique de localisation avec des capacités modulaires généralisées. Le modèle généralise plusieurs problèmes dynamiques de localisation et fournit de meilleures bornes de la relaxation linéaire que leurs formulations spécialisées. Le modèle peut résoudre des problèmes de localisation où les coûts pour les changements de capacité sont définis pour toutes les paires de niveaux de capacité, comme c'est le cas dans le problème industriel mentionnée ci-dessus. Il est appliqué à trois cas particuliers: l'expansion et la réduction des capacités, la fermeture temporaire des installations, et la combinaison des deux. Nous démontrons des relations de dominance entre notre formulation et les modèles existants pour les cas particuliers. Des expériences de calcul sur un grand nombre d’instances générées aléatoirement jusqu’à 100 installations et 1000 clients, montrent que notre modèle peut obtenir des solutions optimales plus rapidement que les formulations spécialisées existantes. Compte tenu de la complexité des modèles précédents pour les grandes instances, la troisième partie de la thèse propose des heuristiques lagrangiennes. Basées sur les méthodes du sous-gradient et des faisceaux, elles trouvent des solutions de bonne qualité même pour les instances de grande taille comportant jusqu’à 250 installations et 1000 clients. Nous améliorons ensuite la qualité de la solution obtenue en résolvent un modèle PLNE restreint qui tire parti des informations recueillies lors de la résolution du dual lagrangien. Les résultats des calculs montrent que les heuristiques donnent rapidement des solutions de bonne qualité, même pour les instances où les solveurs génériques ne trouvent pas de solutions réalisables. Finalement, nous adaptons les heuristiques précédentes pour résoudre le problème industriel. Deux relaxations différentes sont proposées et comparées. Des extensions des concepts précédents sont présentées afin d'assurer une résolution fiable en un temps raisonnable.
Resumo:
Dans ce mémoire, nous abordons le problème de l’ensemble dominant connexe de cardinalité minimale. Nous nous penchons, en particulier, sur le développement de méthodes pour sa résolution basées sur la programmation par contraintes et la programmation en nombres entiers. Nous présentons, en l’occurrence, une heuristique et quelques méthodes exactes pouvant être utilisées comme heuristiques si on limite leur temps d’exécution. Nous décrivons notamment un algorithme basé sur l’approche de décomposition de Benders, un autre combinant cette dernière avec une stratégie d’investigation itérative, une variante de celle-ci utilisant la programmation par contraintes, et enfin une méthode utilisant uniquement la programmation par contraintes. Des résultats expérimentaux montrent que ces méthodes sont efficaces puisqu’elles améliorent les méthodes connues dans la littérature. En particulier, la méthode de décomposition de Benders avec une stratégie d’investigation itérative fournit les résultats les plus performants.
Resumo:
Nous soutenons dans ce mémoire qu'il existe, en français québécois, deux sous-types de constructions exclamatives. Située dans un cadre théorique qui participe à la fois de la philosophie du langage (la théorie des actes de langage, Austin, 1962; Searle 1969, Searle, 1979; Searle et Vanderveken 1985) et de la linguistique (la théorie des types de phrase, Sadock et Zwicky, 1985; Reis, 1999), notre analyse porte sur un ensemble de constructions exclamatives en apparence synonymes qui impliquent respectivement les morphèmes -tu, donc et assez (1). (1) Elle est-tu/donc/assez belle! Nous démontrons que si ces exclamatives satisfont aux critères d'identification des constructions exclamatives donnés par Zanuttini et Portner (2003) (factivité, évaluativité/implicature scalaire, expressivité/orientation vers le locuteur et incompatibilité avec les paires de question/réponse), les actes de langage exclamatifs servis par les exclamatives en -tu/donc n'ont pas les mêmes conditions de félicité que les actes de langage exclamatifs servis par les exclamatives en assez. En effet, les exclamatives en -tu/donc imposent une contrainte sur leur contexte d'énonciation par rapport à la position épistémique de l'interlocuteur, lequel doit être en mesure de corroborer le jugement exprimé par le locuteur au moyen de l'exclamative. Les exclamatives en assez n'imposent pas de telle contrainte. Nous démontrons que cette distinction pragmatique peut être corrélée avec des distinctions sémantiques et syntaxiques et concluons qu'il existe bien deux sous-types de constructions exclamatives en français québécois. En ce sens, notre recherche ouvre de nouvelles perspectives empiriques et théoriques pour la description et l'analyse de la grammaire des actes de langage exclamatifs.
Resumo:
La présente thèse avait pour mandat d’examiner la question suivante : quels sont les indices visuels utilisés pour catégoriser le sexe d’un visage et comment sont-ils traités par le cerveau humain? La plupart des études examinant l’importance de certaines régions faciales pour la catégorisation du sexe des visages présentaient des limites quant à leur validité externe. L’article 1 visait à investiguer l’utilisation des indices achromatiques et chromatiques (sur l’axe xy) dans un contexte de plus grande validité externe. Pour ce faire, nous avons utilisé la technique Bubbles afin d’échantillonner l’espace xy de visages en couleurs n’ayant subi aucune transformation. Afin d’éviter les problèmes liés à la grande répétition des mêmes visages, nous avons utilisé un grand nombre de visages (c.-à-d. 300 visages caucasiens d’hommes et de femmes) et chaque visage n’a été présenté qu’une seule fois à chacun des 30 participants. Les résultats indiquent que la région des yeux et des sourcils—probablement dans le canal blanc-noir—est l’indice le plus important pour discriminer correctement le genre des visages; et que la région de la bouche—probablement dans le canal rouge-vert—est l’indice le plus important pour discriminer rapidement et correctement le genre des visages. Plusieurs études suggèrent qu’un indice facial que nous n’avons pas étudié dans l’article 1—les distances interattributs—est crucial à la catégorisation du sexe. L’étude de Taschereau et al. (2010) présente toutefois des données allant à l’encontre de cette hypothèse : les performances d’identification des visages étaient beaucoup plus faibles lorsque seules les distances interattributs réalistes étaient disponibles que lorsque toutes les autres informations faciales à l’exception des distances interattributs réalistes étaient disponibles. Quoi qu’il en soit, il est possible que la faible performance observée dans la condition où seules les distances interattributs étaient disponibles soit explicable non par une incapacité d’utiliser ces indices efficacement, mais plutôt par le peu d’information contenue dans ces indices. L’article 2 avait donc comme objectif principal d’évaluer l’efficacité—une mesure de performance qui compense pour la faiblesse de l’information disponible—des distances interattributs réalistes pour la catégorisation du sexe des visages chez 60 participants. Afin de maximiser la validité externe, les distances interattributs manipulées respectaient la distribution et la matrice de covariance observées dans un large échantillon de visages (N=515). Les résultats indiquent que les efficacités associées aux visages ne possédant que de l’information au niveau des distances interattributs sont un ordre de magnitude plus faibles que celles associées aux visages possédant toute l’information que possèdent normalement les visages sauf les distances interattributs et donnent le coup de grâce à l’hypothèse selon laquelle les distances interattributs seraient cuciale à la discrimination du sexe des visages. L’article 3 avait pour objectif principal de tester l’hypothèse formulée à la fin de l’article 1 suivant laquelle l’information chromatique dans la région de la bouche serait extraite très rapidement par le système visuel lors de la discrimination du sexe. Cent douze participants ont chacun complété 900 essais d’une tâche de discrimination du genre pendant laquelle l’information achromatique et chromatique des visages était échantillonnée spatiotemporellement avec la technique Bubbles. Les résultats d’une analyse présentée en Discussion seulement confirme l’utilisation rapide de l’information chromatique dans la région de la bouche. De plus, l’utilisation d’un échantillonnage spatiotemporel nous a permis de faire des analyses temps-fréquences desquelles a découlé une découverte intéressante quant aux mécanismes d’encodage des informations spatiales dans le temps. Il semblerait que l’information achromatique et chromatique à l’intérieur d’une même région faciale est échantillonnée à la même fréquence par le cerveau alors que les différentes parties du visage sont échantillonnées à des fréquences différentes (entre 6 et 10 Hz). Ce code fréquentiel est compatible avec certaines évidences électrophysiologiques récentes qui suggèrent que les parties de visages sont « multiplexées » par la fréquence d’oscillations transitoires synchronisées dans le cerveau.
Resumo:
La première partie du présent mémoire est un court roman nommé Ophélie. C’est dans un esprit fantastique qu’on s’immisce dans la vie d’une femme solitaire, l’héroïne, qui vit une existence anonyme à travers la lecture et son emploi en bibliothèque. Sa routine sera rapidement remise en question suite à l’avènement de phénomènes qu’elle ne peut s’expliquer. Bataillée entre son esprit rationnel et l’acceptation d’une redéfinition des règles du monde tel qu’elle le connaît, elle se lance à la poursuite de la seule personne qui pourra enfin répondre à ses questions, cet homme mystérieux qui réapparaît constamment dans les circonstances les plus insolites de son existence. Ophélie est à la fois une réflexion sur la littérature et sa capacité de s’infiltrer dans notre imaginaire tout comme une remise en question de notre réalité à travers la solitude indéfectible de l’être humain et les perceptions individuelles. La deuxième partie, l’essai Solitude, folie et réinventions de la réalité dans la littérature fantastique, se penche sur la représentation de la solitude dans la littérature fantastique en analysant les effets de celle-ci sur les protagonistes. On met de l’avant le rôle que joue l’isolement d’un personnage dans le développement d’un récit fantastique avec deux romans contemporains soit Querelle d’un squelette avec son double de Ying Chen et La Secte des Égoïstes d’Éric-Emmanuel Schmitt, mais également avec deux nouvelles du XIXe siècle : Le Horla de Guy de Maupassant et Vera de Villiers de L’Isle-Adam. On tentera de comprendre comment le fantastique joue avec la solitude pour la transformer et ainsi en faire une condition à l’apparition de phénomènes surnaturels. Le fantastique en tant que métaphore de la folie ou du délire fonctionne, dans les récits étudiés, comme un mécanisme de défense contre les ravages de la solitude.
Resumo:
Bien que le passage du temps altère le cerveau, la cognition ne suit pas nécessairement le même destin. En effet, il existe des mécanismes compensatoires qui permettent de préserver la cognition (réserve cognitive) malgré le vieillissement. Les personnes âgées peuvent utiliser de nouveaux circuits neuronaux (compensation neuronale) ou des circuits existants moins susceptibles aux effets du vieillissement (réserve neuronale) pour maintenir un haut niveau de performance cognitive. Toutefois, la façon dont ces mécanismes affectent l’activité corticale et striatale lors de tâches impliquant des changements de règles (set-shifting) et durant le traitement sémantique et phonologique n’a pas été extensivement explorée. Le but de cette thèse est d’explorer comment le vieillissement affecte les patrons d’activité cérébrale dans les processus exécutifs d’une part et dans l’utilisation de règles lexicales d’autre part. Pour cela nous avons utilisé l’imagerie par résonance magnétique fonctionnelle (IRMf) lors de la performance d’une tâche lexicale analogue à celle du Wisconsin. Cette tâche a été fortement liée à de l’activité fronto-stritale lors des changements de règles, ainsi qu’à la mobilisation de régions associées au traitement sémantique et phonologique lors de décisions sémantiques et phonologiques, respectivement. Par conséquent, nous avons comparé l’activité cérébrale de jeunes individus (18 à 35 ans) à celle d’individus âgés (55 à 75 ans) lors de l’exécution de cette tâche. Les deux groupes ont montré l’implication de boucles fronto-striatales associées à la planification et à l’exécution de changements de règle. Toutefois, alors que les jeunes semblaient activer une « boucle cognitive » (cortex préfrontal ventrolatéral, noyau caudé et thalamus) lorsqu’ils se voyaient indiquer qu’un changement de règle était requis, et une « boucle motrice » (cortex postérieur préfrontal et putamen) lorsqu’ils devaient effectuer le changement, les participants âgés montraient une activation des deux boucles lors de l’exécution des changements de règle seulement. Les jeunes adultes tendaient à présenter une augmentation de l’activité du cortex préfrontal ventrolatéral, du gyrus fusiforme, du lobe ventral temporale et du noyau caudé lors des décisions sémantiques, ainsi que de l’activité au niveau de l’aire de Broca postérieur, de la junction temporopariétale et du cortex moteur lors de décisions phonologiques. Les participants âgés ont montré de l’activité au niveau du cortex préfrontal latéral et moteur durant les deux types de décisions lexicales. De plus, lorsque les décisions sémantiques et phonologiques ont été comparées entre elles, les jeunes ont montré des différences significatives au niveau de plusieurs régions cérébrales, mais pas les âgés. En conclusion, notre première étude a montré, lors du set-shifting, un délai de l’activité cérébrale chez les personnes âgées. Cela nous a permis de conceptualiser l’Hypothèse Temporelle de Compensation (troisième manuscrit) qui consiste en l’existence d’un mécanisme compensatoire caractérisé par un délai d’activité cérébrale lié au vieillissement permettant de préserver la cognition au détriment de la vitesse d’exécution. En ce qui concerne les processus langagiers (deuxième étude), les circuits sémantiques et phonologiques semblent se fusionner dans un seul circuit chez les individus âgés, cela représente vraisemblablement des mécanismes de réserve et de compensation neuronales qui permettent de préserver les habilités langagières.
Resumo:
En la actualidad, el uso de las tecnologías ha sido primordial para el avance de las sociedades, estas han permitido que personas sin conocimientos informáticos o usuarios llamados “no expertos” se interesen en su uso, razón por la cual los investigadores científicos se han visto en la necesidad de producir estudios que permitan la adaptación de sistemas, a la problemática existente dentro del ámbito informático. Una necesidad recurrente de todo usuario de un sistema es la gestión de la información, la cual se puede administrar por medio de una base de datos y lenguaje específico, como lo es el SQL (Structured Query Language), pero esto obliga al usuario sin conocimientos a acudir a un especialista para su diseño y construcción, lo cual se ve reflejado en costos y métodos complejos, entonces se plantea una pregunta ¿qué hacer cuando los proyectos son pequeñas y los recursos y procesos son limitados? Teniendo como base la investigación realizada por la universidad de Washington[39], donde sintetizan sentencias SQL a partir de ejemplos de entrada y salida, se pretende con esta memoria automatizar el proceso y aplicar una técnica diferente de aprendizaje, para lo cual utiliza una aproximación evolucionista, donde la aplicación de un algoritmo genético adaptado origina sentencias SQL válidas que responden a las condiciones establecidas por los ejemplos de entrada y salida dados por el usuario. Se obtuvo como resultado de la aproximación, una herramienta denominada EvoSQL que fue validada en este estudio. Sobre los 28 ejercicios empleados por la investigación [39], 23 de los cuales se obtuvieron resultados perfectos y 5 ejercicios sin éxito, esto representa un 82.1% de efectividad. Esta efectividad es superior en un 10.7% al establecido por la herramienta desarrollada en [39] SQLSynthesizer y 75% más alto que la herramienta siguiente más próxima Query by Output QBO[31]. El promedio obtenido en la ejecución de cada ejercicio fue de 3 minutos y 11 segundos, este tiempo es superior al establecido por SQLSynthesizer; sin embargo, en la medida un algoritmo genético supone la existencia de fases que amplían los rangos de tiempos, por lo cual el tiempo obtenido es aceptable con relación a las aplicaciones de este tipo. En conclusión y según lo anteriormente expuesto, se obtuvo una herramienta automática con una aproximación evolucionista, con buenos resultados y un proceso simple para el usuario “no experto”.
Resumo:
Le problème de la direction du temps est un problème classique autant en physique qu’en philosophie. Quoiqu’il existe plusieurs façons de s’interroger sur ce problème, l’approche thermodynamique est la plus fréquemment utilisée. Cette approche consiste à considérer la flèche du temps thermodynamique comme la flèche fondamentale de laquelle les autres flèches ne sont que des manifestations. Ce mémoire vise à fournir une analyse philosophique de cette approche. Pour ce faire, nous esquisserons la problématique générale, nous exposerons les différentes approches et théories alternatives visant à résoudre ce problème et nous présenterons la thèse forte soutenant l’approche thermodynamique. Ensuite, nous évaluerons la pertinence du recours à la mécanique statistique et à la cosmologie visant à remédier aux déficiences de cette même approche. Enfin, nous analyserons en quoi cette approche, et plus particulièrement la notion d’entropie, est en mesure de fournir un cadre conceptuel pour la résolution du problème de la flèche du temps.
Resumo:
Le problème d'allocation de postes d'amarrage (PAPA) est l'un des principaux problèmes de décision aux terminaux portuaires qui a été largement étudié. Dans des recherches antérieures, le PAPA a été reformulé comme étant un problème de partitionnement généralisé (PPG) et résolu en utilisant un solveur standard. Les affectations (colonnes) ont été générées a priori de manière statique et fournies comme entrée au modèle %d'optimisation. Cette méthode est capable de fournir une solution optimale au problème pour des instances de tailles moyennes. Cependant, son inconvénient principal est l'explosion du nombre d'affectations avec l'augmentation de la taille du problème, qui fait en sorte que le solveur d'optimisation se trouve à court de mémoire. Dans ce mémoire, nous nous intéressons aux limites de la reformulation PPG. Nous présentons un cadre de génération de colonnes où les affectations sont générées de manière dynamique pour résoudre les grandes instances du PAPA. Nous proposons un algorithme de génération de colonnes qui peut être facilement adapté pour résoudre toutes les variantes du PAPA en se basant sur différents attributs spatiaux et temporels. Nous avons testé notre méthode sur un modèle d'allocation dans lequel les postes d'amarrage sont considérés discrets, l'arrivée des navires est dynamique et finalement les temps de manutention dépendent des postes d'amarrage où les bateaux vont être amarrés. Les résultats expérimentaux des tests sur un ensemble d'instances artificielles indiquent que la méthode proposée permet de fournir une solution optimale ou proche de l'optimalité même pour des problème de très grandes tailles en seulement quelques minutes.
Resumo:
Les introns sont des portions de gènes transcrites dans l’ARN messager, mais retirées pendant l’épissage avant la synthèse des produits du gène. Chez les eucaryotes, on rencontre les introns splicéosomaux, qui sont retirés de l’ARN messager par des splicéosomes. Les introns permettent plusieurs processus importants, tels que l'épissage alternatif, la dégradation des ARNs messagers non-sens, et l'encodage d'ARNs fonctionnels. Leurs rôles nous interrogent sur l'influence de la sélection naturelle sur leur évolution. Nous nous intéressons aux mutations qui peuvent modifier les produits d'un gène en changeant les sites d'épissage des introns. Ces mutations peuvent influencer le fonctionnement d'un organisme, et constituent donc un sujet d'étude intéressant, mais il n'existe actuellement pas de logiciels permettant de les étudier convenablement. Le but de notre projet était donc de concevoir une méthode pour détecter et analyser les changements des sites d'épissage des introns splicéosomaux. Nous avons finalement développé une méthode qui repère les évènements évolutifs qui affectent les introns splicéosomaux dans un jeu d'espèces données. La méthode a été exécutée sur un ensemble d'espèces d'oomycètes. Plusieurs évènements détectés ont changé les sites d’épissage et les protéines, mais de nombreux évènements trouvés ont modifié les introns sans affecter les produits des gènes. Il manque à notre méthode une étape finale d'analyse approfondie des données récoltées. Cependant, la méthode actuelle est facilement reproductible et automatise l'analyse des génomes pour la détection des évènements. Les fichiers produits peuvent ensuite être analysés dans chaque étude pour répondre à des questions spécifiques.
Resumo:
Les produits biologiques représentent une avenue thérapeutique très prometteuse pour diverses maladies actuellement sans traitement, dont le cancer. La demande pour ces produits est donc très forte et des bioprocédés industriels efficaces et fiables doivent être mis en place pour y répondre. Le système inductible au cumate (CR5) développé par le groupe de Bernard Massie permet d’exprimer des protéines d’intérêt de façon finement régulable et à haut niveau dans les cellules CHO. Un travail d’optimisation est toutefois nécessaire afin de maximiser l’expression tout en améliorant l’étanchéité du système. Dans cette optique, diverses constructions du promoteur comportant des configurations différentes d’espacement entre ses constituants, des transactivateurs comportant des domaines d’activation différents, et une séquence opératrice synthétique ont été testées pour évaluer leur capacité à améliorer le rendement et l’étanchéité du CR5. Ainsi, un protomoteur comportant trois séquences opératrices avec six paires de bases entre chacune de ces dernières s’est montré plus efficace en termes de rendement et d’étanchéité que la configuration actuelle du CR5. De plus, une nouvelle configuration du CR5 où le transactivateur est régulé par le système inductible à la coumermycine a été étudiée et a montré une régulation très fine. Le travail d’optimisation effectué dans ce projet s’applique seulement dans le but d’optimiser un procédé dans des conditions spécifiques. Son application à d’autres lignées cellulaires et d’autres promoteurs reste à démontrer.
Resumo:
The main objective of this letter is to formulate a new approach of learning a Mahalanobis distance metric for nearest neighbor regression from a training sample set. We propose a modified version of the large margin nearest neighbor metric learning method to deal with regression problems. As an application, the prediction of post-operative trunk 3-D shapes in scoliosis surgery using nearest neighbor regression is described. Accuracy of the proposed method is quantitatively evaluated through experiments on real medical data.
Resumo:
In order to explain Wittgenstein’s account of the reality of completed infinity in mathematics, a brief overview of Cantor’s initial injection of the idea into set- theory, its trajectory (including the Diagonal Argument, the Continuum Hypothesis and Cantor’s Theorem) and the philosophic implications he attributed to it will be presented. Subsequently, we will first expound Wittgenstein’s grammatical critique of the use of the term ‘infinity’ in common parlance and its conversion into a notion of an actually existing (completed) infinite ‘set’. Secondly, we will delve into Wittgenstein’s technical critique of the concept of ‘denumerability’ as it is presented in set theory as well as his philosophic refutation of Cantor’s Diagonal Argument and the implications of such a refutation onto the problems of the Continuum Hypothesis and Cantor’s Theorem. Throughout, the discussion will be placed within the historical and philosophical framework of the Grundlagenkrise der Mathematik and Hilbert’s problems.