19 resultados para Spaces of Generalized Functions
em Université de Montréal, Canada
Resumo:
The rationalizability of a choice function by means of a transitive relation has been analyzed thoroughly in the literature. However, not much seems to be known when transitivity is weakened to quasi-transitivity or acyclicity. We describe the logical relationships between the different notions of rationalizability involving, for example, the transitivity, quasi-transitivity, or acyclicity of the rationalizing relation. Furthermore, we discuss sufficient conditions and necessary conditions for rational choice on arbitrary domains. Transitive, quasi-transitive, and acyclical rationalizability are fully characterized for domains that contain all singletons and all two-element subsets of the universal set.
Resumo:
Plusieurs familles de fonctions spéciales de plusieurs variables, appelées fonctions d'orbites, sont définies dans le contexte des groupes de Weyl de groupes de Lie simples compacts/d'algèbres de Lie simples. Ces fonctions sont étudiées depuis près d'un siècle en raison de leur lien avec les caractères des représentations irréductibles des algèbres de Lie simples, mais également de par leurs symétries et orthogonalités. Nous sommes principalement intéressés par la description des relations d'orthogonalité discrète et des transformations discrètes correspondantes, transformations qui permettent l'utilisation des fonctions d'orbites dans le traitement de données multidimensionnelles. Cette description est donnée pour les groupes de Weyl dont les racines ont deux longueurs différentes, en particulier pour les groupes de rang $2$ dans le cas des fonctions d'orbites du type $E$ et pour les groupes de rang $3$ dans le cas de toutes les autres fonctions d'orbites.
Resumo:
L’implication des protéines tyrosines phosphatases (PTPs) dans la régulation de la signalisation et la médiation des fonctions cellulaires a été bien établie dans les dernières années. Cependant, les mécanismes moléculaires par lesquels les PTPs régulent les processus fondamentaux tels que l’angiogenèse demeurent méconnus. Il a été rapporté que l’expression de la PTP DEP-1 (Density-enhanced phosphatase 1) augmente avec la densité cellulaire et corrèle avec la déphosphorylation du récepteur VEGFR2. Cette déphosphorylation contribue à l’inhibition de contact dans les cellules endothéliales à confluence et diminue l’activité du VEGFR2 en déphosphorylant spécifiquement ses résidus catalytiques Y1054/1059. De plus, la plupart des voies de signalisation en aval du VEGFR2 sont diminuées sauf la voie Src-Gab1-AKT. DEP-1 déphosphoryle la Y529 de Src et contribue à la promotion de la survie dans les cellules endothéliales. L’objectif de cette thèse est de mieux définir le rôle de DEP-1 dans la régulation de l’activité de Src et les réponses biologiques dans les cellules endothéliales. Nous avons identifié les résidus Y1311 et Y1320 dans la queue C-terminale de DEP-1 comme sites majeurs de phosphorylation en réponse au VEGF. La phosphorylation de ces résidus est requise pour l’activation de Src et médie le remodelage des jonctions cellules-cellules dépendantes de Src. Ce remodelage induit la perméabilité, l’invasion et la formation de capillaires en réponse au VEGF. Nos résultats démontrent que la phosphorylation de DEP-1 sur résidu tyrosine est requise pour diriger la spécificité de DEP-1 vers son substrat Src. Les travaux révèlent pour la première fois un rôle positif de DEP-1 sur l’induction du programme angiogénique des cellules endothéliales. En plus de la phosphorylation sur tyrosine, DEP-1 est constitutivement phosphorylé sur la thréonine 1318 situé à proximité de la Y1320 en C-terminal. Cette localisation de la T1318 suggère que ce résidu pourrait être impliqué dans la régulation de la Y1320. En effet, nous avons observé que la T1318 de DEP-1 est phosphorylée potentiellement par CK2, et que cette phosphorylation régule la phosphorylation de DEP-1 sur tyrosine et sa capacité de lier et d’activer Src. En accord avec ces résultats, nos travaux révèlent que la surexpression du mutant DEP-1 T1318A diminue le remodelage des jonctions cellules-cellules et par conséquent la perméabilité. Nos résultats suggèrent donc que la T1318 de DEP-1 constitue un nouveau mécanisme de contrôle de la phosphorylation sur tyrosine et que ceci résulte en l’activation de Src et l’induction des fonctions biologiques des cellules endothéliales en réponse au VEGF. Suite à ces travaux dans les cellules endothéliales qui démontrent un rôle positif de DEP-1 dans la médiation des réponses angiogéniques, nous avons voulu approfondir nos connaissances sur l’implication potentielle de DEP-1 dans les cellules cancéreuses où l’activité de Src est requise pour la progression tumorale. Malgré le rôle connu de DEP-1 comme suppresseur tumoral dans différents types de cancer, nous avons émis l’hypothèse que DEP-1 pourrait promouvoir les fonctions biologiques dépendantes de Src telles que la migration et l’invasion dans les cellules cancéreuses. Ainsi, nous avons observé que l’expression de DEP-1 est plus élevée dans les lignées basales de cancer du sein qui sont plus invasives comparativement aux lignées luminales peu invasives. Dans les lignées basales, DEP-1 active Src, médie la motilité cellulaire dépendante de Src et régule la localisation des protéines impliquées dans l’organisation du cytosquelette. L’analyse d’un micro-étalage de tissu a révélé que l’expression de DEP-1 est associée avec une réduction tendencielle de survie des patients. Nos résultats proposent donc, un rôle de promoteur tumoral pour DEP-1 dans la progression du cancer du sein. Les travaux présentés dans cette thèse démontrent pour la première fois que DEP-1 peut agir comme promoteur des réponses angiogéniques et du phénotype pro-invasif des lignées basales du cancer du sein probablement du à sa capacité d’activer Src. Nos résultats suggèrent ainsi que l’expression de DEP-1 pourrait contribuer à la progression tumorale et la formation de métastases. Ces découvertes laissent donc entrevoir que DEP-1 représente une nouvelle cible thérapeutique potentielle pour contrer l’angiogenèse et le développement du cancer.
Resumo:
La compréhension de processus biologiques complexes requiert des approches expérimentales et informatiques sophistiquées. Les récents progrès dans le domaine des stratégies génomiques fonctionnelles mettent dorénavant à notre disposition de puissants outils de collecte de données sur l’interconnectivité des gènes, des protéines et des petites molécules, dans le but d’étudier les principes organisationnels de leurs réseaux cellulaires. L’intégration de ces connaissances au sein d’un cadre de référence en biologie systémique permettrait la prédiction de nouvelles fonctions de gènes qui demeurent non caractérisées à ce jour. Afin de réaliser de telles prédictions à l’échelle génomique chez la levure Saccharomyces cerevisiae, nous avons développé une stratégie innovatrice qui combine le criblage interactomique à haut débit des interactions protéines-protéines, la prédiction de la fonction des gènes in silico ainsi que la validation de ces prédictions avec la lipidomique à haut débit. D’abord, nous avons exécuté un dépistage à grande échelle des interactions protéines-protéines à l’aide de la complémentation de fragments protéiques. Cette méthode a permis de déceler des interactions in vivo entre les protéines exprimées par leurs promoteurs naturels. De plus, aucun biais lié aux interactions des membranes n’a pu être mis en évidence avec cette méthode, comparativement aux autres techniques existantes qui décèlent les interactions protéines-protéines. Conséquemment, nous avons découvert plusieurs nouvelles interactions et nous avons augmenté la couverture d’un interactome d’homéostasie lipidique dont la compréhension demeure encore incomplète à ce jour. Par la suite, nous avons appliqué un algorithme d’apprentissage afin d’identifier huit gènes non caractérisés ayant un rôle potentiel dans le métabolisme des lipides. Finalement, nous avons étudié si ces gènes et un groupe de régulateurs transcriptionnels distincts, non préalablement impliqués avec les lipides, avaient un rôle dans l’homéostasie des lipides. Dans ce but, nous avons analysé les lipidomes des délétions mutantes de gènes sélectionnés. Afin d’examiner une grande quantité de souches, nous avons développé une plateforme à haut débit pour le criblage lipidomique à contenu élevé des bibliothèques de levures mutantes. Cette plateforme consiste en la spectrométrie de masse à haute resolution Orbitrap et en un cadre de traitement des données dédié et supportant le phénotypage des lipides de centaines de mutations de Saccharomyces cerevisiae. Les méthodes expérimentales en lipidomiques ont confirmé les prédictions fonctionnelles en démontrant certaines différences au sein des phénotypes métaboliques lipidiques des délétions mutantes ayant une absence des gènes YBR141C et YJR015W, connus pour leur implication dans le métabolisme des lipides. Une altération du phénotype lipidique a également été observé pour une délétion mutante du facteur de transcription KAR4 qui n’avait pas été auparavant lié au métabolisme lipidique. Tous ces résultats démontrent qu’un processus qui intègre l’acquisition de nouvelles interactions moléculaires, la prédiction informatique des fonctions des gènes et une plateforme lipidomique innovatrice à haut débit , constitue un ajout important aux méthodologies existantes en biologie systémique. Les développements en méthodologies génomiques fonctionnelles et en technologies lipidomiques fournissent donc de nouveaux moyens pour étudier les réseaux biologiques des eucaryotes supérieurs, incluant les mammifères. Par conséquent, le stratégie présenté ici détient un potentiel d’application au sein d’organismes plus complexes.
Resumo:
Lorsque les aléas naturels se déroulent en catastrophes, les réponses des religieux, de l’Etat, et d’autres acteurs puissants dans une société révèlent à la fois les relations complexes entre ces parties et leur pouvoir dans la production des espaces auxquelles les survivants accèdent. La réponse en cas de catastrophe comprend la création d’espaces post-catastrophes, tels que des centres d’évacuation, des logements de transition et des sites de réinstallation permanente, qui ciblent spécifiquement un sous-ensemble particulier de survivants, et visent à les aider à survivre, à faire face, et à se remettre de la catastrophe. Les acteurs puissants dans une société dirigent les processus de secours, de récupération et de reconstruction sont des acteurs puissants qui cherchent à problématiser et à rendre un problème technique dans des termes qu’ils sont idéalement placés pour aborder à travers une variété d'interventions. Ce projet de recherche vise à répondre à la question: où les survivants d'une catastrophe reconstruisent-ils leurs vies et leurs moyens de subsistance? Il enquête sur un cas spécifique de la migration environnementale dans laquelle des dizaines de milliers d'habitants ont été déplacés de façon permanente et temporaire de leurs résidences habituelles après le typhon Sendong à Cagayan de Oro, Philippines en 2011. La recherche est basée sur des entretiens avec les acteurs puissants et les survivants, des vidéos participatives réalisées par des survivants pauvres urbains, et des activités de cartographie. L’étude se fonde sur la théorie féministe, les études de migration, les études dans la gouvernementalité, la recherche sur les changements de l’environnement planétaire, et les études régionales afin de situer les diverses expériences de la migration dans un contexte géographique et historique. Cette thèse propose une topographie critique dans laquelle les processus et les pratiques de production d’espaces post-catastrophe sont exposés. Parce que l’espace est nécessairement malléable, fluide, et relationnelle en raison de l'évolution constante des activités, des conflits, et des expériences qui se déroulent dans le paysage, une analyse de l'espace doit être formulée en termes de relations sociales qui se produisent dans et au-delà de ses frontières poreuses. En conséquence, cette étude explore comment les relations sociales entre les survivants et les acteurs puissants sont liées à l’exclusion, la gouvernementalité, la mobilité, et la production des espaces, des lieux et des territoires. Il constate que, si les trajectoires de migration de la plupart des survivants ont été confinés à l'intérieur des limites de la ville, les expériences de ces survivants et leur utilisation des espaces urbains sont très différentes. Ces différences peuvent être expliquées par des structures politiques, économiques, et sociales, et par les différences religieuses, économiques, et de genre. En outre, il fait valoir que les espaces post-catastrophe doivent être considérés comme des «espaces d’exclusion» où les fiduciaires exercent une rationalité gouvernementale. C’est-à-dire, les espaces post-catastrophe prétendument inclusives servent à marginaliser davantage les populations vulnérables. Ces espaces offrent aussi des occasions pour les acteurs puissants dans la société philippine d'effectuer des interventions gouvernementales dans lesquelles certaines personnes et les paysages sont simplifiées, rendues lisibles, et améliorés.
Resumo:
La transcription, la maturation d’ARN, et le remodelage de la chromatine sont tous des processus centraux dans l'interprétation de l'information contenue dans l’ADN. Bien que beaucoup de complexes de protéines formant la machinerie cellulaire de transcription aient été étudiés, plusieurs restent encore à identifier et caractériser. En utilisant une approche protéomique, notre laboratoire a purifié plusieurs composantes de la machinerie de transcription de l’ARNPII humaine par double chromatographie d’affinité "TAP". Cette procédure permet l'isolement de complexes protéiques comme ils existent vraisemblablement in vivo dans les cellules mammifères, et l'identification de partenaires d'interactions par spectrométrie de masse. Les interactions protéiques qui sont validées bioinformatiquement, sont choisies et utilisées pour cartographier un réseau connectant plusieurs composantes de la machinerie transcriptionnelle. En appliquant cette procédure, notre laboratoire a identifié, pour la première fois, un groupe de protéines, qui interagit physiquement et fonctionnellement avec l’ARNPII humaine. Les propriétés de ces protéines suggèrent un rôle dans l'assemblage de complexes à plusieurs sous-unités, comme les protéines d'échafaudage et chaperonnes. L'objectif de mon projet était de continuer la caractérisation du réseau de complexes protéiques impliquant les facteurs de transcription. Huit nouveaux partenaires de l’ARNPII (PIH1D1, GPN3, WDR92, PFDN2, KIAA0406, PDRG1, CCT4 et CCT5) ont été purifiés par la méthode TAP, et la spectrométrie de masse a permis d’identifier de nouvelles interactions. Au cours des années, l’analyse par notre laboratoire des mécanismes de la transcription a contribué à apporter de nouvelles connaissances et à mieux comprendre son fonctionnement. Cette connaissance est essentielle au développement de médicaments qui cibleront les mécanismes de la transcription.
Resumo:
On étudie l’application des algorithmes de décomposition matricielles tel que la Factorisation Matricielle Non-négative (FMN), aux représentations fréquentielles de signaux audio musicaux. Ces algorithmes, dirigés par une fonction d’erreur de reconstruction, apprennent un ensemble de fonctions de base et un ensemble de coef- ficients correspondants qui approximent le signal d’entrée. On compare l’utilisation de trois fonctions d’erreur de reconstruction quand la FMN est appliquée à des gammes monophoniques et harmonisées: moindre carré, divergence Kullback-Leibler, et une mesure de divergence dépendente de la phase, introduite récemment. Des nouvelles méthodes pour interpréter les décompositions résultantes sont présentées et sont comparées aux méthodes utilisées précédemment qui nécessitent des connaissances du domaine acoustique. Finalement, on analyse la capacité de généralisation des fonctions de bases apprises par rapport à trois paramètres musicaux: l’amplitude, la durée et le type d’instrument. Pour ce faire, on introduit deux algorithmes d’étiquetage des fonctions de bases qui performent mieux que l’approche précédente dans la majorité de nos tests, la tâche d’instrument avec audio monophonique étant la seule exception importante.
Resumo:
Dans ce travail, nous définissons des objets composés de disques complexes marqués reliés entre eux par des segments de droite munis d’une longueur. Nous construisons deux séries d’espaces de module de ces objets appelés clus- ters, une qui sera dite non symétrique, la version ⊗, et l’autre qui est dite symétrique, la version •. Cette construction permet des choix de perturba- tions pour deux versions correspondantes des trajectoires de Floer introduites par Cornea et Lalonde ([CL]). Ces choix devraient fournir une nouvelle option pour la description géométrique des structures A∞ et L∞ obstruées étudiées par Fukaya, Oh, Ohta et Ono ([FOOO2],[FOOO]) et Cho ([Cho]). Dans le cas où L ⊂ (M, ω) est une sous-variété lagrangienne Pin± mono- tone avec nombre de Maslov ≥ 2, nous définissons une structure d’algèbre A∞ sur les points critiques d’une fonction de Morse générique sur L. Cette struc- ture est présentée comme une extension du complexe des perles de Oh ([Oh]) muni de son produit quantique, plus récemment étudié par Biran et Cornea ([BC]). Plus généralement, nous décrivons une version géométrique d’une catégorie de Fukaya avec seul objet L qui se veut alternative à la description (relative) hamiltonienne de Seidel ([Sei]). Nous vérifions la fonctorialité de notre construction en définissant des espaces de module de clusters occultés qui servent d’espaces sources pour des morphismes de comparaison.
Resumo:
Quel est le champ d’action des Amérindiens dans le contexte politique canadien? Malgré les tentatives de l’État canadien de briser la structure politique traditionnelle des Autochtones en introduisant le système électif et politique du conseil de bande, ceux-ci sont loin d'avoir été des victimes passives. L'étude du leadership interstitiel est la ligne directrice de cette thèse car il est la clé d’une pratique politique « in the cracks » qui confère un pouvoir marginal aux Amérindiens. En s'intéressant aux conditions historiques et sociales de déploiement de l’arène politique en milieu de réserve, il est possible de comprendre la quotidienneté et la contemporanéité de l’exercice du pouvoir au sein d’une population minoritaire fortement politisée. La recherche ethnographique porte sur la politique locale de la communauté algonquine de Kitigan Zibi (Québec). L’analyse des acteurs anishnabeg a montré une variabilité du leadership politique chez les Algonquins et l’existence de différents types de leader malgré l’imposition d’une fonction de chef par la Loi sur les Indiens. Le contrôle des affaires politiques officielles d’une bande par les agents coloniaux, c'est-à-dire les missionnaires et les agents indiens, n’a pas donné lieu à un contrôle total de sa dynamique politique interne et de ses membres. L'enquête de terrain a dévoilé que les diverses manifestations et actions politiques menées par les Anishnabeg s’avèrent être des stratégies du pouvoir dans la marge, une forme quotidienne de résistance face aux nouvelles façons de faire la politique établies par les autorités canadiennes, des ruses et des tactiques employées pour tenter de changer le système formel en remettant en question le pouvoir des Affaires indiennes. La contestation et la résistance ne sont toutefois pas l’unique moteur du leadership et de la politique amérindienne. En fait, le leadership politique chez les Kitigan Zibi Anishnabeg est aussi basé sur diverses représentations (traditionnelles, spirituelles, symboliques) qui ont permis aux Algonquins de préserver une identité politique malgré certaines ruptures et transformations introduites dans leur société par les colonisateurs. Les ambiguïtés, les contradictions et les paradoxes de la quotidienneté politique d’une bande autochtone ne sont pas que le résultat de la rencontre d’un univers politique Autre, mais aussi l’aboutissement de l’évolution et de la reconstruction d’un système sociopolitique traditionnel et de ses dynamiques internes reliées au pouvoir, d’une redéfinition de l’autorité et de la légitimité du politique, de l'essor de leaders nouveau genre pour répondre adéquatement aux exigences politiques de la vie en réserve. La politique de réserve n’est pas une chose concrète mais plutôt une dynamique dans un temps et dans un lieu donné, au chevauchement culturel de diverses traditions politiques et formes d’autorité, au truchement de divers espaces (imposé ou symbolique) et institutions (formelle et informelle). Les Algonquins se renouvellent continuellement politiquement au sein de leur système. Ceci n’est pas un effet de l’acculturation, d’une hybridité ou de la modernité mais relève bien de la tradition. Le rattachement de fonctions et dynamiques traditionnelles à la structure formelle constitue un début de gouvernance « par le bas ». Cette dernière renouvelle de l’intérieur, par l’établissement d’un dialogue, la relation entre les leaders autochtones et les représentants de l’État, ce qui donne aux acteurs locaux une marge de manœuvre. Les Algonquins ont saisi les incompatibilités des deux systèmes – blanc et autochtone – pour définir un nouveau territoire, « in the cracks », qui devient leur domaine d’action. L'analyse de la flexibilité du leadership algonquin, de la vision eurocanadienne du leadership amérindien, de l’usage instrumental des exigences de l’État, des élections et des éligibles contemporains, de l'empowerment des femmes algonquines et du leadership féminin en milieu de réserve, a révélé que le leadership interstitiel est une force politique pour les Kitigan Zibi Anishnabeg. En portant un regard critique sur la politique locale dans le quotidien d'une bande et en incluant les voix autochtones, il est possible d’observer le processus de décolonisation et des formes embryonnaires de pratiques postcoloniales au sein des réserves. Cette recherche a démontré que le chef et les autres leaders sont au cœur de cette dynamique politique dans les marges, de l’essor et de l’émancipation politique de leur bande.
Resumo:
Dans cette thèse, je me suis interessé à l’identification partielle des effets de traitements dans différents modèles de choix discrets avec traitements endogènes. Les modèles d’effets de traitement ont pour but de mesurer l’impact de certaines interventions sur certaines variables d’intérêt. Le type de traitement et la variable d’intérêt peuvent être défini de manière générale afin de pouvoir être appliqué à plusieurs différents contextes. Il y a plusieurs exemples de traitement en économie du travail, de la santé, de l’éducation, ou en organisation industrielle telle que les programmes de formation à l’emploi, les techniques médicales, l’investissement en recherche et développement, ou l’appartenance à un syndicat. La décision d’être traité ou pas n’est généralement pas aléatoire mais est basée sur des choix et des préférences individuelles. Dans un tel contexte, mesurer l’effet du traitement devient problématique car il faut tenir compte du biais de sélection. Plusieurs versions paramétriques de ces modèles ont été largement étudiées dans la littérature, cependant dans les modèles à variation discrète, la paramétrisation est une source importante d’identification. Dans un tel contexte, il est donc difficile de savoir si les résultats empiriques obtenus sont guidés par les données ou par la paramétrisation imposée au modèle. Etant donné, que les formes paramétriques proposées pour ces types de modèles n’ont généralement pas de fondement économique, je propose dans cette thèse de regarder la version nonparamétrique de ces modèles. Ceci permettra donc de proposer des politiques économiques plus robustes. La principale difficulté dans l’identification nonparamétrique de fonctions structurelles, est le fait que la structure suggérée ne permet pas d’identifier un unique processus générateur des données et ceci peut être du soit à la présence d’équilibres multiples ou soit à des contraintes sur les observables. Dans de telles situations, les méthodes d’identifications traditionnelles deviennent inapplicable d’où le récent développement de la littérature sur l’identification dans les modèles incomplets. Cette littérature porte une attention particuliere à l’identification de l’ensemble des fonctions structurelles d’intérêt qui sont compatibles avec la vraie distribution des données, cet ensemble est appelé : l’ensemble identifié. Par conséquent, dans le premier chapitre de la thèse, je caractérise l’ensemble identifié pour les effets de traitements dans le modèle triangulaire binaire. Dans le second chapitre, je considère le modèle de Roy discret. Je caractérise l’ensemble identifié pour les effets de traitements dans un modèle de choix de secteur lorsque la variable d’intérêt est discrète. Les hypothèses de sélection du secteur comprennent le choix de sélection simple, étendu et généralisé de Roy. Dans le dernier chapitre, je considère un modèle à variable dépendante binaire avec plusieurs dimensions d’hétérogéneité, tels que les jeux d’entrées ou de participation. je caractérise l’ensemble identifié pour les fonctions de profits des firmes dans un jeux avec deux firmes et à information complète. Dans tout les chapitres, l’ensemble identifié des fonctions d’intérêt sont écrites sous formes de bornes et assez simple pour être estimées à partir des méthodes d’inférence existantes.
Resumo:
Ce document traite premièrement des diverses tentatives de modélisation et de simulation de la nage anguilliforme puis élabore une nouvelle technique, basée sur la méthode de la frontière immergée généralisée et la théorie des poutres de Reissner-Simo. Cette dernière, comme les équations des fluides polaires, est dérivée de la mécanique des milieux continus puis les équations obtenues sont discrétisées afin de les amener à une résolution numérique. Pour la première fois, la théorie des schémas de Runge-Kutta additifs est combinée à celle des schémas de Runge-Kutta-Munthe-Kaas pour engendrer une méthode d’ordre de convergence formel arbitraire. De plus, les opérations d’interpolation et d’étalement sont traitées d’un nouveau point de vue qui suggère l’usage des splines interpolatoires nodales en lieu et place des fonctions d’étalement traditionnelles. Enfin, de nombreuses vérifications numériques sont faites avant de considérer les simulations de la nage.
Resumo:
Ce mémoire, composé d'un article en collaboration avec Monsieur Luc Vinet et Vincent X. Genest, est la suite du travail effectué sur les systèmes quantiques super-intégrables définis par des Hamiltoniens de type Dunkl. Plus particulièrement, ce mémoire vise l'analyse du problème de Coulomb-Dunkl dans le plan qui est une généralisation du système quantique de l'atome d'hydrogène impliquant des opérateurs de réflexion sur les variables x et y. Le modèle est défini par un potentiel en 1/r. Nous avons tout d'abord remarqué que l'Hamiltonien est séparable en coordonnées polaires et que les fonctions d'onde s'écrivent en termes de produits de polynômes de Laguerre généralisés et des harmoniques de Dunkl sur le cercle. L'algèbre générée par les opérateurs de symétrie nous a également permis de confirmer le caractère maximalement super-intégrable du problème de Coulomb-Dunkl. Nous avons aussi pu écrire explicitement les représentations de cette même algèbre. Nous avons finalement trouvé le spectre de l'énergie de manière algébrique.
Resumo:
Il y a des problemes qui semblent impossible a resoudre sans l'utilisation d'un tiers parti honnete. Comment est-ce que deux millionnaires peuvent savoir qui est le plus riche sans dire a l'autre la valeur de ses biens ? Que peut-on faire pour prevenir les collisions de satellites quand les trajectoires sont secretes ? Comment est-ce que les chercheurs peuvent apprendre les liens entre des medicaments et des maladies sans compromettre les droits prives du patient ? Comment est-ce qu'une organisation peut ecmpecher le gouvernement d'abuser de l'information dont il dispose en sachant que l'organisation doit n'avoir aucun acces a cette information ? Le Calcul multiparti, une branche de la cryptographie, etudie comment creer des protocoles pour realiser de telles taches sans l'utilisation d'un tiers parti honnete. Les protocoles doivent etre prives, corrects, efficaces et robustes. Un protocole est prive si un adversaire n'apprend rien de plus que ce que lui donnerait un tiers parti honnete. Un protocole est correct si un joueur honnete recoit ce que lui donnerait un tiers parti honnete. Un protocole devrait bien sur etre efficace. Etre robuste correspond au fait qu'un protocole marche meme si un petit ensemble des joueurs triche. On demontre que sous l'hypothese d'un canal de diusion simultane on peut echanger la robustesse pour la validite et le fait d'etre prive contre certains ensembles d'adversaires. Le calcul multiparti a quatre outils de base : le transfert inconscient, la mise en gage, le partage de secret et le brouillage de circuit. Les protocoles du calcul multiparti peuvent etre construits avec uniquements ces outils. On peut aussi construire les protocoles a partir d'hypoth eses calculatoires. Les protocoles construits a partir de ces outils sont souples et peuvent resister aux changements technologiques et a des ameliorations algorithmiques. Nous nous demandons si l'efficacite necessite des hypotheses de calcul. Nous demontrons que ce n'est pas le cas en construisant des protocoles efficaces a partir de ces outils de base. Cette these est constitue de quatre articles rediges en collaboration avec d'autres chercheurs. Ceci constitue la partie mature de ma recherche et sont mes contributions principales au cours de cette periode de temps. Dans le premier ouvrage presente dans cette these, nous etudions la capacite de mise en gage des canaux bruites. Nous demontrons tout d'abord une limite inferieure stricte qui implique que contrairement au transfert inconscient, il n'existe aucun protocole de taux constant pour les mises en gage de bit. Nous demontrons ensuite que, en limitant la facon dont les engagements peuvent etre ouverts, nous pouvons faire mieux et meme un taux constant dans certains cas. Ceci est fait en exploitant la notion de cover-free families . Dans le second article, nous demontrons que pour certains problemes, il existe un echange entre robustesse, la validite et le prive. Il s'effectue en utilisant le partage de secret veriable, une preuve a divulgation nulle, le concept de fantomes et une technique que nous appelons les balles et les bacs. Dans notre troisieme contribution, nous demontrons qu'un grand nombre de protocoles dans la litterature basee sur des hypotheses de calcul peuvent etre instancies a partir d'une primitive appelee Transfert Inconscient Veriable, via le concept de Transfert Inconscient Generalise. Le protocole utilise le partage de secret comme outils de base. Dans la derniere publication, nous counstruisons un protocole efficace avec un nombre constant de rondes pour le calcul a deux parties. L'efficacite du protocole derive du fait qu'on remplace le coeur d'un protocole standard par une primitive qui fonctionne plus ou moins bien mais qui est tres peu couteux. On protege le protocole contre les defauts en utilisant le concept de privacy amplication .
Resumo:
L'apprentissage profond est un domaine de recherche en forte croissance en apprentissage automatique qui est parvenu à des résultats impressionnants dans différentes tâches allant de la classification d'images à la parole, en passant par la modélisation du langage. Les réseaux de neurones récurrents, une sous-classe d'architecture profonde, s'avèrent particulièrement prometteurs. Les réseaux récurrents peuvent capter la structure temporelle dans les données. Ils ont potentiellement la capacité d'apprendre des corrélations entre des événements éloignés dans le temps et d'emmagasiner indéfiniment des informations dans leur mémoire interne. Dans ce travail, nous tentons d'abord de comprendre pourquoi la profondeur est utile. Similairement à d'autres travaux de la littérature, nos résultats démontrent que les modèles profonds peuvent être plus efficaces pour représenter certaines familles de fonctions comparativement aux modèles peu profonds. Contrairement à ces travaux, nous effectuons notre analyse théorique sur des réseaux profonds acycliques munis de fonctions d'activation linéaires par parties, puisque ce type de modèle est actuellement l'état de l'art dans différentes tâches de classification. La deuxième partie de cette thèse porte sur le processus d'apprentissage. Nous analysons quelques techniques d'optimisation proposées récemment, telles l'optimisation Hessian free, la descente de gradient naturel et la descente des sous-espaces de Krylov. Nous proposons le cadre théorique des méthodes à région de confiance généralisées et nous montrons que plusieurs de ces algorithmes développés récemment peuvent être vus dans cette perspective. Nous argumentons que certains membres de cette famille d'approches peuvent être mieux adaptés que d'autres à l'optimisation non convexe. La dernière partie de ce document se concentre sur les réseaux de neurones récurrents. Nous étudions d'abord le concept de mémoire et tentons de répondre aux questions suivantes: Les réseaux récurrents peuvent-ils démontrer une mémoire sans limite? Ce comportement peut-il être appris? Nous montrons que cela est possible si des indices sont fournis durant l'apprentissage. Ensuite, nous explorons deux problèmes spécifiques à l'entraînement des réseaux récurrents, à savoir la dissipation et l'explosion du gradient. Notre analyse se termine par une solution au problème d'explosion du gradient qui implique de borner la norme du gradient. Nous proposons également un terme de régularisation conçu spécifiquement pour réduire le problème de dissipation du gradient. Sur un ensemble de données synthétique, nous montrons empiriquement que ces mécanismes peuvent permettre aux réseaux récurrents d'apprendre de façon autonome à mémoriser des informations pour une période de temps indéfinie. Finalement, nous explorons la notion de profondeur dans les réseaux de neurones récurrents. Comparativement aux réseaux acycliques, la définition de profondeur dans les réseaux récurrents est souvent ambiguë. Nous proposons différentes façons d'ajouter de la profondeur dans les réseaux récurrents et nous évaluons empiriquement ces propositions.
Resumo:
L’objet du travail est d’étudier les prolongements de sous-copules. Un cas important de l’utilisation de tels prolongements est l’estimation non paramétrique d’une copule par le lissage d’une sous-copule (la copule empirique). Lorsque l’estimateur obtenu est une copule, cet estimateur est un prolongement de la souscopule. La thèse présente au chapitre 2 la construction et la convergence uniforme d’un estimateur bona fide d’une copule ou d’une densité de copule. Cet estimateur est un prolongement de type copule empirique basé sur le lissage par le produit tensoriel de fonctions de répartition splines. Le chapitre 3 donne la caractérisation de l’ensemble des prolongements possibles d’une sous-copule. Ce sujet a été traité par le passé; mais les constructions proposées ne s’appliquent pas à la dépendance dans des espaces très généraux. Le chapitre 4 s’attèle à résoudre le problème suivant posé par [Carley, 2002]. Il s’agit de trouver la borne supérieure des prolongements en dimension 3 d’une sous-copule de domaine fini.