980 resultados para Uniformly Convex
Resumo:
In spatial environments we consider social welfare functions satisfying Arrow’s requirements, i.e. weak Pareto and independence of irrelevant alternatives. Individual preferences measure distances between alternatives according to the Lp-norm (for a fixed p => 1). When the policy space is multi-dimensional and the set of alternatives has a non-empty interior and it is compact and convex, any quasi-transitive welfare function must be oligarchic. As a corollary we obtain that for transitive welfare functions weak Pareto, independence of irrelevant alternatives, and non-dictatorship are inconsistent if the set of alternatives has a non-empty interior and it is compact and convex.
Investigation of femtosecond laser technology for the fabrication of drug nanocrystals in suspension
Resumo:
La technique du laser femtoseconde (fs) a été précédemment utilisée pour la production de nanoparticules d'or dans un environnement aqueux biologiquement compatible. Au cours de ce travail de maîtrise, cette méthode a été investiguée en vue d'une application pour la fabrication de nanocristaux de médicament en utilisant le paclitaxel comme modèle. Deux procédés distincts de cette technologie à savoir l'ablation et la fragmentation ont été étudiés. L'influence de la puissance du laser, de point de focalisation, et de la durée du traitement sur la distribution de taille des particules obtenues ainsi que leur intégrité chimique a été évaluée. Les paramètres ont ainsi été optimisés pour la fabrication des nanoparticules. L’évaluation morphologique et chimique a été réalisée par microscopie électronique et spectroscopie infrarouge respectivement. L'état cristallin des nanoparticules de paclitaxel a été caractérisé par calorimétrie differentielle et diffraction des rayons X. L'optimisation du procédé de production de nanoparticules par laser fs a permis d'obtenir des nanocristaux de taille moyenne (400 nm, polydispersité ≤ 0,3). Cependant une dégradation non négligeable a été observée. La cristallinité du médicament a été maintenue durant la procédure de réduction de taille, mais le paclitaxel anhydre a été transformé en une forme hydratée. Les résultats de cette étude suggèrent que le laser fs peut générer des nanocristaux de principe actif. Cependant cette technique peut se révéler problématique pour des médicaments sensibles à la dégradation. Grâce à sa facilité d'utilisation et la possibilité de travailler avec des quantités restreintes de produit, le laser fs pourrait représenter une alternative valable pour la production de nanoparticules de médicaments peu solubles lors des phases initiales de développement préclinique. Mots-clés: paclitaxel, nanocristaux, laser femtoseconde, ablation, fragmentation
Resumo:
In this paper we provide a thorough characterization of the asset returns implied by a simple general equilibrium production economy with Chew–Dekel risk preferences and convex capital adjustment costs. When households display levels of disappointment aversion consistent with the experimental evidence, a version of the model parameterized to match the volatility of output and consumption growth generates unconditional expected asset returns and price of risk in line with the historical data. For the model with Epstein–Zin preferences to generate similar statistics, the relative risk aversion coefficient needs to be about 55, two orders of magnitude higher than the available estimates. We argue that this is not surprising, given the limited risk imposed on agents by a reasonably calibrated stochastic growth model.
Resumo:
Objectifs Aucun agent n’a été approuvé pour prévenir l’ototoxicité secondaire au cisplatin. Nos objectifs consistaient à évaluer la protection auditive offerte par le lactate et le N-acétylcystéine (NAC) intra-tympaniques après injection de cisplatin, ainsi que l’absorption systémique du NAC intra-tympanique. Méthodes Seize cochons d’inde formaient 2 groupes ayant reçu une solution de lactate et de NAC à 20% dans l’oreille testée. L’oreille contro-latérale a reçu une solution saline contrôle. Après 30 minutes, une injection intrapéritonéale de 3 mg/kg de cisplatin a été effectuée et répétée une fois par semaine jusqu’à une dose finale de 24 mg/kg. Les potentiels évoqués auditifs du tronc cérébral (PEATC) ont été mesurés avant les injections, après 9 mg/kg et 24 mg/kg de cisplatin. Les cochlées ont été analysées au microscope électronique à balayage. La diffusion systémique du NAC a été évaluée par chromatographie en phase liquide. Résultats Pour les oreilles contrôles, les seuils auditifs des PEATC ont augmenté uniformément sur toutes les fréquences (28,4 dB en moyenne). Le groupe lactate montrait une augmentation moins importante (17,0 dB). Les basses fréquences étaient nettement moins affectées. Le groupe NAC a subi une augmentation des seuils de 89 dB. La microscopie électronique a démontré une préservation partielle des cellules ciliées externes des cochlées traitées au lactate et une destruction complète de celles traitées au NAC. La chromatographie n’a démontré aucune diffusion de NAC. Conclusions Le lactate offre une protection partielle significative contre l’ototoxicité induite par le cisplatin. Les injections de NAC n’offrent pas de protection lorsque administrées en concentrations élevée. Le NAC intra-tympanique ne se diffuse pas systémiquement.
Resumo:
Le fullerène C60 est une molécule sphérique composée exclusivement d'atomes de carbone. Ce composé possède une surface aromatique convexe homogène et peut s'associer, entre autres, avec des molécules possédant des surfaces aromatiques par des interactions non-covalentes. Le triptycène est une molécule en forme de "Y" qui possède des surfaces aromatiques convexes. Cette molécule possède l'habileté de s'associer avec le C60 par des interactions de type π qui sont amplifiées par la complémentarité des surfaces concaves et convexes impliquées dans les arrangements cristallins. Nous avons synthétisé des dérivés triptycényles portant des groupements fonctionnels aux extrémités des bras de ce noyau de façon à étendre les cavités disponibles pour interagir avec le C60. En effet, nous avons découvert que les atomes de chlore, de brome et d'iode ainsi que les groupements méthyle permettent d'étendre les surfaces disponibles pour interagir avec les fullerènes C60 et C70. Nous avons étudié les associations entre les dérivés triptycényles et les fullerènes par l'analyse des structures cristallographiques résolues par diffraction des rayons-X. De plus, nous avons étudié les associations entre les molécules considérées par l'analyse des surfaces d'Hirshfeld entourant les fullerènes. Découlant de ces études, l'effet d'amplification des atomes de chlore, de brome et d'iode ainsi que les groupements méthyle a été employé pour identifier de nouveaux solvants aptes à solubiliser efficacement le C60.
Resumo:
Cette thèse est constituée de trois articles. Le premier étudie le problème de pollution globale dans un contexte environnemental incertain. Le deuxième article traite des accords internationaux sur l'environnement. Le troisième article montre comment la libéralisation du commerce peut affecter le bien-être et les taxes sur la pollution dans un monde où les pays sont hétérogènes et la pollution transfrontalière. Dans le premier article, je considère un monde dans lequel les pays souffrent uniformément de la pollution globale. Ils font face à une menace continuelle de voir les dommages causés par cette pollution globale s'accroître subitement de façon irréversible. Je caractérise le niveau des émissions, le stock de pollution, et le niveau de bien-être actualisé en équilibres coopératif et non-coopératif. L'objectif visé est d'analyser l'impact de ce type d'incertitude sur les équilibres issus des comportements stratégiques des pays. Je trouve que cette incertitude peut avoir un effet significatif sur ces équilibres. Les pays réduisent leurs émissions pour atténuer leur exposition à cette menace. Plus la menace est grande, plus les pays ajustent leurs émissions afin de réduire le stock de pollution globale. Cependant, en dépit du fait que cette incertitude diminue le bien-être net initial, elle peut à long terme avoir un effet net positif sur le bien-être. Le deuxième article étend la classe des modèles dynamiques standards traitant des accords internationaux sur l'environnement au cas où la durée de la période d'engagement à de tels accords est un paramètre que l'on peut varier de façon exogène. Nous y étudions les évolutions dans le temps de la taille des coalitions stables, du stock de pollution et du taux d'émissions en fonction de la durée d'engagement. Nous montrons que la longueur de la période d'engagement a un effet très significatif sur l'équilibre. Trois intervalles de durée d'engagement sont identifiés pour lesquels l'équilibre et sa dynamique diffèrent considérablement. Alors que pour des durées de la période d'engagement très longues on observe des coalitions stables constituées d'un petit nombre de pays, si ces durées sont suffisamment courtes on peut observer un niveau de coopération élevé. Les durées d'engagement entre ces deux extrêmes sont caractérisées par une relation inverse entre la durée de la période d'engagement et la taille des coalitions stables. Ces faits portent à croire qu'il faudrait accorder une attention toute particulière au choix de la durée d'engagement lors de l'élaboration de tels accords internationaux. Le troisième article s'inscrit dans un contexte où les activités de production des pays potentiellement hétérogènes génèrent de la pollution qui peut traverser les frontières et nuire au bien-être des pays impliqués. Dans chacun de ces pays, l'état impose des taxes sur la pollution aux firmes polluantes et des tarifs à l'importation afin de corriger cette distorsion. Ce papier a pour but d'évaluer les effets que pourrait avoir une diminution des tarifs douaniers sur la production, les taxes sur la pollution et le bien-être de ces pays. La littérature existante a étudié ce problème, mais seulement dans le cadre d'un commerce bilatéral entre pays identiques. Cet article fournit un cadre d'analyse plus réaliste dans lequel les pays ne seront pas nécessairement identiques et où le commerce pourra être multilatéral. Il devient alors possible de mettre en évidence le biais introduit en négligeant ces deux facteurs. Dans ce nouveau contexte, je montre qu'une réduction des tarifs d'importation n'augmente pas nécessairement la production; elle peut aussi nuire au bien-être, même si la pollution est purement locale.
Resumo:
Le sujet principal de cette thèse porte sur les mesures de risque. L'objectif général est d'investiguer certains aspects des mesures de risque dans les applications financières. Le cadre théorique de ce travail est celui des mesures cohérentes de risque telle que définie dans Artzner et al (1999). Mais ce n'est pas la seule classe de mesure du risque que nous étudions. Par exemple, nous étudions aussi quelques aspects des "statistiques naturelles de risque" (en anglais natural risk statistics) Kou et al (2006) et des mesures convexes du risque Follmer and Schied(2002). Les contributions principales de cette thèse peuvent être regroupées selon trois axes: allocation de capital, évaluation des risques et capital requis et solvabilité. Dans le chapitre 2 nous caractérisons les mesures de risque avec la propriété de Lebesgue sur l'ensemble des processus bornés càdlàg (continu à droite, limité à gauche). Cette caractérisation nous permet de présenter deux applications dans l'évaluation des risques et l'allocation de capital. Dans le chapitre 3, nous étendons la notion de statistiques naturelles de risque à l'espace des suites infinies. Cette généralisation nous permet de construire de façon cohérente des mesures de risque pour des bases de données de n'importe quelle taille. Dans le chapitre 4, nous discutons le concept de "bonnes affaires" (en anglais Good Deals), pour notamment caractériser les situations du marché où ces positions pathologiques sont présentes. Finalement, dans le chapitre 5, nous essayons de relier les trois chapitres en étendant la définition de "bonnes affaires" dans un cadre plus large qui comprendrait les mesures de risque analysées dans les chapitres 2 et 3.
Resumo:
Dans ce mémoire, je démontre que la distribution de probabilités de l'état quantique Greenberger-Horne-Zeilinger (GHZ) sous l'action locale de mesures de von Neumann indépendantes sur chaque qubit suit une distribution qui est une combinaison convexe de deux distributions. Les coefficients de la combinaison sont reliés aux parties équatoriales des mesures et les distributions associées à ces coefficients sont reliées aux parties réelles des mesures. Une application possible du résultat est qu'il permet de scinder en deux la simulation de l'état GHZ. Simuler, en pire cas ou en moyenne, un état quantique comme GHZ avec des ressources aléatoires, partagées ou privées, et des ressources classiques de communication, ou même des ressources fantaisistes comme les boîtes non locales, est un problème important en complexité de la communication quantique. On peut penser à ce problème de simulation comme un problème où plusieurs personnes obtiennent chacune une mesure de von Neumann à appliquer sur le sous-système de l'état GHZ qu'il partage avec les autres personnes. Chaque personne ne connaît que les données décrivant sa mesure et d'aucune façon une personne ne connaît les données décrivant la mesure d'une autre personne. Chaque personne obtient un résultat aléatoire classique. La distribution conjointe de ces résultats aléatoires classiques suit la distribution de probabilités trouvée dans ce mémoire. Le but est de simuler classiquement la distribution de probabilités de l'état GHZ. Mon résultat indique une marche à suivre qui consiste d'abord à simuler les parties équatoriales des mesures pour pouvoir ensuite savoir laquelle des distributions associées aux parties réelles des mesures il faut simuler. D'autres chercheurs ont trouvé comment simuler les parties équatoriales des mesures de von Neumann avec de la communication classique dans le cas de 3 personnes, mais la simulation des parties réelles résiste encore et toujours.
Resumo:
I study long-term financial contracts between lenders and borrowers in the absence of perfect enforceability and when both parties are credit constrained. Borrowers repeatedly have projects to undertake and need external financing. Lenders can commit to contractual agreements whereas borrowers can renege any period. I show that equilibrium contracts feature interesting dynamics: the economy exhibits efficient investment cycles; absence of perfect enforcement and shortage of capital skew the cycles toward states of liquidity drought; credit is rationed if either the lender has too little capital or if the borrower has too little collateral. This paper's technical contribution is its demonstration of the existence and characterization of financial contracts that are solutions to a non-convex dynamic programming problem.
Resumo:
Parmi les méthodes d’estimation de paramètres de loi de probabilité en statistique, le maximum de vraisemblance est une des techniques les plus populaires, comme, sous des conditions l´egères, les estimateurs ainsi produits sont consistants et asymptotiquement efficaces. Les problèmes de maximum de vraisemblance peuvent être traités comme des problèmes de programmation non linéaires, éventuellement non convexe, pour lesquels deux grandes classes de méthodes de résolution sont les techniques de région de confiance et les méthodes de recherche linéaire. En outre, il est possible d’exploiter la structure de ces problèmes pour tenter d’accélerer la convergence de ces méthodes, sous certaines hypothèses. Dans ce travail, nous revisitons certaines approches classiques ou récemment d´eveloppées en optimisation non linéaire, dans le contexte particulier de l’estimation de maximum de vraisemblance. Nous développons également de nouveaux algorithmes pour résoudre ce problème, reconsidérant différentes techniques d’approximation de hessiens, et proposons de nouvelles méthodes de calcul de pas, en particulier dans le cadre des algorithmes de recherche linéaire. Il s’agit notamment d’algorithmes nous permettant de changer d’approximation de hessien et d’adapter la longueur du pas dans une direction de recherche fixée. Finalement, nous évaluons l’efficacité numérique des méthodes proposées dans le cadre de l’estimation de modèles de choix discrets, en particulier les modèles logit mélangés.
Resumo:
Le fullerène C60, une molécule sphérique, et le C70, un analogue ellisoïde, sont des composés aromatiques convexes constitués exclusivement d'atomes de carbone. La nature aromatique de la surface de ces cages de carbone rend possible leur association à l'état solide avec d'autres molécules aromatiques de topologie complémentaire. En particulier, l'association des fullerènes avec des composés présentant des motifs concaves aromatiques, via une association de type concave-convexe, est favorable. En effet, les interactions π•••π de type concave-convexe sont amplifiées grâce à la complémentarité topologique des partenaires impliqués. Le centrohexaindane est un hydrocarbure non planaire rigide qui a été synthétisé pour la première fois en 1988 par Kuck et collaborateurs. Cette molécule possède quatre surfaces aromatiques concaves orientées dans une géométrie tétraédrique qui sont susceptibles d'interagir favorablement avec les fullerènes. Nous avons ainsi avec succès cocristallisé le centrohexaindane avec les fullerènes C60 et C70. Puis, nous avons étudié les assemblages à l'état solide entre le centrohexaindane et les fullerènes par l'analyse des structures résolues via diffraction des rayons X. Les surfaces concaves aromatiques du centrohexaindane se sont révélées être propices à une association avec les fullerènes C60 et C70 via des interactions π•••π de type concave-convexe, tel que prévu. En outre, nous avons découvert que les liaisons C-H situées à la périphérie du centrohexaindane prennent part à une multitude de contacts C-H•••π avec les molécules de fullerène. Les échantillons de cocristaux composés de centrohexaindane et de fullerène ont aussi été caractérisés par diffraction de poudre des rayons X et par analyse thermogravimétrique dans le but d'en évaluer l'homogénéité.
Resumo:
To investigate the role of muscles in the development of adolescent idiopathic scoliosis (AIS), our group was initially interested in Duchenne muscular dystrophy (DMD) diseases where a muscular degeneration often leads to scoliosis. Few years ago the studies with those patients provided interesting results but were obtained only from few patients. To increase that number, the present project was initiated but recruitment of new DMD patients from Marie-Enfant hospital was found impossible. As an alternative, patients with Friedreich’s ataxia (FA) were recruited since they also suffer from a muscular deficiency which often induces a scoliosis. So, 4 FA patients and 4 healthy controls have been chosen to closely match the age, weight and body mass indexes (BMI) of the patients were enrolled in our experiments. As in the previous study, electromyography (EMG) activity of paraspinal muscles were recorded on each side of the spine during three types of contraction at 2 different maximum voluntary contractions (MVC). Moreover, the volume and skinfold thickness of these muscles were determined from ultrasound images (US) in order to facilitate the interpretation of EMG signals recorded on the skin surface. For the 3 FA right scoliotic patients, EMG activity was most of the time larger on the concave side of the deviation. The opposite was found for the 4th one (P4, left scoliosis, 32°) for whom EMG activity was larger on the convex side; it should however be noted that all his signals were of small amplitude. This was associated to a muscle weakness and a large skinfold thickness (12 mm) vs 7 mm for the 3 others. As for the paraspinal muscle volume, it was present on the convex side of P1, P3 and P4 and on the concave side for P2. As for skinfold thickness over this muscle, it was larger on the concave side for P1 and P2 and the opposite for P3 and P4. At the apex of each curve, the volume and skinfold thickness differences were the largest. Although the study covers only a small number of FA patients, the presence of larger EMG signals on the concave side of a spinal deformation is similar to pre-scoliotic DMD patients for whom the deformation is in its initial stage. It thus seems that our FA patients with more EMG activity on their concave side could see progression of their spinal deformation in the coming months in spite of their already important Cobb angle.
Resumo:
La thèse est composée d’un chapitre de préliminaires et de deux articles sur le sujet du déploiement de singularités d’équations différentielles ordinaires analytiques dans le plan complexe. L’article Analytic classification of families of linear differential systems unfolding a resonant irregular singularity traite le problème de l’équivalence analytique de familles paramétriques de systèmes linéaires en dimension 2 qui déploient une singularité résonante générique de rang de Poincaré 1 dont la matrice principale est composée d’un seul bloc de Jordan. La question: quand deux telles familles sontelles équivalentes au moyen d’un changement analytique de coordonnées au voisinage d’une singularité? est complètement résolue et l’espace des modules des classes d’équivalence analytiques est décrit en termes d’un ensemble d’invariants formels et d’un invariant analytique, obtenu à partir de la trace de la monodromie. Des déploiements universels sont donnés pour toutes ces singularités. Dans l’article Confluence of singularities of non-linear differential equations via Borel–Laplace transformations on cherche des solutions bornées de systèmes paramétriques des équations non-linéaires de la variété centre de dimension 1 d’une singularité col-noeud déployée dans une famille de champs vectoriels complexes. En général, un système d’ÉDO analytiques avec une singularité double possède une unique solution formelle divergente au voisinage de la singularité, à laquelle on peut associer des vraies solutions sur certains secteurs dans le plan complexe en utilisant les transformations de Borel–Laplace. L’article montre comment généraliser cette méthode et déployer les solutions sectorielles. On construit des solutions de systèmes paramétriques, avec deux singularités régulières déployant une singularité irrégulière double, qui sont bornées sur des domaines «spirals» attachés aux deux points singuliers, et qui, à la limite, convergent vers une paire de solutions sectorielles couvrant un voisinage de la singularité confluente. La méthode apporte une description unifiée pour toutes les valeurs du paramètre.
Resumo:
Les buts des recherches présentées dans cette thèse étaient d’évaluer le rôle de la stéréoscopie dans la reconnaissance de forme, dans la perception du relief et dans la constance de forme. La première étude a examiné le rôle de la stéréoscopie dans la perception des formes visuelles en utilisant une tâche de reconnaissance de formes. Les stimuli pouvaient être présentés en 2D, avec disparité normale (3D) ou avec disparité inversée. La performance de reconnaissance était meilleure avec les modes de présentation 2D et 3D qu’avec la 3D inversée. Cela indique que la stéréoscopie contribue à la reconnaissance de forme. La deuxième étude s’est intéressée à la contribution conjointe de l’ombrage et de la stéréoscopie dans la perception du relief des formes. Les stimuli étaient des images d’une forme 3D convexe synthétique présentée sous un point de vue menant à une ambigüité quant à sa convexité. L’illumination pouvait provenir du haut ou du bas et de la gauche ou de la droite, et les stimuli étaient présentés dichoptiquement avec soit de la disparité binoculaire normale, de la disparité inversée ou sans disparité entre les vues. Les participants ont répondu que les formes étaient convexes plus souvent lorsque la lumière provenait du haut que du bas, plus souvent avec la disparité normale qu’en 2D, et plus souvent avec absence de disparité qu’avec disparité inversée. Les effets de direction d’illumination et du mode de présentation étaient additifs, c’est-à-dire qu’ils n’interagissaient pas. Cela indique que l’ombrage et la stéréoscopie contribuent indépendamment à la perception du relief des formes. La troisième étude a évalué la contribution de la stéréoscopie à la constance de forme, et son interaction avec l’expertise perceptuelle. Elle a utilisé trois tâches de discrimination séquentielle de trombones tordus ayant subi des rotations en profondeur. Les stimuli pouvaient être présentés sans stéréoscopie, avec stéréoscopie normale ou avec stéréoscopie inversée. Dans la première moitié de l’Exp. 1, dans laquelle les variations du mode de présentation étaient intra-sujets, les performances étaient meilleures en 3D qu’en 2D et qu’en 3D inversée. Ces effets ont été renversés dans la seconde moitié de l’expérience, et les coûts de rotation sont devenus plus faibles pour la 2D et la 3D inversée que pour la 3D. Dans les Exps. 2 (variations intra-sujets du mode de présentation, avec un changement de stimuli au milieu de l’expérience) et 3 (variations inter-sujets du mode de présentation), les effets de rotation étaient en tout temps plus faibles avec stéréoscopie qu’avec stéréoscopie inversée et qu’en 2D, et plus faibles avec stéréoscopie inversée que sans stéréoscopie. Ces résultats indiquent que la stéréoscopie contribue à la constance de forme. Toutefois, cela demande qu’elle soit valide avec un niveau minimal de consistance, sinon elle devient stratégiquement ignorée. En bref, les trois études présentées dans cette thèse ont permis de montrer que la stéréoscopie contribue à la reconnaissance de forme, à la perception du relief et à la constance de forme. De plus, l’ombrage et la stéréoscopie sont intégrés linéairement.
Resumo:
L'apprentissage profond est un domaine de recherche en forte croissance en apprentissage automatique qui est parvenu à des résultats impressionnants dans différentes tâches allant de la classification d'images à la parole, en passant par la modélisation du langage. Les réseaux de neurones récurrents, une sous-classe d'architecture profonde, s'avèrent particulièrement prometteurs. Les réseaux récurrents peuvent capter la structure temporelle dans les données. Ils ont potentiellement la capacité d'apprendre des corrélations entre des événements éloignés dans le temps et d'emmagasiner indéfiniment des informations dans leur mémoire interne. Dans ce travail, nous tentons d'abord de comprendre pourquoi la profondeur est utile. Similairement à d'autres travaux de la littérature, nos résultats démontrent que les modèles profonds peuvent être plus efficaces pour représenter certaines familles de fonctions comparativement aux modèles peu profonds. Contrairement à ces travaux, nous effectuons notre analyse théorique sur des réseaux profonds acycliques munis de fonctions d'activation linéaires par parties, puisque ce type de modèle est actuellement l'état de l'art dans différentes tâches de classification. La deuxième partie de cette thèse porte sur le processus d'apprentissage. Nous analysons quelques techniques d'optimisation proposées récemment, telles l'optimisation Hessian free, la descente de gradient naturel et la descente des sous-espaces de Krylov. Nous proposons le cadre théorique des méthodes à région de confiance généralisées et nous montrons que plusieurs de ces algorithmes développés récemment peuvent être vus dans cette perspective. Nous argumentons que certains membres de cette famille d'approches peuvent être mieux adaptés que d'autres à l'optimisation non convexe. La dernière partie de ce document se concentre sur les réseaux de neurones récurrents. Nous étudions d'abord le concept de mémoire et tentons de répondre aux questions suivantes: Les réseaux récurrents peuvent-ils démontrer une mémoire sans limite? Ce comportement peut-il être appris? Nous montrons que cela est possible si des indices sont fournis durant l'apprentissage. Ensuite, nous explorons deux problèmes spécifiques à l'entraînement des réseaux récurrents, à savoir la dissipation et l'explosion du gradient. Notre analyse se termine par une solution au problème d'explosion du gradient qui implique de borner la norme du gradient. Nous proposons également un terme de régularisation conçu spécifiquement pour réduire le problème de dissipation du gradient. Sur un ensemble de données synthétique, nous montrons empiriquement que ces mécanismes peuvent permettre aux réseaux récurrents d'apprendre de façon autonome à mémoriser des informations pour une période de temps indéfinie. Finalement, nous explorons la notion de profondeur dans les réseaux de neurones récurrents. Comparativement aux réseaux acycliques, la définition de profondeur dans les réseaux récurrents est souvent ambiguë. Nous proposons différentes façons d'ajouter de la profondeur dans les réseaux récurrents et nous évaluons empiriquement ces propositions.