799 resultados para réseaux de neurones


Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’émergence de nouvelles applications et de nouveaux services (tels que les applications multimédias, la voix-sur-IP, la télévision-sur-IP, la vidéo-sur-demande, etc.) et le besoin croissant de mobilité des utilisateurs entrainent une demande de bande passante de plus en plus croissante et une difficulté dans sa gestion dans les réseaux cellulaires sans fil (WCNs), causant une dégradation de la qualité de service. Ainsi, dans cette thèse, nous nous intéressons à la gestion des ressources, plus précisément à la bande passante, dans les WCNs. Dans une première partie de la thèse, nous nous concentrons sur la prédiction de la mobilité des utilisateurs des WCNs. Dans ce contexte, nous proposons un modèle de prédiction de la mobilité, relativement précis qui permet de prédire la destination finale ou intermédiaire et, par la suite, les chemins des utilisateurs mobiles vers leur destination prédite. Ce modèle se base sur : (a) les habitudes de l’utilisateur en terme de déplacements (filtrées selon le type de jour et le moment de la journée) ; (b) le déplacement courant de l’utilisateur ; (c) la connaissance de l’utilisateur ; (d) la direction vers une destination estimée ; et (e) la structure spatiale de la zone de déplacement. Les résultats de simulation montrent que ce modèle donne une précision largement meilleure aux approches existantes. Dans la deuxième partie de cette thèse, nous nous intéressons au contrôle d’admission et à la gestion de la bande passante dans les WCNs. En effet, nous proposons une approche de gestion de la bande passante comprenant : (1) une approche d’estimation du temps de transfert intercellulaire prenant en compte la densité de la zone de déplacement en terme d’utilisateurs, les caractéristiques de mobilité des utilisateurs et les feux tricolores ; (2) une approche d’estimation de la bande passante disponible à l’avance dans les cellules prenant en compte les exigences en bande passante et la durée de vie des sessions en cours ; et (3) une approche de réservation passive de bande passante dans les cellules qui seront visitées pour les sessions en cours et de contrôle d’admission des demandes de nouvelles sessions prenant en compte la mobilité des utilisateurs et le comportement des cellules. Les résultats de simulation indiquent que cette approche réduit largement les ruptures abruptes de sessions en cours, offre un taux de refus de nouvelles demandes de connexion acceptable et un taux élevé d’utilisation de la bande passante. Dans la troisième partie de la thèse, nous nous penchons sur la principale limite de la première et deuxième parties de la thèse, à savoir l’évolutivité (selon le nombre d’utilisateurs) et proposons une plateforme qui intègre des modèles de prédiction de mobilité avec des modèles de prédiction de la bande passante disponible. En effet, dans les deux parties précédentes de la thèse, les prédictions de la mobilité sont effectuées pour chaque utilisateur. Ainsi, pour rendre notre proposition de plateforme évolutive, nous proposons des modèles de prédiction de mobilité par groupe d’utilisateurs en nous basant sur : (a) les profils des utilisateurs (c’est-à-dire leur préférence en termes de caractéristiques de route) ; (b) l’état du trafic routier et le comportement des utilisateurs ; et (c) la structure spatiale de la zone de déplacement. Les résultats de simulation montrent que la plateforme proposée améliore la performance du réseau comparée aux plateformes existantes qui proposent des modèles de prédiction de la mobilité par groupe d’utilisateurs pour la réservation de bande passante.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’expansion de l’organisation de la production des biens et services sous forme de réseau, découlant de la recherche de flexibilité face à une concurrence économique accrue, soulève des enjeux importants pour les relations industrielles. Notre thèse s’intéresse au processus de précarisation des emplois dans les segments externalisés des réseaux de production. Elle se base sur trois études de cas portant sur les réseaux de services publics et privés d’aide à domicile au Québec. Les études en droit critique ont montré que le droit du travail, fondé sur le modèle de l’entreprise intégrée et de la relation d’emploi bipartite, ne parvient pas à identifier comme employeurs certaines organisations dont l’action a pourtant un effet déterminant sur les conditions de travail dans les réseaux. Notre thèse visait donc à mettre en lumière la réalité empirique des relations de pouvoir qui traversent les réseaux et leurs effets et ce à partir d’un modèle analytique transdisciplinaire intégrant les dimensions juridiques et sociologiques. Les résultats nous amènent d’abord à constater que l’employeur juridique des travailleuses employées par les prestataires privés intégrés aux réseaux – une majorité de femmes – est le plus souvent une agence de location de personnel, une entreprise d’économie sociale ou même l’usager-ère des services d’aide à domicile. Cet employeur est rarement identifié aux organismes publics, donc sous l’égide de l’État, qui exercent un pouvoir prépondérant dans ces réseaux. Le décalage entre la régulation juridique du travail et la réalité empirique du pouvoir intra-réseau entraîne une précarisation de la protection sociale et des conditions de travail de ces travailleuses. Ainsi, la faible protection de leurs droits de représentation et de négociation collectives facilite l’imposition de la « disponibilité permanente juste-à-temps », combinant les logiques du lean et du travail domestique, ainsi qu’une déqualification sexuée et racialisée de leurs emplois par rapport à la situation dans le secteur public. Notre étude montre néanmoins que certaines pratiques innovatrices d’action collective réticulaire ont pu influencer la dynamique de pouvoir, en particulier celles portées par des associations locales de personnes handicapées recourant aux services et par un syndicat de travailleuses d’agence.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les problèmes de conception de réseaux ont reçu un intérêt particulier et ont été largement étudiés de par leurs nombreuses applications dans différents domaines, tels que les transports et les télécommunications. Nous nous intéressons dans ce mémoire au problème de conception de réseaux avec coûts d’ajout de capacité. Il s’agit d’installer un ensemble d’équipements sur un réseau en vue de satisfaire la demande, tout en respectant les contraintes de capacité, chaque arc pouvant admettre plusieurs équipements. L’objectif est de minimiser les coûts variables de transport des produits et les coûts fixes d’installation ou d’augmentation de capacité des équipements. La méthode que nous envisageons pour résoudre ce problème est basée sur les techniques utilisées en programmation linéaire en nombres entiers, notamment celles de génération de colonnes et de coupes. Ces méthodes sont introduites dans un algorithme général de branch-and-bound basé sur la relaxation linéaire. Nous avons testé notre méthode sur quatre groupes d’instances de tailles différentes, et nous l’avons comparée à CPLEX, qui constitue un des meilleurs solveurs permettant de résoudre des problèmes d’optimisation, ainsi qu’à une méthode existante dans la littérature combinant des méthodes exactes et heuristiques. Notre méthode a été plus performante que ces deux méthodes, notamment pour les instances de très grandes tailles.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les réseaux organiques covalents (COFs) sont des réseaux bidimensionnels et tridimensionnels assemblés seulement par des atomes légers, c’est-à-dire de la première et deuxième rangée du tableau périodique. Ceux-ci ont montré des propriétés de porosité pouvant être exploitées dans le stockage, dans la catalyse et dans la séparation moléculaire. La plupart de ces matériaux ont été obtenus par une réaction finale de condensation, ce qui nuit à leurs cristallisations, donc à l’homogénéité et à la caractérisation détaillée de ces matériaux. Les p-xylylènes de Thiele et Tschitschibabin sont des molécules qui ont suscité l’intérêt pour leurs structures et leurs propriétés magnétiques. Subséquemment, Wittig a démontré que le remplacement des fragments diphénylméthylène par des fragments fluorénylidène sur le p-xylylène de Thiele donne des molécules pouvant s’oligomériser pour former un tétramère. Dans notre étude, nous avons examiné l’assemblage de dérivés fluorénylidène dans le but d’obtenir un COF. Tout d’abord, un dérivé linéaire similaire à ce que Wittig a obtenu a été synthétisé afin de vérifier l’assemblage à partir d’un cœur spirobifluorényle. Ces molécules se sont assemblées en tétramère, comme prévu, et en hexamère. Ces deux résultats ont pu être rationalisés par une étude à l’état solide par diffraction des rayons-X. L’empilement tridimensionnel a également été étudié pour ces deux molécules. Subséquemment, des dérivés tétraédriques ont été synthétisés afin d’étudier leurs assemblages. Un premier dérivé est resté sous sa forme quinoïdale et ne s’est pas assemblé, alors qu’un second dérivé a mené à un dimère partiellement assemblé. La structure de ce dernier suggère la formation d’un polymère linéaire pour ce composé dans le cas où il aurait été possible de l’assembler complètement.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’infonuage est un nouveau paradigme de services informatiques disponibles à la demande qui a connu une croissance fulgurante au cours de ces dix dernières années. Le fournisseur du modèle de déploiement public des services infonuagiques décrit le service à fournir, le prix, les pénalités en cas de violation des spécifications à travers un document. Ce document s’appelle le contrat de niveau de service (SLA). La signature de ce contrat par le client et le fournisseur scelle la garantie de la qualité de service à recevoir. Ceci impose au fournisseur de gérer efficacement ses ressources afin de respecter ses engagements. Malheureusement, la violation des spécifications du SLA se révèle courante, généralement en raison de l’incertitude sur le comportement du client qui peut produire un nombre variable de requêtes vu que les ressources lui semblent illimitées. Ce comportement peut, dans un premier temps, avoir un impact direct sur la disponibilité du service. Dans un second temps, des violations à répétition risquent d'influer sur le niveau de confiance du fournisseur et sur sa réputation à respecter ses engagements. Pour faire face à ces problèmes, nous avons proposé un cadre d’applications piloté par réseau bayésien qui permet, premièrement, de classifier les fournisseurs dans un répertoire en fonction de leur niveau de confiance. Celui-ci peut être géré par une entité tierce. Un client va choisir un fournisseur dans ce répertoire avant de commencer à négocier le SLA. Deuxièmement, nous avons développé une ontologie probabiliste basée sur un réseau bayésien à entités multiples pouvant tenir compte de l’incertitude et anticiper les violations par inférence. Cette ontologie permet de faire des prédictions afin de prévenir des violations en se basant sur les données historiques comme base de connaissances. Les résultats obtenus montrent l’efficacité de l’ontologie probabiliste pour la prédiction de violation dans l’ensemble des paramètres SLA appliqués dans un environnement infonuagique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Une des voies les plus étudiées dans le contrôle locomoteur est la voie dopaminergique ascendante, vu son importance dans les maladies qui touchent la locomotion, comme la maladie du Parkinson. La substance noire pars compacta (A9; SNc) et l’aire tegmentaire ventrale (A10; VTA) envoient des projections dopaminergiques (DA+) vers les ganglions de la base (GB) qui à leur tour projettent vers la région locomotrice mésencéphalique (RLM), une région de tronc cérébral qui contrôle la locomotion chez les vertébrés. Des terminaisons DA+ au niveau de la RLM ont récemment été découvertes chez le singe. Donc, il semblait intéressant de savoir d’où provenaient ces projections DA+ et si elles étaient maintenues de manière équivalente dans l’évolution des espèces animales. Nous nous sommes donc penchés sur deux espèces animales en particulier, la lamproie et le triton. Dans ce travail, nous avons observé une voie DA+ descendante du tubercule postérieur (PT; homologue à la substance noire pars compacta et à l’aire tegmentaire ventrale chez les mammifères) directement vers la RLM, sans passer par l’intermédiaire des GB. Cette voie DA+ descendante a été observée autant chez la lamproie que chez le triton, à la suite d’injections de marqueurs rétrogrades et de détection immunohistochimique de la tyrosine hydroxylase (TH) ou de la dopamine (DA). La voie DA+ descendante semble donc conservée au cours de l’évolution des espèces vertébrés, bien que l’importance relative de la voie ascendante DA+ semble augmenter au cours de l’évolution.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire a pour objet d’étude les échanges épistolaires entre Robert Choquette et Louis Dantin, Alfred DesRochers et, dans une moindre mesure, Claude-Henri Grignon, Émile Coderre et Albert Pelletier. Les lettres en question, qui n'ont jamais été publiées, sont conservées pour l’essentiel dans le Fonds d'archives Robert-Choquette, qui n’est accessible aux chercheurs que depuis 2006. L'objectif de cette étude est de mesurer la voix et la part de Robert Choquette au sein des réseaux littéraires des années vingt et trente. La première partie du premier chapitre de ce mémoire est essentiellement théorique; la position de la lettre au sein de l'œuvre d'un écrivain, la constitution, par les lettres, d'un réseau littéraire ainsi que les rapports entre destinateur et destinataire y sont définis. Par la suite, les échanges épistolaires entre Choquette et ses correspondants sont examinés afin de mettre en lumière les rapports de force exploités dans ce réseau. Cette étude, qui se base sur un corpus de lettres rédigées entre 1927 et 1943, montre également l'évolution des ambitions poétiques du poète. Dans le but d'observer l'empreinte des correspondants de Choquette sur son projet littéraire, les deuxième et troisième chapitres du mémoire sont consacrés à l'analyse de ses recueils Metropolitan Museum et Suite marine. L'étude des échanges spécifiques portant sur ces deux œuvres expose une transformation quant au choix des images utilisées par Choquette pour se représenter, ainsi que l'évolution de ses attentes envers ses destinataires.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les souvenirs sont encodés dans le cerveau grâce aux configurations uniques de vastes réseaux neuronaux. Chaque connexion dans ces circuits est apte à être modifiée. Ces changements durables s’opèrent au niveau des synapses grâce à une synthèse de protéines de novo et génèrent ce qu’on nomme des traces mnésiques. Plusieurs preuves indiquent que, dans certaines formes de plasticité synaptique à long terme, cette synthèse a lieu dans les dendrites près des synapses activées plutôt que dans le corps cellulaire. Cependant, les mécanismes qui régulent cette traduction de protéines demeurent encore nébuleux. La phase d’initiation de la traduction est une étape limitante et hautement régulée qui, selon plusieurs chercheurs, constitue la cible principale des mécanismes de régulation de la traduction dans la plasticité synaptique à long terme. Le présent projet de recherche infirme cette hypothèse dans une certaine forme de plasticité synaptique, la dépression à long terme dépendante des récepteurs métabotropiques du glutamate (mGluR-LTD). À l’aide d’enregistrements électrophysiologiques de neurones hippocampiques en culture couplés à des inhibiteurs pharmacologiques, nous montrons que la régulation de la traduction implique les étapes de l’élongation et de la terminaison et non celle de l’initiation. De plus, nous démontrons grâce à des stratégies de knockdown d’expression d’ARN que la protéine de liaison d’ARNm Staufen 2 joue un rôle déterminant dans la mGluR-LTD induite en cultures. Dans leur ensemble, les résultats de la présente étude viennent appuyer un modèle de régulation de la traduction locale de protéines qui est indépendante de l’initiation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cet article propose un état des lieux sur les revues littéraires numériques. Cette tâche pourrait sembler facile si l’on considère que ces expériences existent depuis très peu de temps. Les premières revues en ligne apparaissent, en effet, au début des années 1990. Pourtant, la question est beaucoup plus complexe que ce que l’on pourrait penser, et cela, pour une série de raisons qui seront analysées dans cet article. Il n’est tout d’abord pas évident de s’entendre sur ce que l’on définit par l’expression « revue littéraire numérique ». D’une part car on fait référence, avec le mot « numérique », à une série d’expériences et de pratiques hétérogènes et différentes qui peuvent difficilement être regroupées ensemble. D’autre part parce que ce qu’on appelle désormais la « révolution numérique » a déterminé des changements importants quant au sens des contenus, de leur production, de leur validation et de leur distribution et a par conséquent fortement affecté la signification du mot « revue » lui-même. Il faudra ainsi prendre séparément en considération une série de phénomènes différents et essayer de rendre compte de pratiques hétérogènes qui se chevauchent et empiètent l’une sur l’autre. L’article proposera d’abord une analyse des enjeux de la numérisation des revues, à savoir le processus de transposition des revues papier au format électronique. Il s’attaquera ensuite aux expériences des revues numériques dès leur création pour comprendre s’il y a une différence, et laquelle, entre les premières et les secondes. Pour finir, on tentera de comprendre en quoi le numérique en tant que phénomène culturel — et en particulier les changements de diffusion et de circulation des contenus ainsi que les différentes formes de ce que l’on appelle désormais « éditorialisation » — a transformé l’idée même de revue et donné lieu à des pratiques et à des expériences complexes et hybrides dont la place dans le panorama culturel est difficile à saisir.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Chez plusieurs espèces, les neurones auditifs sensibles à la durée de la stimulation sont présents au niveau des collicules inférieurs. Toutefois, le décours temporel de leur développement fonctionnel est inconnu. Étant donné que le collicule supérieur est l’un des principaux relais sous-cortical impliqué dans l’intégration des stimuli audio-visuels, nous voulons déterminer si le collicule supérieur du rat contient de tels neurones et s’ils sont sensibles et sélectifs à différentes durées de stimulation auditive. De plus, l'originalité de cette étude est de déterminer les étapes de leur maturation fonctionnelle. Des enregistrements neuronaux unitaires et extra-cellulaires sont effectués dans le collicule supérieur de rats juvéniles (P15-P18, P21-P24, P27-P30) et adultes anesthésiés. La sensibilité à la durée est déterminée lors de la présentation de bruits gaussiens (2-10 dB SPL au-dessus du seuil) de durées variables (3-100 ms). Seulement un faible pourcentage des neurones du collicule supérieur est de type passe-bande (3-9% des neurones parmi les ratons et 20% chez les rats adultes). Une différence significative de la distribution entre les différents types de neurones auditifs sensibles à la durée est présente au cours du développement: les neurones de type passe-haut (63-75%) sont présents en majorité chez les groupes juvéniles alors que 43% des neurones sont de type insensible à la durée de la stimulation auditive chez les rats adultes. Ces résultats montrent qu’une population importante de neurones auditifs du collicule supérieur du rat est sensible à la durée des signaux sonores et qu’un développement fonctionnel important survient au cours du premier mois postnatal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Des travaux récents démontrent que certains neurones dopaminergiques du mésencéphale ont la capacité de libérer du glutamate en plus de la dopamine (DA). Ce phénomène de « co-transmission » requiert l’expression du transporteur vésiculaire du glutamate de type 2 (VGLUT2) dans les neurones dopaminergiques. Certaines observations montrent que l’expression de VGLUT2 dans les neurones dopaminergiques survient tôt durant leur développement et est essentiellement limitée aux neurones de l’aire tegmentaire ventrale (VTA). De plus, cette libération de glutamate se retrouve principalement au niveau des terminaisons de ces neurones dans le striatum ventral, mais pas dans le striatum dorsal. Ces données suggèrent d’une part un rôle développemental possible du glutamate dans les neurones dopaminergiques, et d’autre part, que les signaux dérivés des neurones cibles puissent réguler le double phénotype des neurones dopaminergiques menant ainsi à une plasticité phénotypique. Par ailleurs, il est toujours inconnu si cette libération de glutamate se fait à partir des terminaisons qui relâchent la DA ou à partir de terminaisons axonales distinctes. De plus, le rôle physiologique de ce surprenant phénomène de co-transmission reste également inconnu. Ainsi, dans cette étude, nous avons d’abord démontré in vitro et in vivo que l’expression de VGLUT2 est nécessaire pour la survie et la croissance d’une sous-population de neurones dopaminergiques. En utilisant une lignée de souris ayant une délétion génique spécifique de VGLUT2 dans les neurones dopaminergiques, nous avons observé une diminution du nombre de terminaisons dopaminergiques et glutamatergiques dans le striatum, une baisse de libération de DA dans le striatum ventral, une diminution de la coordination motrice ainsi qu’une diminution de l’activité locomotrice induite par les drogues d’abus. D’autre part, nous avons démontré in vitro et in vivo que les neurones dopaminergiques au double phénotype établissent des terminaisons distinctes afin de relâcher le glutamate et la DA. De plus, nous démontrons que ce phénomène de ségrégation des sites de libération semble être induit par une interaction avec les neurones du striatum ventral. Ces travaux démontrent le rôle physiologique déterminant de la co-transmission DA-glutamate pour l’homéostasie du système DAergique et dévoile une caractéristique fondamentale de l’établissement des terminaisons axonales de ces neurones. Ces travaux permettent ainsi de mieux comprendre les rôles physiologiques de la co-libération de glutamate par les neurones du système nerveux central et présentent une nouvelle perspective sur les dysfonctions potentielles de ces neurones dans les maladies du cerveau.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La baisse de la fécondité permet aux couples d'investir davantage dans la scolarité de chacun de leurs enfants (évidence dans les pays occidentaux, d’Asie et d’Amérique latine). Ce postulat est l’un des arguments clés des politiques de planification familiale en Afrique subsaharienne. Pourtant, la plupart des études sur l'Afrique ont trouvé une corrélation nulle ou même une relation positive entre le nombre d'enfants dans un ménage et leur niveau de scolarité. Ces résultats mitigés sont généralement expliqués par des solidarités familiales et des transferts de ressources qui pourraient réduire la pression occasionnée par une descendance nombreuse sur les ressources du ménage, et des problèmes méthodologiques inhérents à plusieurs recherches sur la région. L’objectif principal de cette thèse était d’apporter une contribution à une meilleure compréhension des aspects méthodologiques et substantiels relatifs aux liens entre fécondité et scolarisation. Spécifiquement, la thèse visait à évaluer 1) le rôle des réseaux familiaux dans la scolarisation des enfants, 2) la simultanéité des décisions portant sur le nombre d’enfants et leur scolarisation, 3) l’impact causal du nombre d’enfants sur leur scolarisation, et 4) à comprendre les perceptions des parents sur l’école et les coûts et bénéfices de l’éducation des enfants, et dans quelle mesure ces perceptions sont prises en compte dans leurs stratégies reproductives. Quatre articles ont été rédigés en utilisant quatre sources de données complémentaires : l’Observatoire de population de Ouagadougou (OPO), l’enquête Demtrend, l’enquête santé de base et une enquête qualitative, toutes adossées à l’OPO. Dans le premier article, il est ressorti que les familles de grande taille bénéficient d’un appui plus fréquent des réseaux familiaux pour la scolarisation. De plus, les réseaux familiaux seraient en mesure de compenser l’effet négatif d’un nombre élevé d’enfants sur la scolarisation, mais seulement pour une partie de la population qui exclut les plus pauvres. Ainsi, les solidarités familiales de soutien à la scolarisation des enfants sont loin d’être généralisées. Le deuxième article a montré que les enfants dont les mères ont intentionnellement limité leur fécondité avaient de meilleures chances de scolarisation que ceux dont les mères ont connu des problèmes d’infécondité secondaire et n’ont pas atteint leur nombre d’enfants désiré. Par conséquent, les aspirations scolaires ne sont pas indépendantes des décisions de fécondité et l’hypothèse de fécondité naturelle n’est plus tenable dans ce contexte. Le troisième article a révélé, contrairement à la plupart des études antérieures sur l’Afrique subsaharienne, un effet négatif net de la taille de la fratrie sur le niveau d’éducation atteint des enfants, effet qui se renforce d’ailleurs au fur et à mesure que l’on avance dans le système éducatif. Dans le quatrième article, le discours des participants à l’enquête qualitative a indiqué que l’émergence de cette relation négative entre le nombre d’enfants et leur scolarisation dans les quartiers périphériques de Ouagadougou est intimement liée aux changements dans les coûts et bénéfices de l’éducation des enfants qui font reposer dorénavant de façon presque exclusive les dépenses scolaires sur les parents biologiques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les mutations du gène CACNA1A, encodant la sous-unité α du canal calcique voltage-dépendant CaV2.1, causent l’ataxie épisodique de type 2 (EA2) chez l’humain. Nous avons investigué une cohorte de 16 patients de quatre familles canadiennes-françaises porteurs de mutations induisant une perte de fonction du gène CACNA1A. Outre une ataxie épisodique et un risque élevé d’épilepsie, la majorité de ces patients présentait des symptômes neurocognitifs incluant de l’inattention, des troubles d’apprentissage et une rigidité cognitive. Nous avons récemment démontré qu’une délétion sélective de Cacna1a dans les interneurones (INs) GABAergiques corticaux induit une dysfonction synaptique des IN exprimant la parvalbumine (PV) et suffit à induire une épilepsie généralisée. Cependant, les mécanismes sous-tendant l’atteinte cognitive associée aux délétions du gène CACNA1A sont inconnus. Nous postulons que la perte sélective d’inhibition périsomatique corticale résultant de la dysfonction synaptique des IN PV contribue aux déficits cognitifs associés aux délétions de Cacna1a. Afin d’investiguer cette hypothèse, nous avons généré une lignée de souris mutantes portant une délétion hétérozygote conditionnelle de Cacna1a restreinte aux populations neuronales exprimant la PV (PVcre; Cacna1ac/+). En couplant optogénétique et électrophysiologie, nous avons démontré que cette mutation affecte significativement l’inhibition des cellules pyramidales du cortex orbitofrontal par les IN PV. Nous avons de plus démontré que les mutants PVcre; Cacna1ac/+ présentent des troubles d’impulsivité et de rigidité cognitive dans différents paradigmes comportementaux. En conclusion, nos travaux suggèrent qu’une haploinsuffisance de Cacna1a engendre des déficits cognitifs et comportementaux en partie imputables à une dysfonction de l’inhibition périsomatique au niveau des circuits orbitofrontaux.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le problème de conception de réseaux est un problème qui a été beaucoup étudié dans le domaine de la recherche opérationnelle pour ses caractéristiques, et ses applications dans des nombreux domaines tels que le transport, les communications, et la logistique. Nous nous intéressons en particulier dans ce mémoire à résoudre le problème de conception de réseaux avec coûts fixes et sans capacité, en satisfaisant les demandes de tous les produits tout en minimisant la somme des coûts de transport de ces produits et des coûts fixes de conception du réseau. Ce problème se modélise généralement sous la forme d’un programme linéaire en nombres entiers incluant des variables continues. Pour le résoudre, nous avons appliqué la méthode exacte de Branch-and-Bound basée sur une relaxation linéaire du problème avec un critère d’arrêt, tout en exploitant les méthodes de génération de colonnes et de génération de coupes. Nous avons testé la méthode de Branch-and-Price-and-Cut sur 156 instances divisées en cinq groupes de différentes tailles, et nous l’avons comparée à Cplex, l’un des meilleurs solveurs d’optimisation mathématique, ainsi qu’à la méthode de Branch-and- Cut. Notre méthode est compétitive et plus performante sur les instances de grande taille ayant un grand nombre de produits.