8 resultados para Réseaux littéraires

em Université Laval Mémoires et thèses électroniques


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les réseaux véhiculaires mobiles, ou Vehicular Ad-hoc NETworks (VANETs), existent depuis les années 80, mais sont de plus en plus développés depuis quelques années dans différentes villes à travers le monde. Ils constituent un apport d’informations aux réseaux routiers grâce à la mise en place de communications entre ses constituants : principalement les véhicules, mais aussi certaines infrastructures de bords de routes liées directement aux automobilistes (feux de circulation, parcomètres, infrastructures spécialisées pour les VANETs et bien d’autres). L’ajout des infrastructures apporte un support fixe à la dissémination des informations dans le réseau. Le principal objectif de ce type de réseau est d’améliorer la sécurité routière, les conditions de circulations, et d’apporter aux conducteurs et aux passagers quelques applications publicitaires ou de divertissement. Pour cela, il est important de faire circuler l’information de la manière la plus efficace possible entre les différents véhicules. L’utilisation des infrastructures pour la simulation de ces réseaux est bien souvent négligée. En effet, une grande partie des protocoles présentés dans la littérature simulent un réseau ad-hoc avec des noeuds se déplaçant plus rapidement et selon une carte définie. Cependant, ils ne prennent pas en compte les spécificités même d’un réseau véhiculaire mobile. Le routage de l’information dans les réseaux véhiculaires mobiles utilise les infrastructures de façon certes opportuniste, mais à terme, les infrastructures seront très présentes dans les villes et sur les autoroutes. C’est pourquoi nous nous sommes concentrés dans ce mémoire à l’étude des variations des différentes métriques du routage de l’information lors de l’ajout d’infrastructures sur une autoroute avec l’utilisation du protocole de routage AODV. De plus, nous avons modifié le protocole AODV afin d’obliger les messages à emprunter le chemin passant par les infrastructures si celles-ci sont disponibles. Les résultats présentés sont encourageants, et nous montrent qu’il est important de simuler les réseaux VANETs de manière complète, en considérant les infrastructures.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette recherche, de nature exploratoire et descriptive, s’intéresse à la trajectoire de recherche d’aide chez les parents vivant des difficultés avec leur adolescent. Cette recherche utilise une méthodologie qualitative et vise à améliorer la compréhension actuelle des processus de recherche d’aide des parents et à identifier l’influence des dynamiques relationnelles et de la réponse sociale obtenue. Notre échantillon est composé de dix parents ayant eu recours à une aide professionnelle concernant des difficultés avec leur adolescent. Notre cueillette de données s’est faite à l’aide d’une entrevue semi-structurée à questions ouvertes et nous avons procédé à une analyse thématique de celles-ci. Les résultats révèlent la complexité derrière les comportements de recherches d’aide et les différentes difficultés rencontrées. Dans leurs trajectoires, trois principaux moments-clés sont distinguables : la reconnaissance du problème, la recherche de solutions et la réponse à la demande d’aide. Les différentes influences et interactions des membres du réseau d’aide informelle, du milieu scolaire et du système de services sont également détaillées. Les résultats mettent en lumière l’importance des dynamiques de négociation au sein du couple parental et l’impact des listes d’attente et des interruptions dans les services d’aide. Les résultats exposent que cette expérience est assez éprouvante pour les parents. Bien qu’elle ne permette pas de résoudre tous les problèmes rencontrés, elle se révèle avec le recul être salutaire, pour la plupart des parents.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Même si les Humanistes et les Lumières tentèrent de réhabiliter le personnage de Julien l’Apostat, leurs tentatives furent somme toute vaines. En effet, encore au début du siècle dernier on parlait de l’Apostat sans même qu’il soit nécessaire de nommer Julien. Systématiquement, il était qualifié de suppôt de Satan, de magicien, d’impie pratiquant des sacrifices humains. Le présent travail se propose d’analyser l’évolution de la figure de l’empereur Julien durant les deux siècles qui suivirent sa mort, en 363, et se divise en trois chapitres. Le premier se concentre sur les faits historiquement attestés dans les différentes sources (épigraphiques, numismatiques, littéraires) au sujet de l’homme et traite des épisodes principaux de sa vie - sa naissance, son césarat, sa proclamation - sous la forme d’une analyse historique. Le deuxième étudie l’évolution de son image à travers les sources littéraires païennes et chrétiennes du IVe au VIe siècle, en analysant, dans un premier lieu, le portrait-bilan que les auteurs ont peint (portrait de Julien par lui-même ; portrait physique ; portrait psychologique). Le troisième chapitre est consacré au Roman syriaque de Julien l’Apostat et à l’étude du personnage désormais légendaire, où des extraits illustrant les thèmes du deuxième chapitre sont analysés. Le mémoire sert principalement à mettre en place le contexte des siècles précédant la mise par écrit du Roman.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les systèmes de communication optique avec des formats de modulation avancés sont actuellement l’un des sujets de recherche les plus importants dans le domaine de communication optique. Cette recherche est stimulée par les exigences pour des débits de transmission de donnée plus élevés. Dans cette thèse, on examinera les techniques efficaces pour la modulation avancée avec une détection cohérente, et multiplexage par répartition en fréquence orthogonale (OFDM) et multiples tonalités discrètes (DMT) pour la détection directe et la détection cohérente afin d’améliorer la performance de réseaux optiques. Dans la première partie, nous examinons la rétropropagation avec filtre numérique (DFBP) comme une simple technique d’atténuation de nonlinéarité d’amplificateur optique semiconducteur (SOA) dans le système de détection cohérente. Pour la première fois, nous démontrons expérimentalement l’efficacité de DFBP pour compenser les nonlinéarités générées par SOA dans un système de détection cohérente porteur unique 16-QAM. Nous comparons la performance de DFBP avec la méthode de Runge-Kutta quatrième ordre. Nous examinons la sensibilité de performance de DFBP par rapport à ses paramètres. Par la suite, nous proposons une nouvelle méthode d’estimation de paramètre pour DFBP. Finalement, nous démontrons la transmission de signaux de 16-QAM aux taux de 22 Gbaud sur 80km de fibre optique avec la technique d’estimation de paramètre proposée pour DFBP. Dans la deuxième partie, nous nous concentrons sur les techniques afin d’améliorer la performance des systèmes OFDM optiques en examinent OFDM optiques cohérente (CO-OFDM) ainsi que OFDM optiques détection directe (DDO-OFDM). Premièrement, nous proposons une combinaison de coupure et prédistorsion pour compenser les distorsions nonlinéaires d’émetteur de CO-OFDM. Nous utilisons une interpolation linéaire par morceaux (PLI) pour charactériser la nonlinéarité d’émetteur. Dans l’émetteur nous utilisons l’inverse de l’estimation de PLI pour compenser les nonlinéarités induites à l’émetteur de CO-OFDM. Deuxièmement, nous concevons des constellations irrégulières optimisées pour les systèmes DDO-OFDM courte distance en considérant deux modèles de bruit de canal. Nous démontrons expérimentalement 100Gb/s+ OFDM/DMT avec la détection directe en utilisant les constellations QAM optimisées. Dans la troisième partie, nous proposons une architecture réseaux optiques passifs (PON) avec DDO-OFDM pour la liaison descendante et CO-OFDM pour la liaison montante. Nous examinons deux scénarios pour l’allocations de fréquence et le format de modulation des signaux. Nous identifions la détérioration limitante principale du PON bidirectionnelle et offrons des solutions pour minimiser ses effets.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La connectomique est l’étude des cartes de connectivité du cerveau (animal ou humain), qu’on nomme connectomes. À l’aide des outils développés par la science des réseaux complexes, la connectomique tente de décrire la complexité fonctionnelle et structurelle du cerveau. L’organisation des connexions du connectome, particulièrement la hiérarchie sous-jacente, joue un rôle majeur. Jusqu’à présent, les modèles hiérarchiques utilisés en connectomique sont pauvres en propriétés émergentes et présentent des structures régulières. Or, la complexité et la richesse hiérarchique du connectome et de réseaux réels ne sont pas saisies par ces modèles. Nous introduisons un nouveau modèle de croissance de réseaux hiérarchiques basé sur l’attachement préférentiel (HPA - Hierarchical preferential attachment). La calibration du modèle sur les propriétés structurelles de réseaux hiérarchiques réels permet de reproduire plusieurs propriétés émergentes telles que la navigabilité, la fractalité et l’agrégation. Le modèle permet entre autres de contrôler la structure hiérarchique et apporte un support supplémentaire quant à l’influence de la structure sur les propriétés émergentes. Puisque le cerveau est continuellement en activité, nous nous intéressons également aux propriétés dynamiques sur des structures hiérarchiques produites par HPA. L’existence d’états dynamiques d’activité soutenue, analogues à l’état minimal de l’activité cérébrale, est étudiée en imposant une dynamique neuronale binaire. Bien que l’organisation hiérarchique favorise la présence d’un état d’activité minimal, l’activité persistante émerge du contrôle de la propagation par la structure du réseau.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les Homélies et les Reconnaissances du Pseudo-Clément, aussi appelées Pseudo-Clémentines, sont des témoins privilégiés du foisonnement intellectuel et théologique des premiers siècles chrétiens. Alors que la recherche moderne a longtemps tenté de déterminer les différentes étapes de leur constitution (ne posant pour seule conclusion certaine que l’existence d’un « Écrit de base » à leur origine), le présent mémoire offre une enquête littéraire qui permettra de situer l’état final des Pseudo-Clémentines dans leur contexte rédaction, en établissant comment elles dialoguent avec les principaux groupes religieux de leur milieu (chrétiens, judéo-chrétiens, juifs, gnostiques et païens). Dans ce cadre, cette étude définit le dualisme pseudo-clémentin selon ses quatre aspects : la règle de syzygies ou des couples antagonistes, qui veut que tout, dans la création, soit organisé par Dieu en couples opposés ; les prophéties masculine et féminine, dont la première apporte la vérité alors que la seconde apporte le mensonge ; la doctrine des deux rois, dont l’un, qui est bon, gouverne le royaume du monde à venir, alors que l’autre, qui est mauvais, règne sur le monde présent ; la doctrine des deux voies, dont l’une mène au salut et l’autre à la perdition. Après une analyse de ces thèmes au sein des Pseudo-Clémentines, qui révèle les différences qui existent entre les deux textes, ces mêmes motifs sont recherchés dans la littérature apparentée, en particulier dans les textes gnostiques de la bibliothèque de Nag Hammadi, les textes découverts à Qumrân et la littérature judéo-chrétienne. Les conclusions dégagées permettent de définir précisément le dualisme des Homélies et celui des Reconnaissances, d’identifier des fonctions polémiques et rhétoriques de ce dualisme et de cerner des groupes religieux possiblement alliés et ennemis des Pseudo-Clémentines.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’objectif du vaste projet de recherche dans lequel s’inscrit ce mémoire est de guérir le diabète de type 1 en fabriquant un pancréas bioartificiel vascularisé contenant des cellules bêta (i.e. les cellules sécrétant l’insuline). Ce dispositif permettrait de rendre aux personnes atteintes par le diabète de type 1 la capacité de sécréter par elles-mêmes de l’insuline et de réguler leur glycémie. La vascularisation est actuellement un enjeu de taille dans le domaine du génie tissulaire. La plupart des tissus incorporant des cellules générées par le génie tissulaire sont actuellement fortement limités en épaisseur faute d’être vascularisés adéquatement. Pour les tissus dont l’épaisseur dépasse 400 μm, la vascularisation est nécessaire à la survie de la plupart des cellules qui autrement souffriraient d’hypoxie, les empêchant ainsi d’accomplir leurs fonctions [1]. Ce mémoire présente le développement et la mise en service d’un dispositif d’extrusion tridimensionnelle de sucre vitrifié pour la vascularisation d’un pancréas bioartificiel. Ce dispositif a été développé au laboratoire de recherche sur les procédés d’impression 3D ainsi qu’au bureau de design du département de génie mécanique de l’Université Laval. Grâce à cette technique d’impression 3D novatrice et à la caractérisation du procédé, il est maintenant possible de produire rapidement et avec précision des structures temporaires en sucre vitrifié pour la fabrication de réseaux vasculaires tridimensionnels complexes. Les structures temporaires peuvent, après leur production, être utilisées pour réaliser le moulage rapide de constructions vascularisées avec des matériaux tels que du polydiméthylsiloxane (PDMS) ou des hydrogels chargés de cellules biologiques. De par la nature du matériel utilisé, les moules temporaires peuvent être facilement et rapidement dissous dans une solution aqueuse et laisser place à un réseau de canaux creux sans créer de rejets toxiques, ce qui représente un avantage majeur dans un contexte de bio-ingénierie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La compression des données est la technique informatique qui vise à réduire la taille de l’information pour minimiser l’espace de stockage nécessaire et accélérer la transmission des données dans les réseaux à bande passante limitée. Plusieurs techniques de compression telles que LZ77 et ses variantes souffrent d’un problème que nous appelons la redondance causée par la multiplicité d’encodages. La multiplicité d’encodages (ME) signifie que les données sources peuvent être encodées de différentes manières. Dans son cas le plus simple, ME se produit lorsqu’une technique de compression a la possibilité, au cours du processus d’encodage, de coder un symbole de différentes manières. La technique de compression par recyclage de bits a été introduite par D. Dubé et V. Beaudoin pour minimiser la redondance causée par ME. Des variantes de recyclage de bits ont été appliquées à LZ77 et les résultats expérimentaux obtenus conduisent à une meilleure compression (une réduction d’environ 9% de la taille des fichiers qui ont été compressés par Gzip en exploitant ME). Dubé et Beaudoin ont souligné que leur technique pourrait ne pas minimiser parfaitement la redondance causée par ME, car elle est construite sur la base du codage de Huffman qui n’a pas la capacité de traiter des mots de code (codewords) de longueurs fractionnaires, c’est-à-dire qu’elle permet de générer des mots de code de longueurs intégrales. En outre, le recyclage de bits s’appuie sur le codage de Huffman (HuBR) qui impose des contraintes supplémentaires pour éviter certaines situations qui diminuent sa performance. Contrairement aux codes de Huffman, le codage arithmétique (AC) peut manipuler des mots de code de longueurs fractionnaires. De plus, durant ces dernières décennies, les codes arithmétiques ont attiré plusieurs chercheurs vu qu’ils sont plus puissants et plus souples que les codes de Huffman. Par conséquent, ce travail vise à adapter le recyclage des bits pour les codes arithmétiques afin d’améliorer l’efficacité du codage et sa flexibilité. Nous avons abordé ce problème à travers nos quatre contributions (publiées). Ces contributions sont présentées dans cette thèse et peuvent être résumées comme suit. Premièrement, nous proposons une nouvelle technique utilisée pour adapter le recyclage de bits qui s’appuie sur les codes de Huffman (HuBR) au codage arithmétique. Cette technique est nommée recyclage de bits basé sur les codes arithmétiques (ACBR). Elle décrit le cadriciel et les principes de l’adaptation du HuBR à l’ACBR. Nous présentons aussi l’analyse théorique nécessaire pour estimer la redondance qui peut être réduite à l’aide de HuBR et ACBR pour les applications qui souffrent de ME. Cette analyse démontre que ACBR réalise un recyclage parfait dans tous les cas, tandis que HuBR ne réalise de telles performances que dans des cas très spécifiques. Deuxièmement, le problème de la technique ACBR précitée, c’est qu’elle requiert des calculs à précision arbitraire. Cela nécessite des ressources illimitées (ou infinies). Afin de bénéficier de cette dernière, nous proposons une nouvelle version à précision finie. Ladite technique devienne ainsi efficace et applicable sur les ordinateurs avec les registres classiques de taille fixe et peut être facilement interfacée avec les applications qui souffrent de ME. Troisièmement, nous proposons l’utilisation de HuBR et ACBR comme un moyen pour réduire la redondance afin d’obtenir un code binaire variable à fixe. Nous avons prouvé théoriquement et expérimentalement que les deux techniques permettent d’obtenir une amélioration significative (moins de redondance). À cet égard, ACBR surpasse HuBR et fournit une classe plus étendue des sources binaires qui pouvant bénéficier d’un dictionnaire pluriellement analysable. En outre, nous montrons qu’ACBR est plus souple que HuBR dans la pratique. Quatrièmement, nous utilisons HuBR pour réduire la redondance des codes équilibrés générés par l’algorithme de Knuth. Afin de comparer les performances de HuBR et ACBR, les résultats théoriques correspondants de HuBR et d’ACBR sont présentés. Les résultats montrent que les deux techniques réalisent presque la même réduction de redondance sur les codes équilibrés générés par l’algorithme de Knuth.