35 resultados para Réseaux de neurones récurrents


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Méthodologie: Simulation; Analyse discriminante linéaire et logistique; Arbres de classification; Réseaux de neurones en base radiale

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les réseaux véhiculaires mobiles, ou Vehicular Ad-hoc NETworks (VANETs), existent depuis les années 80, mais sont de plus en plus développés depuis quelques années dans différentes villes à travers le monde. Ils constituent un apport d’informations aux réseaux routiers grâce à la mise en place de communications entre ses constituants : principalement les véhicules, mais aussi certaines infrastructures de bords de routes liées directement aux automobilistes (feux de circulation, parcomètres, infrastructures spécialisées pour les VANETs et bien d’autres). L’ajout des infrastructures apporte un support fixe à la dissémination des informations dans le réseau. Le principal objectif de ce type de réseau est d’améliorer la sécurité routière, les conditions de circulations, et d’apporter aux conducteurs et aux passagers quelques applications publicitaires ou de divertissement. Pour cela, il est important de faire circuler l’information de la manière la plus efficace possible entre les différents véhicules. L’utilisation des infrastructures pour la simulation de ces réseaux est bien souvent négligée. En effet, une grande partie des protocoles présentés dans la littérature simulent un réseau ad-hoc avec des noeuds se déplaçant plus rapidement et selon une carte définie. Cependant, ils ne prennent pas en compte les spécificités même d’un réseau véhiculaire mobile. Le routage de l’information dans les réseaux véhiculaires mobiles utilise les infrastructures de façon certes opportuniste, mais à terme, les infrastructures seront très présentes dans les villes et sur les autoroutes. C’est pourquoi nous nous sommes concentrés dans ce mémoire à l’étude des variations des différentes métriques du routage de l’information lors de l’ajout d’infrastructures sur une autoroute avec l’utilisation du protocole de routage AODV. De plus, nous avons modifié le protocole AODV afin d’obliger les messages à emprunter le chemin passant par les infrastructures si celles-ci sont disponibles. Les résultats présentés sont encourageants, et nous montrent qu’il est important de simuler les réseaux VANETs de manière complète, en considérant les infrastructures.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette recherche, de nature exploratoire et descriptive, s’intéresse à la trajectoire de recherche d’aide chez les parents vivant des difficultés avec leur adolescent. Cette recherche utilise une méthodologie qualitative et vise à améliorer la compréhension actuelle des processus de recherche d’aide des parents et à identifier l’influence des dynamiques relationnelles et de la réponse sociale obtenue. Notre échantillon est composé de dix parents ayant eu recours à une aide professionnelle concernant des difficultés avec leur adolescent. Notre cueillette de données s’est faite à l’aide d’une entrevue semi-structurée à questions ouvertes et nous avons procédé à une analyse thématique de celles-ci. Les résultats révèlent la complexité derrière les comportements de recherches d’aide et les différentes difficultés rencontrées. Dans leurs trajectoires, trois principaux moments-clés sont distinguables : la reconnaissance du problème, la recherche de solutions et la réponse à la demande d’aide. Les différentes influences et interactions des membres du réseau d’aide informelle, du milieu scolaire et du système de services sont également détaillées. Les résultats mettent en lumière l’importance des dynamiques de négociation au sein du couple parental et l’impact des listes d’attente et des interruptions dans les services d’aide. Les résultats exposent que cette expérience est assez éprouvante pour les parents. Bien qu’elle ne permette pas de résoudre tous les problèmes rencontrés, elle se révèle avec le recul être salutaire, pour la plupart des parents.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire comporte deux parties. La première consiste en un recueil de nouvelles, intitulé Sans crier gare, composé d’un prélude, de deux interludes et de sept nouvelles. Le fil conducteur du recueil tient dans l’idée d’aider son prochain et dans la reprise d’un personnage, soit le protagoniste de la première nouvelle. Son évolution dans sa propre histoire, laquelle se répercute chronologiquement dans les six autres, dévoile les multiples facettes de sa personnalité, justifie en quelque sorte la quête des autres personnages, tous différents, mais à la recherche d’un sens à leur vie, et offre des contrastes entre les nouvelles en même temps qu’elle permet de les rapprocher. Les récits exposent des personnages évoluant dans un univers contemporain, quotidien et imprégné par la vitesse et le stress de la ville, donc propice aux bouleversements et à l’inattendu. La partie critique, Les interludes et les personnages récurrents : créateurs de ponts entre les textes d’un recueil de nouvelles, porte sur l’analyse des interludes et des personnages récurrents dans Les aurores montréales de Monique Proulx, L’assassiné de l’intérieur de Jean-Jacques Pelletier, La mort en friche d’Éric Fourlanty et Sans cœur et sans reproche de Monique Proulx. Elle s’intéresse à leur contribution dans la création d’un effet de continuité et, donc, à la façon dont ils peuvent être envisagés en tant que modalités de communication entre les textes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les systèmes de communication optique avec des formats de modulation avancés sont actuellement l’un des sujets de recherche les plus importants dans le domaine de communication optique. Cette recherche est stimulée par les exigences pour des débits de transmission de donnée plus élevés. Dans cette thèse, on examinera les techniques efficaces pour la modulation avancée avec une détection cohérente, et multiplexage par répartition en fréquence orthogonale (OFDM) et multiples tonalités discrètes (DMT) pour la détection directe et la détection cohérente afin d’améliorer la performance de réseaux optiques. Dans la première partie, nous examinons la rétropropagation avec filtre numérique (DFBP) comme une simple technique d’atténuation de nonlinéarité d’amplificateur optique semiconducteur (SOA) dans le système de détection cohérente. Pour la première fois, nous démontrons expérimentalement l’efficacité de DFBP pour compenser les nonlinéarités générées par SOA dans un système de détection cohérente porteur unique 16-QAM. Nous comparons la performance de DFBP avec la méthode de Runge-Kutta quatrième ordre. Nous examinons la sensibilité de performance de DFBP par rapport à ses paramètres. Par la suite, nous proposons une nouvelle méthode d’estimation de paramètre pour DFBP. Finalement, nous démontrons la transmission de signaux de 16-QAM aux taux de 22 Gbaud sur 80km de fibre optique avec la technique d’estimation de paramètre proposée pour DFBP. Dans la deuxième partie, nous nous concentrons sur les techniques afin d’améliorer la performance des systèmes OFDM optiques en examinent OFDM optiques cohérente (CO-OFDM) ainsi que OFDM optiques détection directe (DDO-OFDM). Premièrement, nous proposons une combinaison de coupure et prédistorsion pour compenser les distorsions nonlinéaires d’émetteur de CO-OFDM. Nous utilisons une interpolation linéaire par morceaux (PLI) pour charactériser la nonlinéarité d’émetteur. Dans l’émetteur nous utilisons l’inverse de l’estimation de PLI pour compenser les nonlinéarités induites à l’émetteur de CO-OFDM. Deuxièmement, nous concevons des constellations irrégulières optimisées pour les systèmes DDO-OFDM courte distance en considérant deux modèles de bruit de canal. Nous démontrons expérimentalement 100Gb/s+ OFDM/DMT avec la détection directe en utilisant les constellations QAM optimisées. Dans la troisième partie, nous proposons une architecture réseaux optiques passifs (PON) avec DDO-OFDM pour la liaison descendante et CO-OFDM pour la liaison montante. Nous examinons deux scénarios pour l’allocations de fréquence et le format de modulation des signaux. Nous identifions la détérioration limitante principale du PON bidirectionnelle et offrons des solutions pour minimiser ses effets.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La connectomique est l’étude des cartes de connectivité du cerveau (animal ou humain), qu’on nomme connectomes. À l’aide des outils développés par la science des réseaux complexes, la connectomique tente de décrire la complexité fonctionnelle et structurelle du cerveau. L’organisation des connexions du connectome, particulièrement la hiérarchie sous-jacente, joue un rôle majeur. Jusqu’à présent, les modèles hiérarchiques utilisés en connectomique sont pauvres en propriétés émergentes et présentent des structures régulières. Or, la complexité et la richesse hiérarchique du connectome et de réseaux réels ne sont pas saisies par ces modèles. Nous introduisons un nouveau modèle de croissance de réseaux hiérarchiques basé sur l’attachement préférentiel (HPA - Hierarchical preferential attachment). La calibration du modèle sur les propriétés structurelles de réseaux hiérarchiques réels permet de reproduire plusieurs propriétés émergentes telles que la navigabilité, la fractalité et l’agrégation. Le modèle permet entre autres de contrôler la structure hiérarchique et apporte un support supplémentaire quant à l’influence de la structure sur les propriétés émergentes. Puisque le cerveau est continuellement en activité, nous nous intéressons également aux propriétés dynamiques sur des structures hiérarchiques produites par HPA. L’existence d’états dynamiques d’activité soutenue, analogues à l’état minimal de l’activité cérébrale, est étudiée en imposant une dynamique neuronale binaire. Bien que l’organisation hiérarchique favorise la présence d’un état d’activité minimal, l’activité persistante émerge du contrôle de la propagation par la structure du réseau.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’objectif du vaste projet de recherche dans lequel s’inscrit ce mémoire est de guérir le diabète de type 1 en fabriquant un pancréas bioartificiel vascularisé contenant des cellules bêta (i.e. les cellules sécrétant l’insuline). Ce dispositif permettrait de rendre aux personnes atteintes par le diabète de type 1 la capacité de sécréter par elles-mêmes de l’insuline et de réguler leur glycémie. La vascularisation est actuellement un enjeu de taille dans le domaine du génie tissulaire. La plupart des tissus incorporant des cellules générées par le génie tissulaire sont actuellement fortement limités en épaisseur faute d’être vascularisés adéquatement. Pour les tissus dont l’épaisseur dépasse 400 μm, la vascularisation est nécessaire à la survie de la plupart des cellules qui autrement souffriraient d’hypoxie, les empêchant ainsi d’accomplir leurs fonctions [1]. Ce mémoire présente le développement et la mise en service d’un dispositif d’extrusion tridimensionnelle de sucre vitrifié pour la vascularisation d’un pancréas bioartificiel. Ce dispositif a été développé au laboratoire de recherche sur les procédés d’impression 3D ainsi qu’au bureau de design du département de génie mécanique de l’Université Laval. Grâce à cette technique d’impression 3D novatrice et à la caractérisation du procédé, il est maintenant possible de produire rapidement et avec précision des structures temporaires en sucre vitrifié pour la fabrication de réseaux vasculaires tridimensionnels complexes. Les structures temporaires peuvent, après leur production, être utilisées pour réaliser le moulage rapide de constructions vascularisées avec des matériaux tels que du polydiméthylsiloxane (PDMS) ou des hydrogels chargés de cellules biologiques. De par la nature du matériel utilisé, les moules temporaires peuvent être facilement et rapidement dissous dans une solution aqueuse et laisser place à un réseau de canaux creux sans créer de rejets toxiques, ce qui représente un avantage majeur dans un contexte de bio-ingénierie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La compression des données est la technique informatique qui vise à réduire la taille de l’information pour minimiser l’espace de stockage nécessaire et accélérer la transmission des données dans les réseaux à bande passante limitée. Plusieurs techniques de compression telles que LZ77 et ses variantes souffrent d’un problème que nous appelons la redondance causée par la multiplicité d’encodages. La multiplicité d’encodages (ME) signifie que les données sources peuvent être encodées de différentes manières. Dans son cas le plus simple, ME se produit lorsqu’une technique de compression a la possibilité, au cours du processus d’encodage, de coder un symbole de différentes manières. La technique de compression par recyclage de bits a été introduite par D. Dubé et V. Beaudoin pour minimiser la redondance causée par ME. Des variantes de recyclage de bits ont été appliquées à LZ77 et les résultats expérimentaux obtenus conduisent à une meilleure compression (une réduction d’environ 9% de la taille des fichiers qui ont été compressés par Gzip en exploitant ME). Dubé et Beaudoin ont souligné que leur technique pourrait ne pas minimiser parfaitement la redondance causée par ME, car elle est construite sur la base du codage de Huffman qui n’a pas la capacité de traiter des mots de code (codewords) de longueurs fractionnaires, c’est-à-dire qu’elle permet de générer des mots de code de longueurs intégrales. En outre, le recyclage de bits s’appuie sur le codage de Huffman (HuBR) qui impose des contraintes supplémentaires pour éviter certaines situations qui diminuent sa performance. Contrairement aux codes de Huffman, le codage arithmétique (AC) peut manipuler des mots de code de longueurs fractionnaires. De plus, durant ces dernières décennies, les codes arithmétiques ont attiré plusieurs chercheurs vu qu’ils sont plus puissants et plus souples que les codes de Huffman. Par conséquent, ce travail vise à adapter le recyclage des bits pour les codes arithmétiques afin d’améliorer l’efficacité du codage et sa flexibilité. Nous avons abordé ce problème à travers nos quatre contributions (publiées). Ces contributions sont présentées dans cette thèse et peuvent être résumées comme suit. Premièrement, nous proposons une nouvelle technique utilisée pour adapter le recyclage de bits qui s’appuie sur les codes de Huffman (HuBR) au codage arithmétique. Cette technique est nommée recyclage de bits basé sur les codes arithmétiques (ACBR). Elle décrit le cadriciel et les principes de l’adaptation du HuBR à l’ACBR. Nous présentons aussi l’analyse théorique nécessaire pour estimer la redondance qui peut être réduite à l’aide de HuBR et ACBR pour les applications qui souffrent de ME. Cette analyse démontre que ACBR réalise un recyclage parfait dans tous les cas, tandis que HuBR ne réalise de telles performances que dans des cas très spécifiques. Deuxièmement, le problème de la technique ACBR précitée, c’est qu’elle requiert des calculs à précision arbitraire. Cela nécessite des ressources illimitées (ou infinies). Afin de bénéficier de cette dernière, nous proposons une nouvelle version à précision finie. Ladite technique devienne ainsi efficace et applicable sur les ordinateurs avec les registres classiques de taille fixe et peut être facilement interfacée avec les applications qui souffrent de ME. Troisièmement, nous proposons l’utilisation de HuBR et ACBR comme un moyen pour réduire la redondance afin d’obtenir un code binaire variable à fixe. Nous avons prouvé théoriquement et expérimentalement que les deux techniques permettent d’obtenir une amélioration significative (moins de redondance). À cet égard, ACBR surpasse HuBR et fournit une classe plus étendue des sources binaires qui pouvant bénéficier d’un dictionnaire pluriellement analysable. En outre, nous montrons qu’ACBR est plus souple que HuBR dans la pratique. Quatrièmement, nous utilisons HuBR pour réduire la redondance des codes équilibrés générés par l’algorithme de Knuth. Afin de comparer les performances de HuBR et ACBR, les résultats théoriques correspondants de HuBR et d’ACBR sont présentés. Les résultats montrent que les deux techniques réalisent presque la même réduction de redondance sur les codes équilibrés générés par l’algorithme de Knuth.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire intitulé « Maternité en exil : la construction d’un réseau de soutien à Montréal » propose de documenter les réseaux de soutien des femmes immigrantes d’origine maghrébine. Plus précisément, il aborde l’aide attendue et reçue lors de leur expérience de maternité. Sur la base d’entrevues qualitatives menées dans deux quartiers Montréalais auprès de femmes immigrantes et d’intervenantes du milieu communautaire, le mémoire s’articule autour de plusieurs catégories d’aidants issus de réseaux différents : de la famille, de connaissances, du milieu du travail, d’organismes communautaires ou d’établissements de santé publique. Il a notamment été observé que le réseau féminin entourant les mères immigrantes est très important et que ces femmes mettent en place des stratégies afin de combler leurs attentes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Banque mondiale propose la bonne gouvernance comme la stratégie visant à corriger les maux de la mauvaise gouvernance et de faciliter le développement dans les pays en développement (Carayannis, Pirzadeh, Popescu & 2012; & Hilyard Wilks 1998; Leftwich 1993; Banque mondiale, 1989). Dans cette perspective, la réforme institutionnelle et une arène de la politique publique plus inclusive sont deux stratégies critiques qui visent à établir la bonne gouvernance, selon la Banque et d’autres institutions de Bretton Woods. Le problème, c’est que beaucoup de ces pays en voie de développement ne possèdent pas l’architecture institutionnelle préalable à ces nouvelles mesures. Cette thèse étudie et explique comment un état en voie de développement, le Commonwealth de la Dominique, s’est lancé dans un projet de loi visant l’intégrité dans la fonction publique. Cette loi, la Loi sur l’intégrité dans la fonction publique (IPO) a été adoptée en 2003 et mis en œuvre en 2008. Cette thèse analyse les relations de pouvoir entre les acteurs dominants autour de évolution de la loi et donc, elle emploie une combinaison de technique de l’analyse des réseaux sociaux et de la recherche qualitative pour répondre à la question principale: Pourquoi l’État a-t-il développé et mis en œuvre la conception actuelle de la IPO (2003)? Cette question est d’autant plus significative quand nous considérons que contrairement à la recherche existante sur le sujet, l’IPO dominiquaise diverge considérablement dans la structure du l’IPO type idéal. Nous affirmons que les acteurs "rationnels," conscients de leur position structurelle dans un réseau d’acteurs, ont utilisé leurs ressources de pouvoir pour façonner l’institution afin qu’elle serve leurs intérêts et ceux et leurs alliés. De plus, nous émettons l’hypothèse que: d’abord, le choix d’une agence spécialisée contre la corruption et la conception ultérieure de cette institution reflètent les préférences des acteurs dominants qui ont participé à la création de ladite institution et la seconde, notre hypothèse rivale, les caractéristiques des modèles alternatifs d’institutions de l’intégrité publique sont celles des acteurs non dominants. Nos résultats sont mitigés. Le jeu de pouvoir a été limité à un petit groupe d’acteurs dominants qui ont cherché à utiliser la création de la loi pour assurer leur légitimité et la survie politique. Sans surprise, aucun acteur n’a avancé un modèle alternatif. Nous avons conclu donc que la loi est la conséquence d’un jeu de pouvoir partisan. Cette recherche répond à la pénurie de recherche sur la conception des institutions de l’intégrité publique, qui semblent privilégier en grande partie un biais organisationnel et structurel. De plus, en étudiant le sujet du point de vue des relations de pouvoir (le pouvoir, lui-même, vu sous l’angle actanciel et structurel), la thèse apporte de la rigueur conceptuelle, méthodologique, et analytique au discours sur la création de ces institutions par l’étude de leur genèse des perspectives tant actancielles que structurelles. En outre, les résultats renforcent notre capacité de prédire quand et avec quelle intensité un acteur déploierait ses ressources de pouvoir.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’Internet Physique (IP) est une initiative qui identifie plusieurs symptômes d’inefficacité et non-durabilité des systèmes logistiques et les traite en proposant un nouveau paradigme appelé logistique hyperconnectée. Semblable à l’Internet Digital, qui relie des milliers de réseaux d’ordinateurs personnels et locaux, IP permettra de relier les systèmes logistiques fragmentés actuels. Le but principal étant d’améliorer la performance des systèmes logistiques des points de vue économique, environnemental et social. Se concentrant spécifiquement sur les systèmes de distribution, cette thèse remet en question l’ordre de magnitude du gain de performances en exploitant la distribution hyperconnectée habilitée par IP. Elle concerne également la caractérisation de la planification de la distribution hyperconnectée. Pour répondre à la première question, une approche de la recherche exploratoire basée sur la modélisation de l’optimisation est appliquée, où les systèmes de distribution actuels et potentiels sont modélisés. Ensuite, un ensemble d’échantillons d’affaires réalistes sont créé, et leurs performances économique et environnementale sont évaluées en ciblant de multiples performances sociales. Un cadre conceptuel de planification, incluant la modélisation mathématique est proposé pour l’aide à la prise de décision dans des systèmes de distribution hyperconnectée. Partant des résultats obtenus par notre étude, nous avons démontré qu’un gain substantiel peut être obtenu en migrant vers la distribution hyperconnectée. Nous avons également démontré que l’ampleur du gain varie en fonction des caractéristiques des activités et des performances sociales ciblées. Puisque l’Internet physique est un sujet nouveau, le Chapitre 1 présente brièvement l’IP et hyper connectivité. Le Chapitre 2 discute les fondements, l’objectif et la méthodologie de la recherche. Les défis relevés au cours de cette recherche sont décrits et le type de contributions visés est mis en évidence. Le Chapitre 3 présente les modèles d’optimisation. Influencés par les caractéristiques des systèmes de distribution actuels et potentiels, trois modèles fondés sur le système de distribution sont développés. Chapitre 4 traite la caractérisation des échantillons d’affaires ainsi que la modélisation et le calibrage des paramètres employés dans les modèles. Les résultats de la recherche exploratoire sont présentés au Chapitre 5. Le Chapitre 6 décrit le cadre conceptuel de planification de la distribution hyperconnectée. Le chapitre 7 résume le contenu de la thèse et met en évidence les contributions principales. En outre, il identifie les limites de la recherche et les avenues potentielles de recherches futures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les convertisseurs de longueur d’onde sont essentiels pour la réalisation de réseaux de communications optiques à routage en longueur d’onde. Dans la littérature, les convertisseurs de longueur d’onde basés sur le mélange à quatre ondes dans les amplificateurs optiques à semi-conducteur constituent une solution extrêmement intéressante, et ce, en raison de leurs nombreuses caractéristiques nécessaires à l’implémentation de tels réseaux de communications. Avec l’émergence des systèmes commerciaux de détection cohérente, ainsi qu’avec les récentes avancées dans le domaine du traitement de signal numérique, il est impératif d’évaluer la performance des convertisseurs de longueur d’onde, et ce, dans le contexte des formats de modulation avancés. Les objectifs de cette thèse sont : 1) d’étudier la faisabilité des convertisseurs de longueur d’onde basés sur le mélange à quatre ondes dans les amplificateurs optiques à semi-conducteur pour les formats de modulation avancés et 2) de proposer une technique basée sur le traitement de signal numérique afin d’améliorer leur performance. En premier lieu, une étude expérimentale de la conversion de longueur d’onde de formats de modulation d’amplitude en quadrature (quadrature amplitude modulation - QAM) est réalisée. En particulier, la conversion de longueur d’onde de signaux 16-QAM à 16 Gbaud et 64-QAM à 5 Gbaud dans un amplificateur optique à semi-conducteur commercial est réalisée sur toute la bande C. Les résultats démontrent qu’en raison des distorsions non-linéaires induites sur le signal converti, le point d’opération optimal du convertisseur de longueur d’onde est différent de celui obtenu lors de la conversion de longueur d’onde de formats de modulation en intensité. En effet, dans le contexte des formats de modulation avancés, c’est le compromis entre la puissance du signal converti et les non-linéarités induites qui détermine le point d’opération optimal du convertisseur de longueur d’onde. Les récepteurs cohérents permettent l’utilisation de techniques de traitement de signal numérique afin de compenser la détérioration du signal transmis suite à sa détection. Afin de mettre à profit les nouvelles possibilités offertes par le traitement de signal numérique, une technique numérique de post-compensation des distorsions induites sur le signal converti, basée sur une analyse petit-signal des équations gouvernant la dynamique du gain à l’intérieur des amplificateurs optiques à semi-conducteur, est développée. L’efficacité de cette technique est démontrée à l’aide de simulations numériques et de mesures expérimentales de conversion de longueur d’onde de signaux 16-QAM à 10 Gbaud et 64-QAM à 5 Gbaud. Cette méthode permet d’améliorer de façon significative les performances du convertisseur de longueur d’onde, et ce, principalement pour les formats de modulation avancés d’ordre supérieur tel que 64-QAM. Finalement, une étude expérimentale exhaustive de la technique de post-compensation des distorsions induites sur le signal converti est effectuée pour des signaux 64-QAM. Les résultats démontrent que, même en présence d’un signal à bruité à l’entrée du convertisseur de longueur d’onde, la technique proposée améliore toujours la qualité du signal reçu. De plus, une étude du point d’opération optimal du convertisseur de longueur d’onde est effectuée et démontre que celui-ci varie en fonction des pertes optiques suivant la conversion de longueur d’onde. Dans un réseau de communication optique à routage en longueur d’onde, le signal est susceptible de passer par plusieurs étages de conversion de longueur d’onde. Pour cette raison, l’efficacité de la technique de post-compensation est démontrée, et ce pour la première fois dans la littérature, pour deux étages successifs de conversion de longueur d’onde de signaux 64-QAM à 5 Gbaud. Les résultats de cette thèse montrent que les convertisseurs de longueur d’ondes basés sur le mélange à quatre ondes dans les amplificateurs optiques à semi-conducteur, utilisés en conjonction avec des techniques de traitement de signal numérique, constituent une technologie extrêmement prometteuse pour les réseaux de communications optiques modernes à routage en longueur d’onde.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les réseaux de capteurs sont formés d’un ensemble de dispositifs capables de prendre individuellement des mesures d’un environnement particulier et d’échanger de l’information afin d’obtenir une représentation de haut niveau sur les activités en cours dans la zone d’intérêt. Une telle détection distribuée, avec de nombreux appareils situés à proximité des phénomènes d’intérêt, est pertinente dans des domaines tels que la surveillance, l’agriculture, l’observation environnementale, la surveillance industrielle, etc. Nous proposons dans cette thèse plusieurs approches pour effectuer l’optimisation des opérations spatio-temporelles de ces dispositifs, en déterminant où les placer dans l’environnement et comment les contrôler au fil du temps afin de détecter les cibles mobiles d’intérêt. La première nouveauté consiste en un modèle de détection réaliste représentant la couverture d’un réseau de capteurs dans son environnement. Nous proposons pour cela un modèle 3D probabiliste de la capacité de détection d’un capteur sur ses abords. Ce modèle inègre également de l’information sur l’environnement grâce à l’évaluation de la visibilité selon le champ de vision. À partir de ce modèle de détection, l’optimisation spatiale est effectuée par la recherche du meilleur emplacement et l’orientation de chaque capteur du réseau. Pour ce faire, nous proposons un nouvel algorithme basé sur la descente du gradient qui a été favorablement comparée avec d’autres méthodes génériques d’optimisation «boites noires» sous l’aspect de la couverture du terrain, tout en étant plus efficace en terme de calculs. Une fois que les capteurs placés dans l’environnement, l’optimisation temporelle consiste à bien couvrir un groupe de cibles mobiles dans l’environnement. D’abord, on effectue la prédiction de la position future des cibles mobiles détectées par les capteurs. La prédiction se fait soit à l’aide de l’historique des autres cibles qui ont traversé le même environnement (prédiction à long terme), ou seulement en utilisant les déplacements précédents de la même cible (prédiction à court terme). Nous proposons de nouveaux algorithmes dans chaque catégorie qui performent mieux ou produits des résultats comparables par rapport aux méthodes existantes. Une fois que les futurs emplacements de cibles sont prédits, les paramètres des capteurs sont optimisés afin que les cibles soient correctement couvertes pendant un certain temps, selon les prédictions. À cet effet, nous proposons une méthode heuristique pour faire un contrôle de capteurs, qui se base sur les prévisions probabilistes de trajectoire des cibles et également sur la couverture probabiliste des capteurs des cibles. Et pour terminer, les méthodes d’optimisation spatiales et temporelles proposées ont été intégrées et appliquées avec succès, ce qui démontre une approche complète et efficace pour l’optimisation spatio-temporelle des réseaux de capteurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire est consacré à la parallélisation d’un algorithme d’assemblage d’ADN de type de novo sur différentes plateformes matérielles, soit les processeurs multicoeurs et les accélérateurs de type FPGA. Plus précisément, le langage OpenCL est utilisé pour accélérer l’algorithme dont il est question, et de permettre un comparatif direct entre les les plateformes. Cet algorithme est d’abord introduit, puis son implémentation originale, développée pour une exécution sur une grappe de noeuds, est discutée. Les modifications apportées à l’algorithme dans le but de faciliter la parallélisation sont ensuite divulgées. Ensuite, le coeur du travail est présenté, soit la programmation utilisant OpenCL. Finalement, les résultats sont présentés et discutés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’augmentation de la croissance des réseaux, des blogs et des utilisateurs des sites d’examen sociaux font d’Internet une énorme source de données, en particulier sur la façon dont les gens pensent, sentent et agissent envers différentes questions. Ces jours-ci, les opinions des gens jouent un rôle important dans la politique, l’industrie, l’éducation, etc. Alors, les gouvernements, les grandes et petites industries, les instituts universitaires, les entreprises et les individus cherchent à étudier des techniques automatiques fin d’extraire les informations dont ils ont besoin dans les larges volumes de données. L’analyse des sentiments est une véritable réponse à ce besoin. Elle est une application de traitement du langage naturel et linguistique informatique qui se compose de techniques de pointe telles que l’apprentissage machine et les modèles de langue pour capturer les évaluations positives, négatives ou neutre, avec ou sans leur force, dans des texte brut. Dans ce mémoire, nous étudions une approche basée sur les cas pour l’analyse des sentiments au niveau des documents. Notre approche basée sur les cas génère un classificateur binaire qui utilise un ensemble de documents classifies, et cinq lexiques de sentiments différents pour extraire la polarité sur les scores correspondants aux commentaires. Puisque l’analyse des sentiments est en soi une tâche dépendante du domaine qui rend le travail difficile et coûteux, nous appliquons une approche «cross domain» en basant notre classificateur sur les six différents domaines au lieu de le limiter à un seul domaine. Pour améliorer la précision de la classification, nous ajoutons la détection de la négation comme une partie de notre algorithme. En outre, pour améliorer la performance de notre approche, quelques modifications innovantes sont appliquées. Il est intéressant de mentionner que notre approche ouvre la voie à nouveaux développements en ajoutant plus de lexiques de sentiment et ensembles de données à l’avenir.