583 resultados para Réseaux neuronaux
Resumo:
El modelo de empresa-red constituye un desafío para los sistemas de relaciones laborales. Dicho modelo cuestiona el papel de las instituciones colectivas de trabajo, concebidas históricamente en el marco de una organización integrada verticalmente según el modelo fordista. En efecto, la empresa dispersa o el recurso a la subcontratación son contextos cada vez más habituales, en los cuales la organización del trabajo se encuentra disociada de la empresa en sentido jurídico y patrimonial, y donde se establecen relaciones de trabajo triangulares de facto entre empresa principal, empresa de servicios y trabajadores. La búsqueda de respuestas a esta problemática apunta a la reconstrucción de solidaridades entre los trabajadores, pasando por la acción de los representantes de los trabajadores. A partir de un estudio de casos llevado a cabo en dos industrias de flujo, la industria nuclear y la petroquímica, este artículo se propone analizar los efectos de la triangulación de la relación salarial a nivel de planta, y dos procesos experimentales de organización sindical y de negociación colectiva territorial que buscan dar respuesta a la problemática de la subcontratación. El artículo analiza los resultados y límites de dichas experiencias para reconstruir una “comunidad de trabajo” inclusiva de los trabajadores subcontratistas.
Resumo:
En este artículo se explora el impacto socio-económico de la crisis internacional de 1929 en Senegal y más concretamente en la ciudad-puerto de Dakar. Se analizan las consecuencias de la dependencia externa y la extroversión económica que caracterizaba a las estructuras productivas coloniales, destacando también la respuesta organizada de los movimientos sociales africanos. Por otra parte, se estudia la evolución de las infraestructuras y actividad portuaria, observando la metropolización regional de Dakar durante este periodo.
Resumo:
Les algèbres de Temperley-Lieb originales, aussi dites régulières, apparaissent dans de nombreux modèles statistiques sur réseau en deux dimensions: les modèles d'Ising, de Potts, des dimères, celui de Fortuin-Kasteleyn, etc. L'espace d'Hilbert de l'hamiltonien quantique correspondant à chacun de ces modèles est un module pour cette algèbre et la théorie de ses représentations peut être utilisée afin de faciliter la décomposition de l'espace en blocs; la diagonalisation de l'hamiltonien s'en trouve alors grandement simplifiée. L'algèbre de Temperley-Lieb diluée joue un rôle similaire pour des modèles statistiques dilués, par exemple un modèle sur réseau où certains sites peuvent être vides; ses représentations peuvent alors être utilisées pour simplifier l'analyse du modèle comme pour le cas original. Or ceci requiert une connaissance des modules de cette algèbre et de leur structure; un premier article donne une liste complète des modules projectifs indécomposables de l'algèbre diluée et un second les utilise afin de construire une liste complète de tous les modules indécomposables des algèbres originale et diluée. La structure des modules est décrite en termes de facteurs de composition et par leurs groupes d'homomorphismes. Le produit de fusion sur l'algèbre de Temperley-Lieb originale permet de «multiplier» ensemble deux modules sur cette algèbre pour en obtenir un autre. Il a été montré que ce produit pouvait servir dans la diagonalisation d'hamiltoniens et, selon certaines conjectures, il pourrait également être utilisé pour étudier le comportement de modèles sur réseaux dans la limite continue. Un troisième article construit une généralisation du produit de fusion pour les algèbres diluées, puis présente une méthode pour le calculer. Le produit de fusion est alors calculé pour les classes de modules indécomposables les plus communes pour les deux familles, originale et diluée, ce qui vient ajouter à la liste incomplète des produits de fusion déjà calculés par d'autres chercheurs pour la famille originale. Finalement, il s'avère que les algèbres de Temperley-Lieb peuvent être associées à une catégorie monoïdale tressée, dont la structure est compatible avec le produit de fusion décrit ci-dessus. Le quatrième article calcule explicitement ce tressage, d'abord sur la catégorie des algèbres, puis sur la catégorie des modules sur ces algèbres. Il montre également comment ce tressage permet d'obtenir des solutions aux équations de Yang-Baxter, qui peuvent alors être utilisées afin de construire des modèles intégrables sur réseaux.
Resumo:
Les écosystèmes dunaires remplissent plusieurs fonctions écologiques essentielles comme celle de protéger le littoral grâce à leur capacité d’amortissement face aux vents et vagues des tempêtes. Les dunes jouent aussi un rôle dans la filtration de l’eau, la recharge de la nappe phréatique, le maintien de la biodiversité, en plus de présenter un attrait culturel, récréatif et touristique. Les milieux dunaires sont très dynamiques et incluent plusieurs stades de succession végétale, passant de la plage de sable nu à la dune bordière stabilisée par l’ammophile à ligule courte, laquelle permet aussi l’établissement d’autres herbacées, d’arbustes et, éventuellement, d’arbres. Or, la survie de ces végétaux est intimement liée aux microorganismes du sol. Les champignons du sol interagissent intimement avec les racines des plantes, modifient la structure des sols, et contribuent à la décomposition de la matière organique et à la disponibilité des nutriments. Ils sont donc des acteurs clés de l’écologie des sols et contribuent à la stabilisation des dunes. Malgré cela, la diversité et la structure des communautés fongiques, ainsi que les mécanismes influençant leur dynamique écologique, demeurent relativement méconnus. Le travail présenté dans cette thèse explore la diversité des communautés fongiques à travers le gradient de succession et de conditions édaphiques d’un écosystème dunaire côtier afin d’améliorer la compréhension de la dynamique des sols en milieux dunaires. Une vaste collecte de données sur le terrain a été réalisée sur une plaine de dunes reliques se trouvant aux Îles de la Madeleine, Qc. J’ai échantillonné plus de 80 sites répartis sur l’ensemble de ce système dunaire et caractérisé les champignons du sol grâce au séquençage à haut débit. Dans un premier temps, j’ai dressé un portait d’ensemble des communautés fongiques du sol à travers les différentes zones des dunes. En plus d’une description taxonomique, les modes de vie fongiques ont été prédits afin de mieux comprendre comment les variations au niveau des communautés de champignons du sol peuvent se traduire en changements fonctionnels. J’ai observé un niveau de diversité fongique élevé (plus de 3400 unités taxonomiques opérationnelles au total) et des communautés taxonomiquement et fonctionnellement distinctes à travers un gradient de succession et de conditions édaphiques. Ces résultats ont aussi indiqué que toutes les zones des dunes, incluant la zone pionière, supportent des communautés fongiques diversifiées. Ensuite, le lien entre les communautés végétales et fongiques a été étudié à travers l’ensemble de la séquence dunaire. Ces résultats ont montré une augmentation claire de la richesse spécifique végétale, ainsi qu’une augmentation de la diversité des stratégies d’acquisition de nutriments (traits souterrains lié à la nutrition des plantes, soit mycorhizien à arbuscule, ectomycorhizien, mycorhizien éricoide, fixateur d’azote ou non spécialisé). J’ai aussi pu établir une forte corrélation entre les champignons du sol et la végétation, qui semblent tous deux réagir de façon similaire aux conditions physicochimiques du sol. Le pH du sol influençait fortement les communautés végétales et fongiques. Le lien observé entre les communautés végétales et fongiques met l’emphase sur l’importance des interactions biotiques positives au fil de la succession dans les environnements pauvres en nutriments. Finalement, j’ai comparé les communautés de champignons ectomycorhiziens associées aux principales espèces arborescentes dans les forêts dunaires. J’ai observé une richesse importante, avec un total de 200 unités taxonomiques opérationnelles ectomycorhiziennes, appartenant principalement aux Agaricomycètes. Une analyse de réseaux n’a pas permis de détecter de modules (c'est-à-dire des sous-groupes d’espèces en interaction), ce qui indique un faible niveau de spécificité des associations ectomycorhiziennes. De plus, je n’ai pas observé de différences en termes de richesse ou de structure des communautés entre les quatre espèces hôtes. En conclusion, j’ai pu observer à travers la succession dunaire des communautés diversifiées et des structures distinctes selon la zone de la dune, tant chez les champignons que chez les plantes. La succession semble toutefois moins marquée au niveau des communautés fongiques, par rapport aux patrons observés chez les plantes. Ces résultats ont alimenté une réflexion sur le potentiel et les perspectives, mais aussi sur les limitations des approches reposant sur le séquençage à haut-débit en écologie microbienne.
Resumo:
Dans la maladie d’Alzheimer, il existe deux marqueurs histopathologiques : les plaques amyloïdes composées de la protéine amyloïde-bêta et les enchevêtrements neurofibrillaires (NFTs) composés de la protéine tau agrégée. Dans le cerveau, la propagation de la pathologie de tau est observée le long des circuits neuronaux connectés synaptiquement, selon une séquence de stades, caractérisés par le Docteur Braak en 1991. Chez les patients, le degré de démence corrèle avec le nombre de NFTs. Ces derniers apparaissent dans des régions précises du cerveau et se propagent, de manière prédictible, le long des projections neuronales à des stades plus tardifs de la pathologie. Il reste à éclaircir la manière dont les NFTs se propagent dans les différentes régions du cerveau. Dans notre laboratoire, nous avons émis l’hypothèse que la propagation de tau pourrait se produire par un processus de transmission de cellule à cellule. Ainsi, la protéine tau serait tout d’abord sécrétée par un neurone, puis endocytée par un neurone adjacent. Nos travaux de recherche se sont concentrés sur la sécrétion de la protéine tau. Dans une première étape, nous avons démontré l’existence de la sécrétion active de tau dans l’espace extracellulaire, en utilisant des modèles in vitro de cellules non neuronales et neuronales. Par la suite, nous avons caractérisé les formes de protéines tau sécrétées. Enfin dans un dernier temps, nous avons exploré les voies de sécrétion de la protéine tau ainsi que les mécanismes régulant ce phénomène. Nous avons réussi à moduler la sécrétion de tau en reproduisant plusieurs insultes observées dans la maladie d’Alzheimer. Nos recherches nous ont permis d’identifier l’appareil de Golgi comme étant une organelle dont la fragmentation augmente la sécrétion de la protéine tau. A la lumière de cette découverte, nous avons été capable de moduler la sécrétion de tau en ciblant spécifiquement l’activité de cdk5 et l’expression de rab1A contrôlant la morphologie du Golgi. Ainsi, nous avons réussi à diminuer significativement la sécrétion de la protéine tau. Nos travaux de recherche proposent de nouvelles cibles thérapeutiques pour la maladie d’Alzheimer, visant à diminuer la propagation de la pathologie de tau par de nouveaux mécanismes cellulaires.
Resumo:
Réalisé en cotutelle avec l'École normale supérieure de Cachan – Université Paris-Saclay
Resumo:
Plusieurs facteurs de risque de développement de troubles intériorisés, tels que les troubles d’anxiété et de l’humeur, ont été identifiés dans la littérature. Les deux plus importants facteurs de risques regroupent l’adversité vécue durant l’enfance (par exemple la maltraitance) et le risque parental (c’est-à-dire la présence d’un trouble intériorisé chez l’un ou les deux parents). Ces facteurs de risque ont été liés à des changements neuroanatomiques similaires à ceux observés en lien avec les troubles intériorisés. Ainsi, en présence de ces facteurs de risque, des anomalies anatomiques pourraient laisser présager l’apparition prochaine d’une symptomatologie de troubles intériorisés chez des individus encore asymptomatiques. Chez les quelques populations de jeunes investiguées, les participants présentaient des comorbidités et/ou étaient sous médication, ce qui rend difficile l’interprétation des atteintes cérébrales observées. Ce travail de thèse s’est intéressé aux liens entre ces deux facteurs de risque et les substrats neuroanatomiques associés à chacun d’eux, chez des adolescents asymptomatiques et n’étant sous aucune médication. Une première étude a examiné le lien entre le niveau de pratiques parentales coercitives et le niveau de symptômes d’anxiété, mesurés de manière longitudinale depuis la naissance, et les différences neuroanatomiques observées à l’adolescence (voir Chapitre 2). Une deuxième étude a examiné le lien entre le risque parental de développer des troubles d’anxiété et les différences neuroanatomiques observées à l’adolescence (voir Chapitre 3). Une troisième étude s’est intéressée au lien entre le risque parental de développer un trouble de dépression ou un trouble bipolaire et les différences neuroanatomiques observées à l’adolescence (voir Chapitre 4). Les résultats démontrent des différences de volume et/ou d’épaisseur corticale dans plusieurs structures clés impliquées dans le traitement et la régulation des émotions. C’est le cas du cortex préfrontal, de l’amygdale, de l’hippocampe et du striatum. Ces résultats suggèrent que certaines des différences neuroanatomiques observées dans les troubles intériorisés peuvent être présentes avant que le trouble ne se manifeste, et représenter des marqueurs neuronaux du risque de développer le trouble. Les implications théoriques et les limites de ces trois études sont finalement discutées dans le Chapitre 5.
Resumo:
Ce mémoire intitulé « Maternité en exil : la construction d’un réseau de soutien à Montréal » propose de documenter les réseaux de soutien des femmes immigrantes d’origine maghrébine. Plus précisément, il aborde l’aide attendue et reçue lors de leur expérience de maternité. Sur la base d’entrevues qualitatives menées dans deux quartiers Montréalais auprès de femmes immigrantes et d’intervenantes du milieu communautaire, le mémoire s’articule autour de plusieurs catégories d’aidants issus de réseaux différents : de la famille, de connaissances, du milieu du travail, d’organismes communautaires ou d’établissements de santé publique. Il a notamment été observé que le réseau féminin entourant les mères immigrantes est très important et que ces femmes mettent en place des stratégies afin de combler leurs attentes.
Resumo:
Le but de cette recherche est d’évaluer l’importance du paysage culturel dans la résilience des communautés urbaines post-catastrophes. Ce travail se concentre sur le quartier du Lower Ninth Ward dans la ville de La Nouvelle-Orléans (États-Unis) après le passage de l’ouragan Katrina en 2005. Les catastrophes naturelles prennent une envergure et causent des dommages considérables lorsqu’elles touchent des villes. La reconstruction post -désastre est donc très dispendieuse pour les villes et les gouvernements, d’autant que certaines régions sont dévastées au point qu’elles doivent être reconstruites au complet. Cependant, le coût le plus lourd à assumer reste celui en vies humaines et si rebâtir les éléments concrets d’une ville est une tâche difficile à entreprendre, reconstruire une communauté est considérablement plus complexe. Dans le but de comprendre une telle démarche, cette recherche se concentre sur les éléments intangibles, comme l’attachement au lieu et les réseaux sociaux, dont une communauté a besoin pour se reconstituer de façon durable et résiliente. Le concept de résilience est très contesté dans la littérature et plusieurs chercheurs se sont essayés à le mesurer. Cette recherche adopte une perspective critique sur le concept et le revisite d’un point de vue holistique pour mettre en lumière sa complexité. Cette démarche permet de remettre en question l’importance de mesurer un concept finalement en perpétuelle redéfinition dans le temps et selon les échelles géographiques. De plus, en établissant une relation entre résilience et paysage culturel, il a été possible de mieux comprendre la complexité de la résilience. Touchant à plusieurs disciplines (architecture de paysage, urbanisme et sociologie), cette recherche utilise une méthodologie qui reflète son aspect multidisciplinaire : les méthodes mixtes. Ces dernières permettent la collecte de données quantitatives et qualitatives qui produisent une vue globale de la situation post-Katrina à travers le regroupement de recensions statistiques, d’observations de terrain et d’articles de journaux. Parallèlement, des entretiens ont été réalisés avec des résidents du quartier ainsi qu’avec des professionnels pour mieux comprendre les différents points de vue. Cette méthodologie a permis de produire des résultats au niveau du cas d’étude autant qu’au niveau théorique. La recherche valide l’importance de prendre en compte le paysage culturel dans les situations post-catastrophes, (en particulier) dans la mesure où il s’agit d’un élément souvent négligé par les urbanistes et les acteurs locaux. En effet, les éléments constitutifs du paysage culturel tels que l’attachement au lieu et les réseaux sociaux, participent d’un sentiment d'appartenance (« home ») et d’une volonté, pour les résidents, de reconstruire leurs habitations, leur communauté ainsi que leur quartier. Toutefois, il faut reconnaître que ces éléments ne suffisent pas à retrouver ce qu’ils ont perdu. Ainsi, l’étude du paysage culturel permet non seulement de mieux comprendre la complexité de la résilience, mais démontre également que cette dernière est une construction sociale.
Resumo:
La Banque mondiale propose la bonne gouvernance comme la stratégie visant à corriger les maux de la mauvaise gouvernance et de faciliter le développement dans les pays en développement (Carayannis, Pirzadeh, Popescu & 2012; & Hilyard Wilks 1998; Leftwich 1993; Banque mondiale, 1989). Dans cette perspective, la réforme institutionnelle et une arène de la politique publique plus inclusive sont deux stratégies critiques qui visent à établir la bonne gouvernance, selon la Banque et d’autres institutions de Bretton Woods. Le problème, c’est que beaucoup de ces pays en voie de développement ne possèdent pas l’architecture institutionnelle préalable à ces nouvelles mesures. Cette thèse étudie et explique comment un état en voie de développement, le Commonwealth de la Dominique, s’est lancé dans un projet de loi visant l’intégrité dans la fonction publique. Cette loi, la Loi sur l’intégrité dans la fonction publique (IPO) a été adoptée en 2003 et mis en œuvre en 2008. Cette thèse analyse les relations de pouvoir entre les acteurs dominants autour de évolution de la loi et donc, elle emploie une combinaison de technique de l’analyse des réseaux sociaux et de la recherche qualitative pour répondre à la question principale: Pourquoi l’État a-t-il développé et mis en œuvre la conception actuelle de la IPO (2003)? Cette question est d’autant plus significative quand nous considérons que contrairement à la recherche existante sur le sujet, l’IPO dominiquaise diverge considérablement dans la structure du l’IPO type idéal. Nous affirmons que les acteurs "rationnels," conscients de leur position structurelle dans un réseau d’acteurs, ont utilisé leurs ressources de pouvoir pour façonner l’institution afin qu’elle serve leurs intérêts et ceux et leurs alliés. De plus, nous émettons l’hypothèse que: d’abord, le choix d’une agence spécialisée contre la corruption et la conception ultérieure de cette institution reflètent les préférences des acteurs dominants qui ont participé à la création de ladite institution et la seconde, notre hypothèse rivale, les caractéristiques des modèles alternatifs d’institutions de l’intégrité publique sont celles des acteurs non dominants. Nos résultats sont mitigés. Le jeu de pouvoir a été limité à un petit groupe d’acteurs dominants qui ont cherché à utiliser la création de la loi pour assurer leur légitimité et la survie politique. Sans surprise, aucun acteur n’a avancé un modèle alternatif. Nous avons conclu donc que la loi est la conséquence d’un jeu de pouvoir partisan. Cette recherche répond à la pénurie de recherche sur la conception des institutions de l’intégrité publique, qui semblent privilégier en grande partie un biais organisationnel et structurel. De plus, en étudiant le sujet du point de vue des relations de pouvoir (le pouvoir, lui-même, vu sous l’angle actanciel et structurel), la thèse apporte de la rigueur conceptuelle, méthodologique, et analytique au discours sur la création de ces institutions par l’étude de leur genèse des perspectives tant actancielles que structurelles. En outre, les résultats renforcent notre capacité de prédire quand et avec quelle intensité un acteur déploierait ses ressources de pouvoir.
Resumo:
L’Internet Physique (IP) est une initiative qui identifie plusieurs symptômes d’inefficacité et non-durabilité des systèmes logistiques et les traite en proposant un nouveau paradigme appelé logistique hyperconnectée. Semblable à l’Internet Digital, qui relie des milliers de réseaux d’ordinateurs personnels et locaux, IP permettra de relier les systèmes logistiques fragmentés actuels. Le but principal étant d’améliorer la performance des systèmes logistiques des points de vue économique, environnemental et social. Se concentrant spécifiquement sur les systèmes de distribution, cette thèse remet en question l’ordre de magnitude du gain de performances en exploitant la distribution hyperconnectée habilitée par IP. Elle concerne également la caractérisation de la planification de la distribution hyperconnectée. Pour répondre à la première question, une approche de la recherche exploratoire basée sur la modélisation de l’optimisation est appliquée, où les systèmes de distribution actuels et potentiels sont modélisés. Ensuite, un ensemble d’échantillons d’affaires réalistes sont créé, et leurs performances économique et environnementale sont évaluées en ciblant de multiples performances sociales. Un cadre conceptuel de planification, incluant la modélisation mathématique est proposé pour l’aide à la prise de décision dans des systèmes de distribution hyperconnectée. Partant des résultats obtenus par notre étude, nous avons démontré qu’un gain substantiel peut être obtenu en migrant vers la distribution hyperconnectée. Nous avons également démontré que l’ampleur du gain varie en fonction des caractéristiques des activités et des performances sociales ciblées. Puisque l’Internet physique est un sujet nouveau, le Chapitre 1 présente brièvement l’IP et hyper connectivité. Le Chapitre 2 discute les fondements, l’objectif et la méthodologie de la recherche. Les défis relevés au cours de cette recherche sont décrits et le type de contributions visés est mis en évidence. Le Chapitre 3 présente les modèles d’optimisation. Influencés par les caractéristiques des systèmes de distribution actuels et potentiels, trois modèles fondés sur le système de distribution sont développés. Chapitre 4 traite la caractérisation des échantillons d’affaires ainsi que la modélisation et le calibrage des paramètres employés dans les modèles. Les résultats de la recherche exploratoire sont présentés au Chapitre 5. Le Chapitre 6 décrit le cadre conceptuel de planification de la distribution hyperconnectée. Le chapitre 7 résume le contenu de la thèse et met en évidence les contributions principales. En outre, il identifie les limites de la recherche et les avenues potentielles de recherches futures.
Resumo:
Les convertisseurs de longueur d’onde sont essentiels pour la réalisation de réseaux de communications optiques à routage en longueur d’onde. Dans la littérature, les convertisseurs de longueur d’onde basés sur le mélange à quatre ondes dans les amplificateurs optiques à semi-conducteur constituent une solution extrêmement intéressante, et ce, en raison de leurs nombreuses caractéristiques nécessaires à l’implémentation de tels réseaux de communications. Avec l’émergence des systèmes commerciaux de détection cohérente, ainsi qu’avec les récentes avancées dans le domaine du traitement de signal numérique, il est impératif d’évaluer la performance des convertisseurs de longueur d’onde, et ce, dans le contexte des formats de modulation avancés. Les objectifs de cette thèse sont : 1) d’étudier la faisabilité des convertisseurs de longueur d’onde basés sur le mélange à quatre ondes dans les amplificateurs optiques à semi-conducteur pour les formats de modulation avancés et 2) de proposer une technique basée sur le traitement de signal numérique afin d’améliorer leur performance. En premier lieu, une étude expérimentale de la conversion de longueur d’onde de formats de modulation d’amplitude en quadrature (quadrature amplitude modulation - QAM) est réalisée. En particulier, la conversion de longueur d’onde de signaux 16-QAM à 16 Gbaud et 64-QAM à 5 Gbaud dans un amplificateur optique à semi-conducteur commercial est réalisée sur toute la bande C. Les résultats démontrent qu’en raison des distorsions non-linéaires induites sur le signal converti, le point d’opération optimal du convertisseur de longueur d’onde est différent de celui obtenu lors de la conversion de longueur d’onde de formats de modulation en intensité. En effet, dans le contexte des formats de modulation avancés, c’est le compromis entre la puissance du signal converti et les non-linéarités induites qui détermine le point d’opération optimal du convertisseur de longueur d’onde. Les récepteurs cohérents permettent l’utilisation de techniques de traitement de signal numérique afin de compenser la détérioration du signal transmis suite à sa détection. Afin de mettre à profit les nouvelles possibilités offertes par le traitement de signal numérique, une technique numérique de post-compensation des distorsions induites sur le signal converti, basée sur une analyse petit-signal des équations gouvernant la dynamique du gain à l’intérieur des amplificateurs optiques à semi-conducteur, est développée. L’efficacité de cette technique est démontrée à l’aide de simulations numériques et de mesures expérimentales de conversion de longueur d’onde de signaux 16-QAM à 10 Gbaud et 64-QAM à 5 Gbaud. Cette méthode permet d’améliorer de façon significative les performances du convertisseur de longueur d’onde, et ce, principalement pour les formats de modulation avancés d’ordre supérieur tel que 64-QAM. Finalement, une étude expérimentale exhaustive de la technique de post-compensation des distorsions induites sur le signal converti est effectuée pour des signaux 64-QAM. Les résultats démontrent que, même en présence d’un signal à bruité à l’entrée du convertisseur de longueur d’onde, la technique proposée améliore toujours la qualité du signal reçu. De plus, une étude du point d’opération optimal du convertisseur de longueur d’onde est effectuée et démontre que celui-ci varie en fonction des pertes optiques suivant la conversion de longueur d’onde. Dans un réseau de communication optique à routage en longueur d’onde, le signal est susceptible de passer par plusieurs étages de conversion de longueur d’onde. Pour cette raison, l’efficacité de la technique de post-compensation est démontrée, et ce pour la première fois dans la littérature, pour deux étages successifs de conversion de longueur d’onde de signaux 64-QAM à 5 Gbaud. Les résultats de cette thèse montrent que les convertisseurs de longueur d’ondes basés sur le mélange à quatre ondes dans les amplificateurs optiques à semi-conducteur, utilisés en conjonction avec des techniques de traitement de signal numérique, constituent une technologie extrêmement prometteuse pour les réseaux de communications optiques modernes à routage en longueur d’onde.
Resumo:
Les réseaux de capteurs sont formés d’un ensemble de dispositifs capables de prendre individuellement des mesures d’un environnement particulier et d’échanger de l’information afin d’obtenir une représentation de haut niveau sur les activités en cours dans la zone d’intérêt. Une telle détection distribuée, avec de nombreux appareils situés à proximité des phénomènes d’intérêt, est pertinente dans des domaines tels que la surveillance, l’agriculture, l’observation environnementale, la surveillance industrielle, etc. Nous proposons dans cette thèse plusieurs approches pour effectuer l’optimisation des opérations spatio-temporelles de ces dispositifs, en déterminant où les placer dans l’environnement et comment les contrôler au fil du temps afin de détecter les cibles mobiles d’intérêt. La première nouveauté consiste en un modèle de détection réaliste représentant la couverture d’un réseau de capteurs dans son environnement. Nous proposons pour cela un modèle 3D probabiliste de la capacité de détection d’un capteur sur ses abords. Ce modèle inègre également de l’information sur l’environnement grâce à l’évaluation de la visibilité selon le champ de vision. À partir de ce modèle de détection, l’optimisation spatiale est effectuée par la recherche du meilleur emplacement et l’orientation de chaque capteur du réseau. Pour ce faire, nous proposons un nouvel algorithme basé sur la descente du gradient qui a été favorablement comparée avec d’autres méthodes génériques d’optimisation «boites noires» sous l’aspect de la couverture du terrain, tout en étant plus efficace en terme de calculs. Une fois que les capteurs placés dans l’environnement, l’optimisation temporelle consiste à bien couvrir un groupe de cibles mobiles dans l’environnement. D’abord, on effectue la prédiction de la position future des cibles mobiles détectées par les capteurs. La prédiction se fait soit à l’aide de l’historique des autres cibles qui ont traversé le même environnement (prédiction à long terme), ou seulement en utilisant les déplacements précédents de la même cible (prédiction à court terme). Nous proposons de nouveaux algorithmes dans chaque catégorie qui performent mieux ou produits des résultats comparables par rapport aux méthodes existantes. Une fois que les futurs emplacements de cibles sont prédits, les paramètres des capteurs sont optimisés afin que les cibles soient correctement couvertes pendant un certain temps, selon les prédictions. À cet effet, nous proposons une méthode heuristique pour faire un contrôle de capteurs, qui se base sur les prévisions probabilistes de trajectoire des cibles et également sur la couverture probabiliste des capteurs des cibles. Et pour terminer, les méthodes d’optimisation spatiales et temporelles proposées ont été intégrées et appliquées avec succès, ce qui démontre une approche complète et efficace pour l’optimisation spatio-temporelle des réseaux de capteurs.
Resumo:
Ce mémoire est consacré à la parallélisation d’un algorithme d’assemblage d’ADN de type de novo sur différentes plateformes matérielles, soit les processeurs multicoeurs et les accélérateurs de type FPGA. Plus précisément, le langage OpenCL est utilisé pour accélérer l’algorithme dont il est question, et de permettre un comparatif direct entre les les plateformes. Cet algorithme est d’abord introduit, puis son implémentation originale, développée pour une exécution sur une grappe de noeuds, est discutée. Les modifications apportées à l’algorithme dans le but de faciliter la parallélisation sont ensuite divulgées. Ensuite, le coeur du travail est présenté, soit la programmation utilisant OpenCL. Finalement, les résultats sont présentés et discutés.
Resumo:
L’augmentation de la croissance des réseaux, des blogs et des utilisateurs des sites d’examen sociaux font d’Internet une énorme source de données, en particulier sur la façon dont les gens pensent, sentent et agissent envers différentes questions. Ces jours-ci, les opinions des gens jouent un rôle important dans la politique, l’industrie, l’éducation, etc. Alors, les gouvernements, les grandes et petites industries, les instituts universitaires, les entreprises et les individus cherchent à étudier des techniques automatiques fin d’extraire les informations dont ils ont besoin dans les larges volumes de données. L’analyse des sentiments est une véritable réponse à ce besoin. Elle est une application de traitement du langage naturel et linguistique informatique qui se compose de techniques de pointe telles que l’apprentissage machine et les modèles de langue pour capturer les évaluations positives, négatives ou neutre, avec ou sans leur force, dans des texte brut. Dans ce mémoire, nous étudions une approche basée sur les cas pour l’analyse des sentiments au niveau des documents. Notre approche basée sur les cas génère un classificateur binaire qui utilise un ensemble de documents classifies, et cinq lexiques de sentiments différents pour extraire la polarité sur les scores correspondants aux commentaires. Puisque l’analyse des sentiments est en soi une tâche dépendante du domaine qui rend le travail difficile et coûteux, nous appliquons une approche «cross domain» en basant notre classificateur sur les six différents domaines au lieu de le limiter à un seul domaine. Pour améliorer la précision de la classification, nous ajoutons la détection de la négation comme une partie de notre algorithme. En outre, pour améliorer la performance de notre approche, quelques modifications innovantes sont appliquées. Il est intéressant de mentionner que notre approche ouvre la voie à nouveaux développements en ajoutant plus de lexiques de sentiment et ensembles de données à l’avenir.