517 resultados para Réseaux de nanotrou
Resumo:
Le but de cette recherche est d’évaluer l’importance du paysage culturel dans la résilience des communautés urbaines post-catastrophes. Ce travail se concentre sur le quartier du Lower Ninth Ward dans la ville de La Nouvelle-Orléans (États-Unis) après le passage de l’ouragan Katrina en 2005. Les catastrophes naturelles prennent une envergure et causent des dommages considérables lorsqu’elles touchent des villes. La reconstruction post -désastre est donc très dispendieuse pour les villes et les gouvernements, d’autant que certaines régions sont dévastées au point qu’elles doivent être reconstruites au complet. Cependant, le coût le plus lourd à assumer reste celui en vies humaines et si rebâtir les éléments concrets d’une ville est une tâche difficile à entreprendre, reconstruire une communauté est considérablement plus complexe. Dans le but de comprendre une telle démarche, cette recherche se concentre sur les éléments intangibles, comme l’attachement au lieu et les réseaux sociaux, dont une communauté a besoin pour se reconstituer de façon durable et résiliente. Le concept de résilience est très contesté dans la littérature et plusieurs chercheurs se sont essayés à le mesurer. Cette recherche adopte une perspective critique sur le concept et le revisite d’un point de vue holistique pour mettre en lumière sa complexité. Cette démarche permet de remettre en question l’importance de mesurer un concept finalement en perpétuelle redéfinition dans le temps et selon les échelles géographiques. De plus, en établissant une relation entre résilience et paysage culturel, il a été possible de mieux comprendre la complexité de la résilience. Touchant à plusieurs disciplines (architecture de paysage, urbanisme et sociologie), cette recherche utilise une méthodologie qui reflète son aspect multidisciplinaire : les méthodes mixtes. Ces dernières permettent la collecte de données quantitatives et qualitatives qui produisent une vue globale de la situation post-Katrina à travers le regroupement de recensions statistiques, d’observations de terrain et d’articles de journaux. Parallèlement, des entretiens ont été réalisés avec des résidents du quartier ainsi qu’avec des professionnels pour mieux comprendre les différents points de vue. Cette méthodologie a permis de produire des résultats au niveau du cas d’étude autant qu’au niveau théorique. La recherche valide l’importance de prendre en compte le paysage culturel dans les situations post-catastrophes, (en particulier) dans la mesure où il s’agit d’un élément souvent négligé par les urbanistes et les acteurs locaux. En effet, les éléments constitutifs du paysage culturel tels que l’attachement au lieu et les réseaux sociaux, participent d’un sentiment d'appartenance (« home ») et d’une volonté, pour les résidents, de reconstruire leurs habitations, leur communauté ainsi que leur quartier. Toutefois, il faut reconnaître que ces éléments ne suffisent pas à retrouver ce qu’ils ont perdu. Ainsi, l’étude du paysage culturel permet non seulement de mieux comprendre la complexité de la résilience, mais démontre également que cette dernière est une construction sociale.
Resumo:
La dynamique sédimentaire à l’embouchure de l’estuaire de Seine est principalement contrôlée par les forçages hydrométéorologiques (débit, vent, vagues, marée) et les fortes pressions anthropiques (endiguement, dragage, clapage). La compréhension et la quantification de la dynamique des flux sédimentaires en suspension (sable/vase) est un enjeu majeur, autant d’un point vu écologique (ex. turbidité, envasement) que financier (ex. gestion des chenaux de navigation). La mise en place de réseaux de mesure in situ permet une meilleure compréhension de la dynamique sédimentaire de l’estuaire, mais leur caractère local rend difficile toute estimation des flux et bilans sédimentaires. Pour répondre à ces questions, cette étude s’appuie sur la modélisation numérique, validée par de nombreuses séries de mesures in situ, afin de quantifier les flux et bilans sédimentaires à différentes échelles caractéristiques de temps et d'espace. Les concentrations simulées dans la zone d'extension du bouchon vaseux sont du même ordre que les observations et leur dynamique associée aux différentes phases et cycles de la marée, ainsi qu'au cycle hydrologique, est satisfaisante. L’analyse des flux résiduels et bilans sédimentaires aux échelles annuelle et trimestrielle a permis d’identifier un schéma de circulation à l’embouchure de l’estuaire et de quantifier l’importance du forçage hydrologique (crue/étiage) sur les échanges sédimentaires. Enfin, ce travail se poursuivra par l’étude de ces flux et bilans pour différents scénarios hydrométéorologiques contrastés.
Resumo:
Tese (doutorado)—Universidade de Brasília, Centro de Desenvolvimento Sustentável, 2015.
Resumo:
Ce mémoire tente de répondre à une problématique très importante dans le domaine de recrutement : l’appariement entre offre d’emploi et candidats. Dans notre cas nous disposons de milliers d’offres d’emploi et de millions de profils ramassés sur les sites dédiés et fournis par un industriel spécialisé dans le recrutement. Les offres d’emploi et les profils de candidats sur les réseaux sociaux professionnels sont généralement destinés à des lecteurs humains qui sont les recruteurs et les chercheurs d’emploi. Chercher à effectuer une sélection automatique de profils pour une offre d’emploi se heurte donc à certaines difficultés que nous avons cherché à résoudre dans le présent mémoire. Nous avons utilisé des techniques de traitement automatique de la langue naturelle pour extraire automatiquement les informations pertinentes dans une offre d’emploi afin de construite une requête qui nous permettrait d’interroger notre base de données de profils. Pour valider notre modèle d’extraction de métier, de compétences et de d’expérience, nous avons évalué ces trois différentes tâches séparément en nous basant sur une référence cent offres d’emploi canadiennes que nous avons manuellement annotée. Et pour valider notre outil d’appariement nous avons fait évaluer le résultat de l’appariement de dix offres d’emploi canadiennes par un expert en recrutement.
Resumo:
Ce mémoire a pour but de comparer l’état du clergé anglo-saxon de la période de la Regularis Concordia du Xe siècle, avec celui du clergé anglo-normand d’après conquête situé entre 1060 et 1150. La base de cette recherche se fera à partir des sources narratives les plus pertinentes pour cette période. Mais celles-ci ne seront utilisées qu’en support puisque l’essentiel de ce mémoire sera basé sur le dépouillement des listes d’archevêques, d’évêques et d’abbés ayant vécu entre 1060 à 1150. Nous détaillerons leurs origines géographiques, les charges qu’ils ont occupées durant leur vie de même que leurs réseaux sociaux. Nous tenterons de démontrer que contrairement à l’idée reçue, il n’y eut pas de véritable réforme du clergé anglo-normand suite à la conquête, mais davantage une mise à jour de ce dernier, et qu’en fait, le modèle de gouvernance qui fut imposé au clergé anglo-normand au tournant du XIIe siècle fut largement inspiré du fonctionnement de l’Église normande.
Resumo:
L'entraînement sans surveillance efficace et inférence dans les modèles génératifs profonds reste un problème difficile. Une approche assez simple, la machine de Helmholtz, consiste à entraîner du haut vers le bas un modèle génératif dirigé qui sera utilisé plus tard pour l'inférence approximative. Des résultats récents suggèrent que de meilleurs modèles génératifs peuvent être obtenus par de meilleures procédures d'inférence approximatives. Au lieu d'améliorer la procédure d'inférence, nous proposons ici un nouveau modèle, la machine de Helmholtz bidirectionnelle, qui garantit qu'on peut calculer efficacement les distributions de haut-vers-bas et de bas-vers-haut. Nous y parvenons en interprétant à les modèles haut-vers-bas et bas-vers-haut en tant que distributions d'inférence approximative, puis ensuite en définissant la distribution du modèle comme étant la moyenne géométrique de ces deux distributions. Nous dérivons une borne inférieure pour la vraisemblance de ce modèle, et nous démontrons que l'optimisation de cette borne se comporte en régulisateur. Ce régularisateur sera tel que la distance de Bhattacharyya sera minisée entre les distributions approximatives haut-vers-bas et bas-vers-haut. Cette approche produit des résultats de pointe en terme de modèles génératifs qui favorisent les réseaux significativement plus profonds. Elle permet aussi une inférence approximative amérliorée par plusieurs ordres de grandeur. De plus, nous introduisons un modèle génératif profond basé sur les modèles BiHM pour l'entraînement semi-supervisé.
Resumo:
Ce mémoire tente de répondre à une problématique très importante dans le domaine de recrutement : l’appariement entre offre d’emploi et candidats. Dans notre cas nous disposons de milliers d’offres d’emploi et de millions de profils ramassés sur les sites dédiés et fournis par un industriel spécialisé dans le recrutement. Les offres d’emploi et les profils de candidats sur les réseaux sociaux professionnels sont généralement destinés à des lecteurs humains qui sont les recruteurs et les chercheurs d’emploi. Chercher à effectuer une sélection automatique de profils pour une offre d’emploi se heurte donc à certaines difficultés que nous avons cherché à résoudre dans le présent mémoire. Nous avons utilisé des techniques de traitement automatique de la langue naturelle pour extraire automatiquement les informations pertinentes dans une offre d’emploi afin de construite une requête qui nous permettrait d’interroger notre base de données de profils. Pour valider notre modèle d’extraction de métier, de compétences et de d’expérience, nous avons évalué ces trois différentes tâches séparément en nous basant sur une référence cent offres d’emploi canadiennes que nous avons manuellement annotée. Et pour valider notre outil d’appariement nous avons fait évaluer le résultat de l’appariement de dix offres d’emploi canadiennes par un expert en recrutement.
Resumo:
Ce mémoire a pour but de comparer l’état du clergé anglo-saxon de la période de la Regularis Concordia du Xe siècle, avec celui du clergé anglo-normand d’après conquête situé entre 1060 et 1150. La base de cette recherche se fera à partir des sources narratives les plus pertinentes pour cette période. Mais celles-ci ne seront utilisées qu’en support puisque l’essentiel de ce mémoire sera basé sur le dépouillement des listes d’archevêques, d’évêques et d’abbés ayant vécu entre 1060 à 1150. Nous détaillerons leurs origines géographiques, les charges qu’ils ont occupées durant leur vie de même que leurs réseaux sociaux. Nous tenterons de démontrer que contrairement à l’idée reçue, il n’y eut pas de véritable réforme du clergé anglo-normand suite à la conquête, mais davantage une mise à jour de ce dernier, et qu’en fait, le modèle de gouvernance qui fut imposé au clergé anglo-normand au tournant du XIIe siècle fut largement inspiré du fonctionnement de l’Église normande.
Resumo:
L'entraînement sans surveillance efficace et inférence dans les modèles génératifs profonds reste un problème difficile. Une approche assez simple, la machine de Helmholtz, consiste à entraîner du haut vers le bas un modèle génératif dirigé qui sera utilisé plus tard pour l'inférence approximative. Des résultats récents suggèrent que de meilleurs modèles génératifs peuvent être obtenus par de meilleures procédures d'inférence approximatives. Au lieu d'améliorer la procédure d'inférence, nous proposons ici un nouveau modèle, la machine de Helmholtz bidirectionnelle, qui garantit qu'on peut calculer efficacement les distributions de haut-vers-bas et de bas-vers-haut. Nous y parvenons en interprétant à les modèles haut-vers-bas et bas-vers-haut en tant que distributions d'inférence approximative, puis ensuite en définissant la distribution du modèle comme étant la moyenne géométrique de ces deux distributions. Nous dérivons une borne inférieure pour la vraisemblance de ce modèle, et nous démontrons que l'optimisation de cette borne se comporte en régulisateur. Ce régularisateur sera tel que la distance de Bhattacharyya sera minisée entre les distributions approximatives haut-vers-bas et bas-vers-haut. Cette approche produit des résultats de pointe en terme de modèles génératifs qui favorisent les réseaux significativement plus profonds. Elle permet aussi une inférence approximative amérliorée par plusieurs ordres de grandeur. De plus, nous introduisons un modèle génératif profond basé sur les modèles BiHM pour l'entraînement semi-supervisé.
Resumo:
L’article montre que la trajectoire de la réforme de l’inspection en Fédération Wallonie-Bruxelles (FWB) est loin d’être linéaire. Elle est marquée par des processus de reconversion institutionnelle d’institutions existantes, mais aussi de sédimentation et d’hybridation entre l’« ancien » et le « nouveau ». En effet, elle participe à la fois d’une politique de changement institutionnel ambitieuse et de construction du « système scolaire » dans un paysage au départ assez décentralisé et fragmenté ; mais, simultanément, elle est marquée par des « contraintes » institutionnelles existantes, des négociations et transactions entre différents acteurs politiques et scolaires qui déterminent les contours et les compétences du nouveau corps d’inspection en gestation après le décret de 2007 comme les rôles des inspecteurs et leur division du travail avec d’autres acteurs. De plus, dans la mise en œuvre du décret, les orientations normatives, cognitives et professionnelles des acteurs, la permanence de la diversité institutionnelle des réseaux comme la variance structurelle des territoires « modulent » et « tempèrent » l’ambition du changement institutionnel affiché par la politique de la FWB. Cela change mais pas complètement : il y a un processus de conversion partielle et « en tension » de l’institution qu’est l’inspection.
Resumo:
Notre étude a comme objectif de mieux comprendre comment la socialisation des hommes se manifeste dans le rôle de conjoints proches aidants à domicile, pour une conjointe atteinte d’un cancer à l’étape pré-terminale et terminale. Elle s’inscrit en tant que recherche exploratoire et compréhensive, d’orientation constructiviste. Le modèle de Schulz et de Cantor ont inspiré l’analyse des résultats. Douze hommes ont été rencontrés lors d’entrevues semi-dirigées. L’âge des répondants a permis d’avoir un échantillon d’hommes représentatif de deux générations différentes, soit celle des vétérans (1922-1945) et celle des baby-boomers (1946-1964). Selon leur génération, ils ont été exposés de façon plus ou moins importante aux valeurs et aux prescriptions sociales en ce qui concerne les genres. Il semble que ce soit le fait d’être informé, plutôt que le niveau d’éducation, qui a une influence sur le contexte de soins en procurant aux conjoints soignants les outils nécessaires pour mieux répondre aux demandes des soins. Il apparaît que les hommes qui ont conservé le modèle traditionnel du partage des tâches ont eu plus de difficultés à assurer le vie domestique de la maison. Les réseaux formels ont suppléé au manque de ressources familiales et au manque de connaissances des répondants. L’amour, le désir d’offrir les meilleurs soins et la fidélité à leur engagement sont des motifs à la base de la prise en charge. Les hommes plus jeunes n’ont pas hésité à quitter leur travail pour prendre soin. Ils n’ont pas exprimé de craintes quant à leur masculinité. Quant aux plus âgés à la retraite, ils auraient été hésitants à quitter leur travail pour soigner si la situation s’était présentée. Retenons que les hommes sont en mesure d’assumer ce qui doit être fait, mais à leur manière, c’est-à-dire en y apportant ce qu’ils ont à offrir en tant qu’homme.
Resumo:
Le développement au cours des dernières décennies de lasers à fibre à verrouillage de modes permet aujourd’hui d’avoir accès à des sources fiables d’impulsions femtosecondes qui sont utilisées autant dans les laboratoires de recherche que pour des applications commerciales. Grâce à leur large bande passante ainsi qu’à leur excellente dissipation de chaleur, les fibres dopées avec des ions de terres rares ont permis l’amplification et la génération d’impulsions brèves de haute énergie avec une forte cadence. Cependant, les effets non linéaires causés par la faible taille du faisceau dans la fibre ainsi que la saturation de l’inversion de population du milieu compliquent l’utilisation d’amplificateurs fibrés pour l’obtention d’impulsions brèves dont l’énergie dépasse le millijoule. Diverses stratégies comme l’étirement des impulsions à des durées de l’ordre de la nanoseconde, l’utilisation de fibres à cristaux photoniques ayant un coeur plus large et l’amplification en parallèle ont permis de contourner ces limitations pour obtenir des impulsions de quelques millijoules ayant une durée inférieure à la picoseconde. Ce mémoire de maîtrise présente une nouvelle approche pour l’amplification d’impulsions brèves utilisant la diffusion Raman des verres de silice comme milieu de gain. Il est connu que cet effet non linéaire permet l’amplification avec une large bande passante et ce dernier est d’ailleurs couramment utilisé aujourd’hui dans les réseaux de télécommunications par fibre optique. Puisque l’adaptation des schémas d’amplification Raman existants aux impulsions brèves de haute énergie n’est pas directe, on propose plutôt un schéma consistant à transférer l’énergie d’une impulsion pompe quasi monochromatique à une impulsion signal brève étirée avec une dérive en fréquence. Afin d’évaluer le potentiel du gain Raman pour l’amplification d’impulsions brèves, ce mémoire présente un modèle analytique permettant de prédire les caractéristiques de l’impulsion amplifiée selon celles de la pompe et le milieu dans lequel elles se propagent. On trouve alors que la bande passante élevée du gain Raman des verres de silice ainsi que sa saturation inhomogène permettent l’amplification d’impulsions signal à une énergie comparable à celle de la pompe tout en conservant une largeur spectrale élevée supportant la compression à des durées très brèves. Quelques variantes du schéma d’amplification sont proposées, et leur potentiel est évalué par l’utilisation du modèle analytique ou de simulations numériques. On prédit analytiquement et numériquement l’amplification Raman d’impulsions à des énergies de quelques millijoules, dont la durée est inférieure à 150 fs et dont la puissance crête avoisine 20 GW.
Resumo:
Actuellement au Québec, le contexte d’insertion professionnelle en enseignement représente plusieurs défis pour les enseignants débutants, et ce, en raison de multiples causes (p.ex. la précarité et le manque de soutien). Résultat : près de 15 % à 20 % d’entre eux quitteront la profession dans les cinq premières années de leur carrière et cette statistique ne cesse d’augmenter. Pour remédier à la situation, l’une des solutions envisagées est la mise en place de programmes d’insertion professionnelle (PIP) par les commissions scolaires, lesquels offrent différentes mesures de soutien telles que du mentorat, des ateliers de formation et des réseaux d’entraide en ligne. Cela dit, les modalités de mise en place de ces programmes varient grandement d’un milieu à l’autre, et ce, autant en ce qui a trait aux services offerts qu’à l’admission des candidats. De plus, ceux-ci ne sont généralement évalués que de façon informelle par le milieu. On ne sait donc pas si les enseignants débutants qui y participent se distinguent réellement quant à leur persévérance dans le métier, laquelle repose notamment sur leur motivation au travail, leur capacité de résilience et leur sentiment d’efficacité personnelle (SEP) en classe et à l’école (Bandura, 1997, 2007; Bélair & Lebel, 2007; Deci & Ryan, 1985, 2002; Fernet, Sénécal, Guay, Marsh, & Dowson, 2008; Zacharyas & Brunet, 2012). Ce projet de recherche vise d’une part à mesurer les différences sur le plan de ces variables chez les enseignants débutants participant ou non à un PIP. D’autre part, il vise également à mesurer la prédiction de ces variables par les différentes mesures de soutien offertes dans les PIP chez ceux qui y participent pour constater leur contribution respective dans un PIP. Pour ce faire, une étude préexpérimentale a été menée auprès de 86 participants. À l’aide d’un questionnaire, la motivation au travail, la capacité de résilience et le SEP en classe et à l’école ont été mesurés afin de comparer les résultats du groupe d’enseignants participant à un programme à ceux n’y participant pas. Une MANCOVA a d’abord été conduite avec ces variables et trois variables contrôles « avoir pensé quitter » le milieu d’enseignement, « ordre d’enseignement » et « expérience d’enseignement » comme covariables. Des régressions linéaires multivariées ont ensuite été menées à partir des mesures de soutien. Aucun résultat significatif n’a été obtenu quant aux différences entre les participants en fonction de la participation à un PIP ce qui est représentatif des résultats obtenus dans d’autres recherches sur le sujet (Ingersoll & Strong, 2011). Aucun résultat significatif n’a été obtenu concernant la prédiction des variables d’intérêt par les mesures de soutien.
Resumo:
Les zéolithes étant des matériaux cristallins microporeux ont démontré leurs potentiels et leur polyvalence dans un nombre très important d’applications. Les propriétés uniques des zéolithes ont poussé les chercheurs à leur trouver constamment de nouvelles utilités pour tirer le meilleur parti de ces matériaux extraordinaires. Modifier les caractéristiques des zéolithes classiques ou les combiner en synergie avec d’autres matériaux se trouvent être deux approches viables pour trouver encore de nouvelles applications. Dans ce travail de doctorat, ces deux approches ont été utilisées séparément, premièrement avec la modification morphologique de la ZSM-12 et deuxièmement lors de la formation des matériaux de type coeur/coquille (silice mésoporeuses@silicalite-1). La ZSM-12 est une zéolithe à haute teneur en silice qui a récemment attiré beaucoup l’attention par ses performances supérieures dans les domaines de l’adsorption et de la catalyse. Afin de synthétiser la ZSM-12 avec une pureté élevée et une morphologie contrôlée, la cristallisation de la zéolithe ZSM-12 a été étudiée en détail en fonction des différents réactifs chimiques disponibles (agent directeur de structure, types de silicium et source d’aluminium) et des paramètres réactionnels (l’alcalinité, ratio entre Na, Al et eau). Les résultats présentés dans cette étude ont montré que, contrairement à l’utilisation du structurant organique TEAOH, en utilisant un autre structurant, le MTEAOH, ainsi que le Al(o-i-Pr)3, cela a permis la formation de monocristaux ZSM-12 monodisperses dans un temps plus court. L’alcalinité et la teneur en Na jouent également des rôles déterminants lors de ces synthèses. Les structures de types coeur/coquille avec une zéolithe polycristalline silicalite-1 en tant que coquille, entourant un coeur formé par une microsphère de silice mésoporeuse (tailles de particules de 1,5, 3 et 20-45 μm) ont été synthétisés soit sous forme pure ou chargée avec des espèces hôtes métalliques. Des techniques de nucléations de la zéolithe sur le noyau ont été utilisées pour faire croitre la coquille de façon fiable et arriver à former ces matériaux. C’est la qualité des produits finaux en termes de connectivité des réseaux poreux et d’intégrité de la coquille, qui permet d’obtenir une stéréosélectivité. Ceci a été étudié en faisant varier les paramètres de synthèse, par exemple, lors de prétraitements qui comprennent ; la modification de surface, la nucléation, la calcination et le nombre d’étapes secondaires de cristallisation hydrothermale. En fonction de la taille du noyau mésoporeux et des espèces hôtes incorporées, l’efficacité de la nucléation se révèle être influencée par la technique de modification de surface choisie. En effet, les microsphères de silice mésoporeuses contenant des espèces métalliques nécessitent un traitement supplémentaire de fonctionnalisation chimique sur leur surface externe avec des précurseurs tels que le (3-aminopropyl) triéthoxysilane (APTES), plutôt que d’utiliser une modification de surface avec des polymères ioniques. Nous avons également montré que, selon la taille du noyau, de deux à quatre traitements hydrothermaux rapides sont nécessaires pour envelopper totalement le noyau sans aucune agrégation et sans dissoudre le noyau. De tels matériaux avec une enveloppe de tamis moléculaire cristallin peuvent être utilisés dans une grande variété d’applications, en particulier pour de l’adsorption et de la catalyse stéréo-sélective. Ce type de matériaux a été étudié lors d’une série d’expériences sur l’adsorption sélective du glycérol provenant de biodiesel brut avec des compositions différentes et à des températures différentes. Les résultats obtenus ont été comparés à ceux utilisant des adsorbants classiques comme par exemple du gel de sphères de silice mésoporeux, des zéolithes classiques, silicalite-1, Si-BEA et ZSM-5(H+), sous forment de cristaux, ainsi que le mélange physique de ces matériaux références, à savoir un mélange silicalite-1 et le gel de silice sphères. Bien que le gel de sphères de silice mésoporeux ait montré une capacité d’adsorption de glycérol un peu plus élevée, l’étude a révélé que les adsorbants mésoporeux ont tendance à piéger une quantité importante de molécules plus volumineuses, telles que les « fatty acid methyl ester » (FAME), dans leur vaste réseau de pores. Cependant, dans l’adsorbant à porosité hiérarchisée, la fine couche de zéolite silicalite-1 microporeuse joue un rôle de membrane empêchant la diffusion des molécules de FAME dans les mésopores composant le noyau/coeur de l’adsorbant composite, tandis que le volume des mésopores du noyau permet l’adsorption du glycérol sous forme de multicouches. Finalement, cette caractéristique du matériau coeur/coquille a sensiblement amélioré les performances en termes de rendement de purification et de capacité d’adsorption, par rapport à d’autres adsorbants classiques, y compris le gel de silice mésoporeuse et les zéolithes.
Resumo:
Les techniques des directions d’arrivée (DOA) sont une voie prometteuse pour accroitre la capacité des systèmes et les services de télécommunications en permettant de mieux estimer le canal radio-mobile. Elles permettent aussi de suivre précisément des usagers cellulaires pour orienter les faisceaux d’antennes dans leur direction. S’inscrivant dans ce contexte, ce présent mémoire décrit étape par étape l’implémentation de l’algorithme de haut niveau MUSIC (MUltiple SIgnal Classification) sur une plateforme FPGA afin de déterminer en temps réel l’angle d’arrivée d’une ou des sources incidentes à un réseau d’antennes. Le concept du prototypage rapide des lois de commande (RCP) avec les outils de XilinxTM System generator (XSG) et du MBDK (Model Based Design Kit) de NutaqTM est le concept de développement utilisé. Ce concept se base sur une programmation de code haut niveau à travers des modèles, pour générer automatiquement un code de bas niveau. Une attention particulière est portée sur la méthode choisie pour résoudre le problème de la décomposition en valeurs et vecteurs propres de la matrice complexe de covariance par l’algorithme de Jacobi. L’architecture mise en place implémentant cette dernière dans le FPGA (Field Programmable Gate Array) est détaillée. Par ailleurs, il est prouvé que MUSIC ne peut effectuer une estimation intéressante de la position des sources sans une calibration préalable du réseau d’antennes. Ainsi, la technique de calibration par matrice G utilisée dans ce projet est présentée, en plus de son modèle d’implémentation. Enfin, les résultats expérimentaux du système mis à l’épreuve dans un environnement réel en présence d’une source puis de deux sources fortement corrélées sont illustrés et analysés.