13 resultados para Bruit vasculaire
Resumo:
Le contrôle de bruit est un domaine de recherche très fertile. Que ce soit pour du contrôle actif ou passif, de nombreuses recherches sont menées pour améliorer les méthodes existantes ou pour trouver de nouveaux procédés. Ainsi, dans le domaine du contrôle actif, de nouveaux moyens de production d’anti-bruit sont développés en vue de les substituer aux duos amplificateur/haut-parleur fragiles, gourmands en énergie et encombrants. Le sujet abordé ici est la conception et la réalisation d’un prototype capable de générer de forts niveaux de bruit à partir d’une source d’écoulement d’air à fort débit. Le prototype servira ensuite de source pour le contrôle actif du bruit d’un ventilateur. Pour atteindre ces performances, un design simple a été développé : l’obstruction périodique de l’écoulement d’air comprimé génère une source acoustique harmonique à la fréquence d’obstruction de l’écoulement. Le contrôle de la vitesse de l’obstruction gère la fréquence et la phase de l’anti-bruit émis. Le dispositif conçu dans ce projet permet de générer un bruit tonal réglé en phase et en fréquence sur une référence, pour une pression acoustique de 110 dB à 1 m.
Resumo:
Des métastases cérébrales vont se développer chez 10 à 30% des patients atteints de cancer. La radiothérapie fait partie des possibilités de traitement, et ceci même si les dommages induits au cerveau par des rayonnements ionisants sont potentiellement importants. Nous proposons l’utilisation de l’Imagerie par Résonance Magnétique fonctionnelle (IRMf) sur le rat pour mieux comprendre ces effets. Ce mémoire traite de la mise en place d’un tel protocole d’IRMf. Les principaux points abordés sont la préparation de l’animal, les différentes insultes et stimulations sensorielles possibles ainsi que la méthode d’acquisition. Notre protocole d’insulte hyperoxique permet de déceler des dommages physiques d’origine vasculaire suite à une intense irradiation dans le cerveau du rat. Toutefois, la même procédure associée à une stimulation mécanique de la patte arrière de l’animal n’amène pas de changement observable à l’IRMf sur un sujet sain. Malgré tout, ce type de stimulation induit une réponse respiratoire, même sous anesthésie d’isoflurane. Une telle méthode n’est donc pas adéquate à l’étude d’animaux anesthésiés, surtout ceux dont la réponse cérébrale pourra avoir été réduite par une irradiation. Quelques améliorations et modifications du protocole seraient possiblement à même de permettre une mesure reproductible de la réponse d’IRMf à une stimulation sensorielle. Le présent mémoire décrit les tentatives de mise en place d’une stimulation sensorielle donnant lieu à une activation IRMf reproductible et localisée. De plus, un protocole de traitement d’image adapté au petit animal ainsi qu’une implémentation de la méthode keyhole ont été mis en place. L’insulte hyperoxique et ses effets sur le cerveau de rat ont été explorés plus en détail.
Resumo:
Résumé : En raison de sa grande étendue, le Nord canadien présente plusieurs défis logistiques pour une exploitation rentable de ses ressources minérales. La TéléCartographie Prédictive (TCP) vise à faciliter la localisation de gisements en produisant des cartes du potentiel géologique. Des données altimétriques sont nécessaires pour générer ces cartes. Or, celles actuellement disponibles au nord du 60e parallèle ne sont pas optimales principalement parce qu’elles sont dérivés de courbes à équidistance variable et avec une valeur au mètre. Parallèlement, il est essentiel de connaître l'exactitude verticale des données altimétriques pour être en mesure de les utiliser adéquatement, en considérant les contraintes liées à son exactitude. Le projet présenté vise à aborder ces deux problématiques afin d'améliorer la qualité des données altimétriques et contribuer à raffiner la cartographie prédictive réalisée par TCP dans le Nord canadien, pour une zone d’étude située au Territoire du Nord-Ouest. Le premier objectif était de produire des points de contrôles permettant une évaluation précise de l'exactitude verticale des données altimétriques. Le second objectif était de produire un modèle altimétrique amélioré pour la zone d'étude. Le mémoire présente d'abord une méthode de filtrage pour des données Global Land and Surface Altimetry Data (GLA14) de la mission ICESat (Ice, Cloud and land Elevation SATellite). Le filtrage est basé sur l'application d'une série d'indicateurs calculés à partir d’informations disponibles dans les données GLA14 et des conditions du terrain. Ces indicateurs permettent d'éliminer les points d'élévation potentiellement contaminés. Les points sont donc filtrés en fonction de la qualité de l’attitude calculée, de la saturation du signal, du bruit d'équipement, des conditions atmosphériques, de la pente et du nombre d'échos. Ensuite, le document décrit une méthode de production de Modèles Numériques de Surfaces (MNS) améliorés, par stéréoradargrammétrie (SRG) avec Radarsat-2 (RS-2). La première partie de la méthodologie adoptée consiste à faire la stéréorestitution des MNS à partir de paires d'images RS-2, sans point de contrôle. L'exactitude des MNS préliminaires ainsi produits est calculée à partir des points de contrôles issus du filtrage des données GLA14 et analysée en fonction des combinaisons d’angles d'incidences utilisées pour la stéréorestitution. Ensuite, des sélections de MNS préliminaires sont assemblées afin de produire 5 MNS couvrant chacun la zone d'étude en totalité. Ces MNS sont analysés afin d'identifier la sélection optimale pour la zone d'intérêt. Les indicateurs sélectionnés pour la méthode de filtrage ont pu être validés comme performant et complémentaires, à l’exception de l’indicateur basé sur le ratio signal/bruit puisqu’il était redondant avec l’indicateur basé sur le gain. Autrement, chaque indicateur a permis de filtrer des points de manière exclusive. La méthode de filtrage a permis de réduire de 19% l'erreur quadratique moyenne sur l'élévation, lorsque que comparée aux Données d'Élévation Numérique du Canada (DNEC). Malgré un taux de rejet de 69% suite au filtrage, la densité initiale des données GLA14 a permis de conserver une distribution spatiale homogène. À partir des 136 MNS préliminaires analysés, aucune combinaison d’angles d’incidences des images RS-2 acquises n’a pu être identifiée comme étant idéale pour la SRG, en raison de la grande variabilité des exactitudes verticales. Par contre, l'analyse a indiqué que les images devraient idéalement être acquises à des températures en dessous de 0°C, pour minimiser les disparités radiométriques entre les scènes. Les résultats ont aussi confirmé que la pente est le principal facteur d’influence sur l’exactitude de MNS produits par SRG. La meilleure exactitude verticale, soit 4 m, a été atteinte par l’assemblage de configurations de même direction de visées. Par contre, les configurations de visées opposées, en plus de produire une exactitude du même ordre (5 m), ont permis de réduire le nombre d’images utilisées de 30%, par rapport au nombre d'images acquises initialement. Par conséquent, l'utilisation d'images de visées opposées pourrait permettre d’augmenter l’efficacité de réalisation de projets de SRG en diminuant la période d’acquisition. Les données altimétriques produites pourraient à leur tour contribuer à améliorer les résultats de la TCP, et augmenter la performance de l’industrie minière canadienne et finalement, améliorer la qualité de vie des citoyens du Nord du Canada.
Resumo:
Depuis l'année 1960, jusqu'au début des années '90, une institution financière, dite coopérative, s'est imposée sur le marché au Québec, accumulant durant cette période près de un milliard et demi de dollars (1 500 000 000,00 $) d'actifs. Presque jusqu'à sa "mort" coopérative, elle a connu des taux de croissance atteignant soixante pourcent (60%) par année. Beaucoup de personnes ont perdu des sommes importantes dans cette galère. L'image des coopératives en a pris pour son rhume et n'eût été du Mouvement Desjardins, nous doutons fort que la coopération aujourd'hui encore bénéficierait des mêmes appuis! Cette institution financière se nomme : le mouvement des caisses d'entraide économique. Pour éviter une situation semblable dans l'avenir, nous croyons pertinent de faire un retour dans le passé et d'analyser les comportements que ces caisses privilégiaient. À la lecture de ce travail, certains seront surpris de connaître les méthodes utilisées par elles et, à notre avis, le peu de dimension coopérative qu'on apportait avec les membres. Leur "faillite technique" en '81 a obligé le Gouvernement du Québec à réagir en conséquence. C'est alors que fut créé au Ministère des Institutions Financières un service d'inspection opérant avec des règles et des suivis relativement élaborés. On se rappelle qu'à cette époque aussi plusieurs banques à charte canadiennes ont connu des problèmes financiers majeurs, nécessitant l'intervention de l'État fédéral. Il a donc fallu des situations critiques avant qu'on apporte les correctifs requis, et cela même si le gouvernement de l'époque savait par un rapport secret depuis 1978, l'existence d'un problème potentiel! En 1979, alors que nous étions à l'emploi du Mouvement Desjardins, nous nous sommes intéressés à leurs techniques de ventes et à leur fonctionnement parce que certains dirigeants, gestionnaires et recruteurs des Caisses d'Entraide Économique laissaient courir le bruit que leur réseau était regroupé avec le Mouvement Desjardins, et aussi parce que leur agressivité causait des saignées de fonds très importantes dans les caisses populaires. On profitait ainsi de la grande crédibilité et confiance accordées à Desjardins pour accroître les ventes de leurs plans d'épargne. En collaboration avec certaines fédérations, nous avons compilé plusieurs informations pour fins d'analyse et de compréhension de leur système. Peu de temps après le début de ce travail, des problèmes majeurs au niveau de la liquidité, de la sécurité des fonds et de privilèges accordés à certains de leurs membres ont été soulevés au réseau TVA. Dès lors, étant donné la précarité de leur système financier, les membres n'avaient plus accès à leurs épargnes. La confiance en cette institution financière fut détruite presque sur le coup. […]
Resumo:
Abstract : Many individuals that had a stroke have motor impairments such as timing deficits that hinder their ability to complete daily activities like getting dressed. Robotic rehabilitation is an increasingly popular therapeutic avenue in order to improve motor recovery among this population. Yet, most studies have focused on improving the spatial aspect of movement (e.g. reaching), and not the temporal one (e.g. timing). Hence, the main aim of this study was to compare two types of robotic rehabilitation on the immediate improvement of timing accuracy: haptic guidance (HG), which consists of guiding the person to make the correct movement, and thus decreasing his or her movement errors, and error amplification (EA), which consists of increasing the person’s movement errors. The secondary objective consisted of exploring whether the side of the stroke lesion had an effect on timing accuracy following HG and EA training. Thirty-four persons that had a stroke (average age 67 ± 7 years) participated in a single training session of a timing-based task (simulated pinball-like task), where they had to activate a robot at the correct moment to successfully hit targets that were presented a random on a computer screen. Participants were randomly divided into two groups, receiving either HG or EA. During the same session, a baseline phase and a retention phase were given before and after each training, and these phases were compared in order to evaluate and compare the immediate impact of HG and EA on movement timing accuracy. The results showed that HG helped improve the immediate timing accuracy (p=0.03), but not EA (p=0.45). After comparing both trainings, HG was revealed to be superior to EA at improving timing (p=0.04). Furthermore, a significant correlation was found between the side of stroke lesion and the change in timing accuracy following EA (r[subscript pb]=0.7, p=0.001), but not HG (r[subscript pb]=0.18, p=0.24). In other words, a deterioration in timing accuracy was found for participants with a lesion in the left hemisphere that had trained with EA. On the other hand, for the participants having a right-sided stroke lesion, an improvement in timing accuracy was noted following EA. In sum, it seems that HG helps improve the immediate timing accuracy for individuals that had a stroke. Still, the side of the stroke lesion seems to play a part in the participants’ response to training. This remains to be further explored, in addition to the impact of providing more training sessions in order to assess any long-term benefits of HG or EA.
Resumo:
Pour augmenter sa compréhension du monde qui l’entoure, le physicien moderne ne cesse de travailler au développement d’outils théoriques ou expérimentaux pour l’aider à répondre à ses questions fondamentales. Une partie de ces chercheurs tente de répondre à une question bien définie, mais simultanément très vague : qu’est-ce que le bruit électro- nique? Guidés par cette idée, certains étudient des dispositifs comme la jonction tunnel ou la jonction Josephson, alors que d’autres travaillent à l’amélioration des méthodes de détection du bruit. Le présent mémoire de maîtrise traite donc de la conception d’un outil de détection bien particulier, le micro-bolomètre supraconducteur de niobium-titane-niobium. La théorie derrière le fonctionnement d’un tel dispositif est expliquée à l’aide d’une comparaison entre un bolomètre conventionnel et un bolomètre supraconducteur. Des concepts comme la sensibilité d’un détecteur, la conductance thermique et la méthode d’utilisation sont présentés. Les étapes du procédé de fabrication sont ensuite explicitées dans les moindres détails. Finalement, les propriétés électroniques d’un tel micro-bolomètre sont analysées à l’aide de la courbe caractéristique courant-tension, de la courbe de transition supraconductrice en température et de dfférentes mesures en réflectométrie. La puissance équivalente de bruit (NEP) mesurée est de l’ordre de 10[indice supérieur −17] W/√Hz et le temps caractéristique de détection est de 1.43 μs. Le dispositif présenté dans ce mémoire a un avantage important par rapport aux bolomètres supraconducteurs généralement utilisés : il ne nécessite pas de courant de polarisation continu pour le mettre en fonctionnement. Ceci peut résulter en divers avantages technologiques.
Resumo:
Chaque année, le piratage mondial de la musique coûte plusieurs milliards de dollars en pertes économiques, pertes d’emplois et pertes de gains des travailleurs ainsi que la perte de millions de dollars en recettes fiscales. La plupart du piratage de la musique est dû à la croissance rapide et à la facilité des technologies actuelles pour la copie, le partage, la manipulation et la distribution de données musicales [Domingo, 2015], [Siwek, 2007]. Le tatouage des signaux sonores a été proposé pour protéger les droit des auteurs et pour permettre la localisation des instants où le signal sonore a été falsifié. Dans cette thèse, nous proposons d’utiliser la représentation parcimonieuse bio-inspirée par graphe de décharges (spikegramme), pour concevoir une nouvelle méthode permettant la localisation de la falsification dans les signaux sonores. Aussi, une nouvelle méthode de protection du droit d’auteur. Finalement, une nouvelle attaque perceptuelle, en utilisant le spikegramme, pour attaquer des systèmes de tatouage sonore. Nous proposons tout d’abord une technique de localisation des falsifications (‘tampering’) des signaux sonores. Pour cela nous combinons une méthode à spectre étendu modifié (‘modified spread spectrum’, MSS) avec une représentation parcimonieuse. Nous utilisons une technique de poursuite perceptive adaptée (perceptual marching pursuit, PMP [Hossein Najaf-Zadeh, 2008]) pour générer une représentation parcimonieuse (spikegramme) du signal sonore d’entrée qui est invariante au décalage temporel [E. C. Smith, 2006] et qui prend en compte les phénomènes de masquage tels qu’ils sont observés en audition. Un code d’authentification est inséré à l’intérieur des coefficients de la représentation en spikegramme. Puis ceux-ci sont combinés aux seuils de masquage. Le signal tatoué est resynthétisé à partir des coefficients modifiés, et le signal ainsi obtenu est transmis au décodeur. Au décodeur, pour identifier un segment falsifié du signal sonore, les codes d’authentification de tous les segments intacts sont analysés. Si les codes ne peuvent être détectés correctement, on sait qu’alors le segment aura été falsifié. Nous proposons de tatouer selon le principe à spectre étendu (appelé MSS) afin d’obtenir une grande capacité en nombre de bits de tatouage introduits. Dans les situations où il y a désynchronisation entre le codeur et le décodeur, notre méthode permet quand même de détecter des pièces falsifiées. Par rapport à l’état de l’art, notre approche a le taux d’erreur le plus bas pour ce qui est de détecter les pièces falsifiées. Nous avons utilisé le test de l’opinion moyenne (‘MOS’) pour mesurer la qualité des systèmes tatoués. Nous évaluons la méthode de tatouage semi-fragile par le taux d’erreur (nombre de bits erronés divisé par tous les bits soumis) suite à plusieurs attaques. Les résultats confirment la supériorité de notre approche pour la localisation des pièces falsifiées dans les signaux sonores tout en préservant la qualité des signaux. Ensuite nous proposons une nouvelle technique pour la protection des signaux sonores. Cette technique est basée sur la représentation par spikegrammes des signaux sonores et utilise deux dictionnaires (TDA pour Two-Dictionary Approach). Le spikegramme est utilisé pour coder le signal hôte en utilisant un dictionnaire de filtres gammatones. Pour le tatouage, nous utilisons deux dictionnaires différents qui sont sélectionnés en fonction du bit d’entrée à tatouer et du contenu du signal. Notre approche trouve les gammatones appropriés (appelés noyaux de tatouage) sur la base de la valeur du bit à tatouer, et incorpore les bits de tatouage dans la phase des gammatones du tatouage. De plus, il est montré que la TDA est libre d’erreur dans le cas d’aucune situation d’attaque. Il est démontré que la décorrélation des noyaux de tatouage permet la conception d’une méthode de tatouage sonore très robuste. Les expériences ont montré la meilleure robustesse pour la méthode proposée lorsque le signal tatoué est corrompu par une compression MP3 à 32 kbits par seconde avec une charge utile de 56.5 bps par rapport à plusieurs techniques récentes. De plus nous avons étudié la robustesse du tatouage lorsque les nouveaux codec USAC (Unified Audion and Speech Coding) à 24kbps sont utilisés. La charge utile est alors comprise entre 5 et 15 bps. Finalement, nous utilisons les spikegrammes pour proposer trois nouvelles méthodes d’attaques. Nous les comparons aux méthodes récentes d’attaques telles que 32 kbps MP3 et 24 kbps USAC. Ces attaques comprennent l’attaque par PMP, l’attaque par bruit inaudible et l’attaque de remplacement parcimonieuse. Dans le cas de l’attaque par PMP, le signal de tatouage est représenté et resynthétisé avec un spikegramme. Dans le cas de l’attaque par bruit inaudible, celui-ci est généré et ajouté aux coefficients du spikegramme. Dans le cas de l’attaque de remplacement parcimonieuse, dans chaque segment du signal, les caractéristiques spectro-temporelles du signal (les décharges temporelles ;‘time spikes’) se trouvent en utilisant le spikegramme et les spikes temporelles et similaires sont remplacés par une autre. Pour comparer l’efficacité des attaques proposées, nous les comparons au décodeur du tatouage à spectre étendu. Il est démontré que l’attaque par remplacement parcimonieux réduit la corrélation normalisée du décodeur de spectre étendu avec un plus grand facteur par rapport à la situation où le décodeur de spectre étendu est attaqué par la transformation MP3 (32 kbps) et 24 kbps USAC.
Resumo:
Résumé : En imagerie médicale, il est courant d’associer plusieurs modalités afin de tirer profit des renseignements complémentaires qu’elles fournissent. Par exemple, la tomographie d’émission par positrons (TEP) peut être combinée à l’imagerie par résonance magnétique (IRM) pour obtenir à la fois des renseignements sur les processus biologiques et sur l’anatomie du sujet. Le but de ce projet est d’explorer les synergies entre l’IRM et la TEP dans le cadre d’analyses pharmacocinétiques. Plus spécifiquement, d’exploiter la haute résolution spatiale et les renseignements sur la perfusion et la perméabilité vasculaire fournis par l’IRM dynamique avec agent de contraste afin de mieux évaluer ces mêmes paramètres pour un radiotraceur TEP injecté peu de temps après. L’évaluation précise des paramètres de perfusion du radiotraceur devrait permettre de mieux quantifier le métabolisme et de distinguer l’accumulation spécifique et non spécifique. Les travaux ont porté sur deux radiotraceurs de TEP (18F-fluorodésoxyglucose [FDG] et 18F-fluoroéthyle-tyrosine [FET]) ainsi que sur un agent de contraste d’IRM (acide gadopentétique [Gd DTPA]) dans un modèle de glioblastome chez le rat. Les images ont été acquises séquentiellement, en IRM, puis en TEP, et des prélèvements sanguins ont été effectués afin d’obtenir une fonction d’entrée artérielle (AIF) pour chaque molécule. Par la suite, les images obtenues avec chaque modalité ont été recalées et l’analyse pharmacocinétique a été effectuée par régions d’intérêt (ROI) et par voxel. Pour le FDG, un modèle irréversible à 3 compartiments (2 tissus) a été utilisé conformément à la littérature. Pour la FET, il a été déterminé qu’un modèle irréversible à 2 tissus pouvait être appliqué au cerveau et à la tumeur, alors qu’un modèle réversible à 2 tissus convenait aux muscles. La possibilité d’effectuer une conversion d’AIF (sanguine ou dérivée de l’image) entre le Gd DTPA et la FET, ou vice versa, a aussi été étudiée et s’est avérée faisable dans le cas des AIF sanguines obtenues à partir de l’artère caudale, comme c’est le cas pour le FDG. Finalement, l’analyse pharmacocinétique combinée IRM et TEP a relevé un lien entre la perfusion du Gd-DTPA et du FDG, ou de la FET, pour les muscles, mais elle a démontré des disparités importantes dans la tumeur. Ces résultats soulignent la complexité du microenvironnement tumoral (p. ex. coexistence de divers modes de transport pour une même molécule) et les nombreux défis rencontrées lors de sa caractérisation chez le petit animal.
Resumo:
La problématique liée au bruit des motoneiges est un enjeu important dans l’industrie des véhicules récréatifs. Il est donc nécessaire de trouver de nouvelles solutions technologiques qui permettront de concevoir des motoneiges plus silencieuses. La suspension arrière est un élément contribuant aux transferts des vibrations du véhicule qui, par la suite, peuvent créer un rayonnement sonore. Pour identifier les chemins de transfert vibroacoustique une méthodologie type TPA (Transfer Path Analysis) et OTPA (Operational Transfer Path Analysis) est mise en place. Cela consiste à utiliser des procédés expérimentaux pour obtenir une modélisation matricielle vibroacoustique de la suspension. Les résultats obtenus seront ensuite validés expérimentalement et permettront de proposer des solutions technologiques qui pourront être intégrées sur les nouveaux prototypes de motoneige.
Resumo:
Dans les turbomachines, le bruit du volume tournant est considéré comme une source majeure d’inconfort. La connaissance et l’identification des sources de bruit du rotor sont primordiales pour la conception d’une machine silencieuse et énergétiquement plus efficace. Ce document examine la capacité à la fois de la décomposition orthogonale aux valeurs (POD) et la décomposition aux valeurs singulières (SVD) à identifier les zones sur la surface d’une source (pale de ventilateur) fixe ou en mouvement subsonique qui contribuent le plus à la puissance acoustique rayonnée. La méthode de calcul de la dynamique des fluides (CFD) du code source OpenFoam est utilisée comme une première étape pour évaluer le champ de pression à la surface de la pale en mouvement subsonique. Les fluctuations de ce champ de pression permettent d’estimer à la fois le bruit de charge et la puissance sonore qui est rayonnée par la pale basée sur l’analogie acoustique de Ffowcs Williams et Hawkings (FW&H). Dans une deuxième étape, le bruit de charge estimé est également utilisé tant pour les approches POD et SVD. On remarque que la puissance sonore reconstruite par les deux dernières approches en se fondant uniquement sur les modes acoustiques les plus importants est similaire à celle prédite par l’analogie de FW&H. De plus, les modes les plus rayonnants estimés par la méthode SVD sont projetés sur la surface de la pale, mettant ainsi en évidence leurs emplacements. Il est alors prévu que cette identification soit utilisée comme guide pour l’ingénieur dans la conception d’une roue moins bruyante.
Resumo:
Ce projet de recherche a permis d'étudier l'émission d'un rayonnement térahertz (THz) par des antennes photoconductrices (PC) émettrices de type micro-ruban coplanaire. Ces antennes sont fabriquées sur substrats d'arséniure de gallium semi-isolant (GaAs-SI) ou sur ce même substrat ayant subit un traitement d'implantation ionique aux protons suivi d'un recuit thermique (GaAs:H). L'influence de ce procédé de fabrication sur les propriétés du matériau photoconducteur et sur les caractéristiques de l'antenne émettrice a été étudiée. Des mesures de photoconductivité résolue en temps effectuées sur les deux types de substrat montrent que le procédé d'implantation/recuit a eu pour effet de diminuer le temps de vie des photoporteurs de 630 ps à environ 4 ps, tandis que la mobilité n'est réduite que d'un facteur maximum de 1,6. Cette valeur de la mobilité des photoporteurs a par ailleurs été estimée à environ 100 cm$^2$/(V.s) pour le substrat GaAs:H. Les mesures électriques effectuées sur les antennes fabriquées sur les deux types de substrat montrent que le procédé d'implantation/recuit permet d'augmenter la résistivité de la couche active du dispositif d'un facteur 10 (elle passerait de 10$^{8}$ $\Omega$.cm pour le GaAs-SI à 10$^9$ $\Omega$.cm pour le GaAs:H). Les courbes courant-tension, en obscurité et sous illumination, de ces antennes suggèrent également que la densité de pièges profonds est fortement augmentée suite au traitement d'implantation/recuit. L'étude des caractéristiques des diverses antennes a permis de montrer l'intérêt de ce procédé de fabrication. Pour les antennes fabriquées sur GaAs:H, la largeur de bande est améliorée (elle atteint environ 3 THz) et l'amplitude du champ THz émis est augmentée par un facteur 1,4 (dans les mêmes conditions expérimentales). Le rapport signal/bruit des traces THz mesurées sur les antennes les plus performantes est $>$ 200. Une plus grande résistivité et une densité de pièges profonds plus élevée, permet d'appliquer de plus fortes tensions de polarisation sur ces antennes GaAs:H. Finalement, nos résultats ont montré que les améliorations des caractéristiques d'émission de ces antennes THz sont corrélées à la présence d'un champ électrique local plus élevé du coté de l'anode du dispositif.
Resumo:
L'énergie solaire est une source d'énergie renouvelable et naturellement disponible partout sur terre. Elle est donc tout indiquée pour remplacer à long terme une part importante des combustibles fossiles dans le portrait énergétique mondial. Comme toutes les formes d'énergie utilisées par la société, l'énergie solaire n'échappe pas aux lois économiques et son adoption dépend directement du coût par unité d'énergie produite. Plusieurs recherches et développements technologiques cherchent à réduire ce coût par différents moyens. Une de ces pistes est l'intégration de deux technologies solaires, la technologie photovoltaïque et la technologie thermique, au sein d'un même système. La conception d'un tel système pose plusieurs défis technologiques, le plus important étant sans contredit la compétition entre la quantité d'électricité produite et la qualité de la chaleur. En effet, ces deux variables varient de manière opposée par rapport à la température~: le rendement des cellules photovoltaïques a tendance à diminuer à haute température alors que la valeur utile de l'énergie thermique tend à augmenter. Une conception judicieuse d'un système photovoltaïque/thermique (PV/T) devra donc prendre en compte et connaître précisément le comportement d'une cellule à haute température. Le présent projet propose de concevoir un système permettant la caractérisation de cellules photovoltaïques sur une large plage de température. Premièrement, une revue de littérature pose les bases nécessaires à la compréhension des phénomènes à l'origine de la variation de la performance en fonction de la température. On expose également différents concepts de système PV/T et leur fonctionnement, renforçant ainsi la raison d'être du projet. Deuxièmement, une modélisation théorique d'une cellule photovoltaïque permet de définir grossièrement le comportement attendu à haute température et d'étudier l'importance relative de la variation du courant photogénéré et de la tension en circuit ouvert. Ce modèle sera plus tard comparé à des résultats expérimentaux. Troisièmement, un banc d'essais est conçu et fabriqué d'après une liste de critères et de besoins. Ce banc permet d'illuminer une cellule, de faire varier sa température de -20 °C à 200 °C et de mesurer la courbe I-V associée. Le système est partiellement contrôlé par un PC et la température est asservie par un contrôleur de type PID. Le banc a été conçu de manière à ce que la source de lumière soit aisément échangeable si un spectre différent est désiré. Finalement, le comportement du montage est validé en caractérisant une cellule au silicium et une autre à base de InGaP. Les résultats sont comparés aux prédictions du modèle et aux données de la littérature. Une étude d'incertitude permet également de cibler la source principale de bruit dans le système et propose des pistes d'améliorations à ce propos.
Modélisation et validation expérimentale d'un modèle vibroacoustique d'un silencieux d'une motoneige
Resumo:
Ce mémoire traite la modélisation et la validation expérimentale du bruit d’un silencieux de motoneige. La première phase du projet consiste à modéliser numériquement le système d’échappement avec les méthodes numériques suivantes : éléments finis et éléments finis de frontière, afin d’évaluer ses performances acoustiques : perte par transmission, bruit de bouche et bruit de paroi. Une deuxième phase du projet consiste à valider expérimentalement les performances acoustiques calculées numériquement. La dernière phase du projet se consacrera à une étude paramétrique expérimentale d’un silencieux sur banc moteur. En conclusion, les résultats des modèles numériques mis en œuvre concordent bien avec les résultats expérimentaux. Cependant, les aspects non linéaires rencontrés à la dernière phase du projet n’ont pas été étudiés davantage.