383 resultados para vitesse de l’onde de pouls
Resumo:
Les chutes chez les personnes âgées représentent un problème important de santé publique. Des études montrent qu’environ 30 % des personnes âgées de 65 ans et plus chutent chaque année au Canada, entraînant des conséquences néfastes sur les plans individuel, familiale et sociale. Face à une telle situation la vidéosurveillance est une solution efficace assurant la sécurité de ces personnes. À ce jour de nombreux systèmes d’assistance de services à la personne existent. Ces dispositifs permettent à la personne âgée de vivre chez elle tout en assurant sa sécurité par le port d'un capteur. Cependant le port du capteur en permanence par le sujet est peu confortable et contraignant. C'est pourquoi la recherche s’est récemment intéressée à l’utilisation de caméras au lieu de capteurs portables. Le but de ce projet est de démontrer que l'utilisation d'un dispositif de vidéosurveillance peut contribuer à la réduction de ce fléau. Dans ce document nous présentons une approche de détection automatique de chute, basée sur une méthode de suivi 3D du sujet en utilisant une caméra de profondeur (Kinect de Microsoft) positionnée à la verticale du sol. Ce suivi est réalisé en utilisant la silhouette extraite en temps réel avec une approche robuste d’extraction de fond 3D basée sur la variation de profondeur des pixels dans la scène. Cette méthode se fondera sur une initialisation par une capture de la scène sans aucun sujet. Une fois la silhouette extraite, les 10% de la silhouette correspondant à la zone la plus haute de la silhouette (la plus proche de l'objectif de la Kinect) sera analysée en temps réel selon la vitesse et la position de son centre de gravité. Ces critères permettront donc après analyse de détecter la chute, puis d'émettre un signal (courrier ou texto) vers l'individu ou à l’autorité en charge de la personne âgée. Cette méthode a été validée à l’aide de plusieurs vidéos de chutes simulées par un cascadeur. La position de la caméra et son information de profondeur réduisent de façon considérable les risques de fausses alarmes de chute. Positionnée verticalement au sol, la caméra permet donc d'analyser la scène et surtout de procéder au suivi de la silhouette sans occultation majeure, qui conduisent dans certains cas à des fausses alertes. En outre les différents critères de détection de chute, sont des caractéristiques fiables pour différencier la chute d'une personne, d'un accroupissement ou d'une position assise. Néanmoins l'angle de vue de la caméra demeure un problème car il n'est pas assez grand pour couvrir une surface conséquente. Une solution à ce dilemme serait de fixer une lentille sur l'objectif de la Kinect permettant l’élargissement de la zone surveillée.
Resumo:
Quoique très difficile à résoudre, le problème de satisfiabilité Booléenne (SAT) est fréquemment utilisé lors de la modélisation d’applications industrielles. À cet effet, les deux dernières décennies ont vu une progression fulgurante des outils conçus pour trouver des solutions à ce problème NP-complet. Deux grandes avenues générales ont été explorées afin de produire ces outils, notamment l’approche logicielle et matérielle. Afin de raffiner et améliorer ces solveurs, de nombreuses techniques et heuristiques ont été proposées par la communauté de recherche. Le but final de ces outils a été de résoudre des problèmes de taille industrielle, ce qui a été plus ou moins accompli par les solveurs de nature logicielle. Initialement, le but de l’utilisation du matériel reconfigurable a été de produire des solveurs pouvant trouver des solutions plus rapidement que leurs homologues logiciels. Cependant, le niveau de sophistication de ces derniers a augmenté de telle manière qu’ils restent le meilleur choix pour résoudre SAT. Toutefois, les solveurs modernes logiciels n’arrivent toujours pas a trouver des solutions de manière efficace à certaines instances SAT. Le but principal de ce mémoire est d’explorer la résolution du problème SAT dans le contexte du matériel reconfigurable en vue de caractériser les ingrédients nécessaires d’un solveur SAT efficace qui puise sa puissance de calcul dans le parallélisme conféré par une plateforme FPGA. Le prototype parallèle implémenté dans ce travail est capable de se mesurer, en termes de vitesse d’exécution à d’autres solveurs (matériels et logiciels), et ce sans utiliser aucune heuristique. Nous montrons donc que notre approche matérielle présente une option prometteuse vers la résolution d’instances industrielles larges qui sont difficilement abordées par une approche logicielle.
Resumo:
Travail d'intégration présenté à Dorothy Barthélemy en vue de l’obtention du grade de Maîtrise professionnelle en physiothérapie
Resumo:
Nous développons dans cette thèse, des méthodes de bootstrap pour les données financières de hautes fréquences. Les deux premiers essais focalisent sur les méthodes de bootstrap appliquées à l’approche de "pré-moyennement" et robustes à la présence d’erreurs de microstructure. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. En se basant sur cette ap- proche d’estimation de la volatilité intégrée en présence d’erreurs de microstructure, nous développons plusieurs méthodes de bootstrap qui préservent la structure de dépendance et l’hétérogénéité dans la moyenne des données originelles. Le troisième essai développe une méthode de bootstrap sous l’hypothèse de Gaussianité locale des données financières de hautes fréquences. Le premier chapitre est intitulé: "Bootstrap inference for pre-averaged realized volatility based on non-overlapping returns". Nous proposons dans ce chapitre, des méthodes de bootstrap robustes à la présence d’erreurs de microstructure. Particulièrement nous nous sommes focalisés sur la volatilité réalisée utilisant des rendements "pré-moyennés" proposés par Podolskij et Vetter (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à hautes fréquences consécutifs qui ne se chevauchent pas. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. Le non-chevauchement des blocs fait que les rendements "pré-moyennés" sont asymptotiquement indépendants, mais possiblement hétéroscédastiques. Ce qui motive l’application du wild bootstrap dans ce contexte. Nous montrons la validité théorique du bootstrap pour construire des intervalles de type percentile et percentile-t. Les simulations Monte Carlo montrent que le bootstrap peut améliorer les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques, pourvu que le choix de la variable externe soit fait de façon appropriée. Nous illustrons ces méthodes en utilisant des données financières réelles. Le deuxième chapitre est intitulé : "Bootstrapping pre-averaged realized volatility under market microstructure noise". Nous développons dans ce chapitre une méthode de bootstrap par bloc basée sur l’approche "pré-moyennement" de Jacod et al. (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à haute fréquences consécutifs qui se chevauchent. Le chevauchement des blocs induit une forte dépendance dans la structure des rendements "pré-moyennés". En effet les rendements "pré-moyennés" sont m-dépendant avec m qui croît à une vitesse plus faible que la taille d’échantillon n. Ceci motive l’application d’un bootstrap par bloc spécifique. Nous montrons que le bloc bootstrap suggéré par Bühlmann et Künsch (1995) n’est valide que lorsque la volatilité est constante. Ceci est dû à l’hétérogénéité dans la moyenne des rendements "pré-moyennés" au carré lorsque la volatilité est stochastique. Nous proposons donc une nouvelle procédure de bootstrap qui combine le wild bootstrap et le bootstrap par bloc, de telle sorte que la dépendance sérielle des rendements "pré-moyennés" est préservée à l’intérieur des blocs et la condition d’homogénéité nécessaire pour la validité du bootstrap est respectée. Sous des conditions de taille de bloc, nous montrons que cette méthode est convergente. Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques. Nous illustrons cette méthode en utilisant des données financières réelles. Le troisième chapitre est intitulé: "Bootstrapping realized covolatility measures under local Gaussianity assumption". Dans ce chapitre nous montrons, comment et dans quelle mesure on peut approximer les distributions des estimateurs de mesures de co-volatilité sous l’hypothèse de Gaussianité locale des rendements. En particulier nous proposons une nouvelle méthode de bootstrap sous ces hypothèses. Nous nous sommes focalisés sur la volatilité réalisée et sur le beta réalisé. Nous montrons que la nouvelle méthode de bootstrap appliquée au beta réalisé était capable de répliquer les cummulants au deuxième ordre, tandis qu’il procurait une amélioration au troisième degré lorsqu’elle est appliquée à la volatilité réalisée. Ces résultats améliorent donc les résultats existants dans cette littérature, notamment ceux de Gonçalves et Meddahi (2009) et de Dovonon, Gonçalves et Meddahi (2013). Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques et les résultats de bootstrap existants. Nous illustrons cette méthode en utilisant des données financières réelles.
Resumo:
Nous savons que la grande majorité des étoiles WC9 produit de la poussière à base de carbone. Cette dernière doit se former dans des zones de très haute densité afin de survivre à l’environnement hostile qu’est celui du vent d’une étoile WR. Les étoiles WC appartenant à un système binaire WR + O produisent de la poussière quand les vents des deux étoiles entrent en collision et forment une zone de choc pouvant augmenter la densité du gaz d’un facteur 1000. Par contre, plusieurs étoiles WC9 n’ont, à ce jour, montré aucun signe de la présence d’un compagnon. Le but du projet est de tenter d’identifier un mécanisme alternatif responsable de la formation de poussière dans les étoiles WC9 n’appartenant pas à un système binaire. Nous présentons les résultats d’une campagne d’observation visant à caractériser la variabilité spectroscopique d’un échantillon de huit étoiles WC9 et une étoile WC8d. Nos résultats indiquent que la majorité des étoiles montrent des variations à grande échelle dans la raie d’émission C III 5696, soit à un niveau d’au moins 5% du flux de la raie et que les structures dans le vent ont une dispersion de vitesses de l’ordre de 150-300 km/s. De manière générale, les variations de vitesse radiales sont anti-corrélées avec le coefficient d’asymétrie de la raie, ce qui semble infirmer la présence d’un compagnon. Des observations en photométrie de l’étoile WR103 montrent une période de 9.1 ± 0.6 jours qui s’accorde avec les variations spectroscopiques et qui ne semble pas, de manière évidente, d’origine binaire.
Resumo:
Au cours des dernières années, un intérêt grandissant concernant les rôles physiologiques des endocannabinoïdes (eCBs) a été observé. Le système eCB est une cible attrayante pour la modulation du système immunitaire et de la douleur périphérique. Bien que le récepteur CB1 soit distribué dans le système nerveux, le récepteur CB2 est traditionnellement associé au système immunitaire. Ce dogme fait maintenant l’objet d’un débat depuis la découverte de l’expression du récepteur CB2 dans certains neurones. La rétine est un modèle important pour l’étude de processus neuronaux. La présence du récepteur CB1 y a été démontrée. Des études fonctionnelles rapportent que l’activation des récepteurs cannabinoïdes affecte le fonctionnement de plusieurs cellules rétiniennes. À ce jour, aucune étude ne s’est intéressée au rôle global des récepteurs CB1 et CB2 dans la rétine. Nous avons investigué les conséquences de l’élimination du récepteur CB1 (cnr1-/-) ou du récepteur CB2 (cnr2-/-) sur la fonction rétinienne mesurée par électrorétinographie. Nous avons également caractérisé la distribution du récepteur CB2 dans la rétine. Pour ce faire, nous avons comparé la spécificité de plusieurs anticorps dirigés contre le récepteur CB2. Seulement l’un des anticorps testés a montré une spécificité satisfaisante. Il a permis de détecter la présence du récepteur CB2 dans les cônes, les bâtonnets, les cellules horizontales, amacrines, bipolaires et ganglionnaires. Nos résultats d’électrorétinographie indiquent que seules les souris cnr2-/- présentent une amplitude accrue de l’onde a des ERG, en conditions scotopiques. En conditions photopiques, l’amplitude de l’onde b des souris cnr2-/- montre un schéma d’adaptation à la lumière différent des autres groupes. Aucun effet significatif n’a été observé chez les animaux cnr1-/-. Ces résultats permettent de conclure que les récepteurs CB1 et CB2 jouent des rôles différents dans le traitement visuel et que le récepteur CB2 semble être impliqué dans l’établissement des réponses rétiniennes.
Resumo:
Les vagues de bateau ajoutent une pression supplémentaire sur les berges de rivières et doivent être considérées dans les modèles de prédiction des taux de recul des berges. L’objectif de cette étude est d’examiner le rôle des vagues de bateau sur l’écoulement et le transport en suspension le long des berges en milieu fluvial. Pour atteindre cet objectif, nous utilisons un transect perpendiculaire à la berge de quatre courantomètres électromagnétiques (ECMs) mesurant deux dimensions de l’écoulement et deux turbidimètres (OBSs) placés dos à dos, orientés vers la berge et le large pour mesurer les conditions moyennes et turbulentes de l’écoulement longitudinal et vertical ainsi que les flux de sédiments en suspension provoqués par les vagues. Une chaloupe à moteur de 16 pieds, équipée d’un moteur 40 hp, a été utilisée afin de générer des vagues. Nous avons mesuré l’effet de trois distances à partir de la berge (5, 10, 15 m) et trois vitesses de bateau (5, 15 et 25 km/h) et cinq répliques de chaque combinaison de distance et de vitesse ont été réalisées, totalisant 45 passages. Nous avons caractérisé la variabilité des conditions d’écoulement, de vagues et de transport de sédiments et nous avons réalisé des analyses spectrales afin de séparer les portions oscillatoire et turbulente de l’écoulement généré par les vagues de bateau. L’effet de la distance et de la vitesse du bateau sur le transport de sédiments est non-linéaire et la réponse sédimentaire induite par les passages de bateau montre une variabilité importante entre les répliques et les deux sondes OBS, ce qui suggère un changement morphologique induit par les vagues de bateau. Les corrélations entre les variables d’écoulement et de transport montrent l’importance des relations entre le cisaillement et la puissance de la portion turbulente de l’écoulement avec le transport de sédiments. Cette étude a permis de quantifier les relations entre la dynamique des vagues et les flux de concentrations de sédiments en suspension, ce qui représente une contribution importante au développement de mesures de mitigation dans les environnements fluviaux où les berges sont fragilisées par le trafic plaisancier.
Resumo:
Résumé: Dans le but de préparer des complexes de Zr pour la catalyse homogène de la polymérisation des lactides et de l’hydroamination des olefines, l’elaboration et l’optimisation d’une méthode systématique et efficace de synthèse des ligands dikétimines ayant différents substituants alkyles (R) à la position N,N’ a été realisée. Des dikétimines (nacnacRH) symétriques ont été obtenus avec une pureté de plus de 95 % et un rendement de 65 % lorsque R = Me et des rendements allant de 80 à 95 % lorsque le groupe R = n-Pr, i-Pr, i-Bu, Bu, Cy et (+)-CH(Me)Ph. La synthèse des dikétimines ayant des substituants N-alkyls différents, dite asymétriques, donne toujours un mélange statistique de trois ligands: nacnacR,R’H, nacnacR,RH et nacnacR’,R’H qui n’ont pu être separés. Seuls les dikétimines asymétriques avec un substituant N-alkyl et un autre N-aryl (nacnacR,ArH) ont été obtenus avec des rendements plus élevés que celui du mélange statistique. Par la suite, la complexation de ces ligands bidentés au Zr, la caractérisation de ces complexes et l’investigation de la réactivité ont été étudiés. Les complexes de Zr de type (nacnacR)2ZrCl2 ont été obtenus par deux voies de synthèse principales: la première consiste à traiter le sel de lithium du ligand avec le ZrCl4. La seconde est la réaction du ligand avec les complexes neutres d’alkyl-zirconium(IV) par protonation de l'alkyle coordonné. En solution, les complexes obtenus de (nacnacR)2ZrX2 possèdent un comportement dynamique via un « Bailar-twist » et les paramètres d'activation de cette isomérisation ont été calculés. Le complexe octaèdrique (nacnacBn)2ZrCl2 n'est pas réactif dans la carbozirconation et son alkylation n'était pas possible par l’échange des chlorures avec les alkyles. L’analogue diméthylé (nacnacBn)2ZrMe2 peut être préparé par alkylation du ZrCl4 avant la complexation du ligand. On a également observé que ce dernier n’est pas réactif dans la carbozirconation. L‘analogue diéthoxyde (nacnacBn)2Zr(OEt)2 est obtenu par échange des diméthyles avec les éthoxydes. La polymérisation du lactide avec celui-ci en tant que précurseur est relativement lente et ne peut être effectuée que dans le monomère fondu. Par conséquent, pour résoudre les problèmes rencontrés avec les complexes de zirconium (dikétiminates non-pontés), un ligand dikétimines pontés par le diaminocyclohexane, (±)-C6H10(nacnacXylH)2, LH2, (Xyl = 2,6-diméthylphényle) a été préparé. La complexation de ce ligand tetradenté au metal a été réalisée par deux voies de synthèse; la première est la réaction du sel de lithium de ce ligand avec le ZrCl4(THF)2. La deuxième est la déprotonation du ligand neutre avec le Zr(NMe2)4 et l’élimination du diméthylamine. Des complexes du type: (±)-C6H10(nacnacXylH)2ZrX2 avec X = Cl, NMe2 ont été obtenus. Les ligands de chlorure sont dans ce cas facilement remplaçables par des éthoxydes ou des méthyles. On a observé l’activité la plus élevée jamais observée pour un complexe d’un métal du groupe 4 avec le complexe de (±)-C6H10(nacnacXylH)2Zr(OEt)2 dans la polymérisation de lactide. L'étude cinétique a montré que la loi de vitesse est du premier ordre en catalyseur et en monomère et la constante de vitesse est k = 14 (1) L mol-1 s-1. L'analyse des polymères a montré l’obtention de masses moléculaires faibles et l’abscence de stéréocontrôle. La réaction de (±)-C6H10(nacnacXylH)2ZrCl2 avec le triflate d’argent donne le (±)-C6H10(nacnacXylH)2Zr(OTf)2. Le complexe bis-triflate obtenu possède une activité catalytique elevée pour les additions du type aza-Michael. L’utilisation du R,R-C6H10(nacnacXylH)2Zr(OTf)2 énantiopur comme catalyseur, dans les additions du type aza-Michael asymétriques donne le produit desiré avec un excès énantiomérique de 19%.
Resumo:
Introduction : Les accéléromètres sont actuellement les appareils les plus utilisés pour mesurer le niveau d’activité physique, et ce, parce qu'ils évaluent les niveaux d'activité physique de façon objective. Toutefois, les mouvements humains sont difficiles à mesurer, et de nombreuses limitations doivent être prises en considération pour la bonne utilisation des accéléromètres. Les études présentées s’intéressent donc à la validité de la fonction podomètre des accéléromètres ainsi qu’à la validation de la composante accéléromètre d’un nouvel appareil multicapteur (SenseDoc). Méthode : Les sujets ayant participé à la première étude, qui consistait en la validation de la fonction podomètre des accéléromètres, ont marché sur un tapis roulant à trois vitesses différentes (2,5 km/h, 3,5 km/h et 4,8 km/h) pendant 5 minutes par palier. Un accéléromètre (ActiGraph GT3X) porté à la ceinture a enregistré le nombre de pas tandis qu'une caméra a enregistré la marche des participants. Pour la seconde étude, les participants portaient un accéléromètre Actigraph et un SenseDoc à la hanche. Les données brutes des accéléromètres et la mesure de la consommation d’oxygène par calorimétrie indirecte ont été mesurées lors de 14 activités réalisées en laboratoire allant de sédentaires à vigoureuses. Résultats : La première étude indique que les accéléromètres ont détecté seulement 53 % des pas à 2,5 km/h, 82 % à 3,5 km/h et 91 % à 4,8 km/h pour les personnes non obèses. Pour les personnes obèses, l'accéléromètre a détecté 47 % des pas à 2.5 km/h, 67 % à 3.5 km/h et 100 % à 4.8 km/h, des résultats significativement différents des personnes non obèses. La seconde étude confirme pour sa part que le SenseDoc est un outil valide de mesure du niveau d’activité physique. Les accéléromètres possèdent une bonne capacité prédictive de la dépense énergétique avec des valeurs de R carré de 0,84 et 0,80 respectivement pour l'Actigraph et le SenseDoc. Conclusion : À vitesse de marche lente, les accéléromètres sous-estiment le nombre de pas, et ce, dans une plus large mesure chez les personnes obèses que chez les personnes non obèses. Également, une méthode valide et transparente de transformation de données brutes d’accélérométrie a été divulguée dans l’étude avec le SenseDoc. Les travaux présentés dans ce mémoire visent à améliorer l’utilisation en milieu clinique et en recherche des accéléromètres et ouvrent la voie à une plus grande uniformité entre les études utilisant différents types d’accéléromètres.
Resumo:
Introduction: Les stratégies d’optimisation de la performance chez les athlètes sont de plus en plus exploitées par les entraîneurs et préparateurs physiques. La potentialisation de post- activation (PAP) est reconnue comme étant un phénomène pouvant mener à une augmentation des performances. L’objectif de la présente étude était de donc décrire les effets d’une pré-sollicitation à la hanche sur la coordination inter-musculaire et la performance au cours d’un exercice épuisant. Méthodes: Six athlètes de patins de vitesse de courte piste (3 de sexe masculin et 3 de sexe féminin; âge: 20.2 ± 2.8 ans; moyenne±écart-type) ont exécuté aléatoirement un exercice qui consistait en 2 séries de 9 blocs de squats sautés maximaux, entre-coupés d’un squat isométrique d’une durée de 5 secondes sans pré-sollicitation préalable (CON) et avec une tâche de pré-sollicitation unilatérale de squat isométrique (EXP) contre une barre fixe de 2x3 secondes. Le pic de puissance moyen, l’amplitude et la fréquence moyenne d’EMG, et la vitesse et l’accélération angulaires des premiers et derniers blocs étaient enregistrés. Résultats: La pré-sollicitation isométrique maximale des membres inférieurs n’a pas amélioré de manière significative la performance de sauts et la coordination des muscles stabilisateurs à la hanche. La fréquence spectrale moyenne a néanmoins témoigné de l’implication de stratégies compensatoires du membre inférieur gauche en réponse à la fatigue. Conclusion: La pré-sollicitation des stabilisateurs à la hanche n’augmenterait pas la performance de squats répétés. Par contre, la fréquence moyenne du grand fessier et du tibial antérieur gauche ont suggéré meilleure résistance à la fatigue des muscles du membre inférieur non-dominant avec une pré-sollicitation. Les résultats de la présente étude indiquent donc la pertinence de considérer la pré-sollicitation dans un objectif de performance et de réadaptation sachant que l’asymétrie est omniprésente chez les athlètes et qu’elle est impliquée dans le taux élevé de blessures enregistré chez cette population.
Étude de la cinétique et des dommages de gravure par plasma de couches minces de nitrure d’aluminium
Resumo:
Une étape cruciale dans la fabrication des MEMS de haute fréquence est la gravure par plasma de la couche mince d’AlN de structure colonnaire agissant comme matériau piézoélectrique. Réalisé en collaboration étroite avec les chercheurs de Teledyne Dalsa, ce mémoire de maîtrise vise à mieux comprendre les mécanismes physico-chimiques gouvernant la cinétique ainsi que la formation de dommages lors de la gravure de l’AlN dans des plasmas Ar/Cl2/BCl3. Dans un premier temps, nous avons effectué une étude de l’influence des conditions opératoires d’un plasma à couplage inductif sur la densité des principales espèces actives de la gravure, à savoir, les ions positifs et les atomes de Cl. Ces mesures ont ensuite été corrélées aux caractéristiques de gravure, en particulier la vitesse de gravure, la rugosité de surface et les propriétés chimiques de la couche mince. Dans les plasmas Ar/Cl2, nos travaux ont notamment mis en évidence l’effet inhibiteur de l’AlO, un composé formé au cours de la croissance de l’AlN par pulvérisation magnétron réactive et non issu des interactions plasmas-parois ou encore de l’incorporation d’humidité dans la structure colonnaire de l’AlN. En présence de faibles traces de BCl3 dans le plasma Ar/Cl2, nous avons observé une amélioration significative du rendement de gravure de l’AlN dû à la formation de composés volatils BOCl. Par ailleurs, selon nos travaux, il y aurait deux niveaux de rugosité post-gravure : une plus faible rugosité produite par la présence d’AlO dans les plasmas Ar/Cl2 et indépendante de la vitesse de gravure ainsi qu’une plus importante rugosité due à la désorption préférentielle de l’Al dans les plasmas Ar/Cl2/BCl3 et augmentant linéairement avec la vitesse de gravure.
Resumo:
Les suspensivores ont la tâche importante de séparer les particules de l'eau. Bien qu'une grande gamme de morphologies existe pour les structures d'alimentation, elles sont pratiquement toutes constituées de rangées de cylindres qui interagissent avec leur environnement fluide. Le mécanisme de capture des particules utilisé dépend des contraintes morphologiques, des besoins énergétiques et des conditions d'écoulement. Comme nos objectifs étaient de comprendre ces relations, nous avons eu recours à des études de comparaison pour interpréter les tendances en nature et pour comprendre les conditions qui provoquent de nouveaux fonctionnements. Nous avons utilisé la dynamique des fluides numérique (computational fluid dynamics, CFD) pour créer des expériences contrôlées et pour simplifier les analyses. Notre première étude démontre que les coûts énergétiques associés au pompage dans les espaces petits sont élevés. De plus, le CFD suggère que les fentes branchiales des ptérobranches sont des structures rudimentaires, d'un ancêtre plus grande. Ce dernier point confirme l'hypothèse qu'un ver se nourrit par filtration tel que l'ancêtre des deuterostomes. Notre deuxième étude détermine la gamme du nombre de Reynolds number critique où la performance d'un filtre de balane change. Quand le Re est très bas, les différences morphologiques n'ont pas un grand effet sur le fonctionnement. Cependant, une pagaie devient une passoire lorsque le Re se trouve entre 1 et 3,5. Le CFD s’est dévoilé être un outil très utile qui a permis d’obtenir des détails sur les microfluides. Ces études montrent comment la morphologie et les dynamiques des fluides interagissent avec la mécanisme de capture ou de structures utilisées, ainsi que comment des petits changements de taille, de forme, ou de vitesse d'écoulement peuvent conduire à un nouveau fonctionnement.
Resumo:
L’objectif de ce mémoire de maîtrise est de caractériser la distribution axiale des plasmas tubulaires à la pression atmosphérique créés et entretenus par une onde électromagnétique de surface ainsi que d’explorer le potentiel de ces sources pour la synthèse de matériaux et de nanomatériaux. Un précédent travail de thèse, qui avait pour objectif de déterminer les mécanismes à l’origine de la contraction radiale du plasma créé dans des gaz rares, a mis en lumière un phénomène jusque-là inconnu dans les plasmas d’onde de surface (POS). En effet, la distribution axiale varie différemment selon la puissance incidente ce qui constitue une différence majeure par rapport aux plasmas à pression réduite. Dans ce contexte, nous avons réalisé une étude paramétrique des POS à la pression atmosphérique dans l’Ar. À partir de nos mesures de densité électronique, de température d’excitation et de densité d’atomes d’Ar dans un niveau métastable (Ar 3P2), résolues axialement, nous avons conclu que le comportement axial de l’intensité lumineuse avec la puissance n’est pas lié à un changement de la cinétique de la décharge (qui est dépendante de la température des électrons et de la densité d’atomes d’Ar métastables), mais plutôt à une distribution anormale de dissipation de puissance dans le plasma (reliée à la densité d’électrons). Plus précisément, nos résultats suggèrent que ce dépôt anormal de puissance provient d’une réflexion de l’onde dans le fort gradient de densité de charges en fin de colonne, un effet plus marqué pour de faibles longueurs de colonnes à plasma. Ensuite, nous avons effectué une étude spectroscopique du plasma en présence de précurseurs organiques, en particulier le HMDSO pour la synthèse de matériaux organosiliciés et l’IPT pour la synthèse de matériaux organotitaniques. Les POS à la PA sont caractérisés par des densités de charges très élevées (>10^13 cm^-3), permettant ainsi d’atteindre des degrés de dissociation des précurseurs nettement plus élevés que ceux d'autres plasmas froids à la pression atmosphérique comme les décharges à barrière diélectrique. Dans de tels cas, les matériaux synthétisés prennent la forme de nanopoudres organiques de taille inférieure à 100 nm. En présence de faibles quantités d’oxygène dans le plasma, nous obtenons plutôt des nanopoudres à base d’oxyde de silicium (HMDSO) ou à base de titanate de silicium (IPT), avec très peu de carbone.
Resumo:
Nous démontrons qu'il est possible de former des bicouches fluides non phospholipides en milieu aqueux avec un mélange d'acide palmitique (PA), cholestérol (Chol) et sulfate de cholestérol (Schol) avec une proportion molaire de 30/28/42. Ces liposomes non phospholipidiques peuvent maintenir un gradient de pH (pHinterne 8 / pHexterne 6) sur une période 100 fois plus longue que les liposomes faits de 1-palmitoyl-2-oléoyl-sn-glycéro-3-phosphocholine (POPC) et de cholestérol (60/40 mol/mol). De plus, ces LUV non phospholipidiques protègent l'acide ascorbique d'un milieu oxydant (1 mM de fer (III)). Une fois piégé dans les liposomes, l'acide ascorbique présente une vitesse de dégradation similaire à celle obtenue en l'absence de fer(III). Ces performances illustrent la perméabilité exceptionnellement limitée de ces liposomes, ce qui implique qu'ils peuvent présenter des avantages comme nanocontenants pour certaines applications. D'autre part, des vésicules unilamellaires géantes (GUV pour Giant Unilamellar Vesicles) ont été formées à partir d'un mélange d'acide palmitique et de cholestérol (30/70 mol/mol). Ces GUV sont stables sur l'échelle de temps de semaines, elles ne s'agrègent pas et elles sont sensibles au pH. Afin d'établir la formation des GUV, l'imagerie par microscopie confocale à balayage laser a été utilisée. Deux sondes fluorescentes ont été utilisées: le rouge du Nile, une sonde hydrophobe qui s'insère dans le cœur hydrophobe des bicouches lipidiques, et la calcéine, une sonde hydrophile qui a été emprisonné dans le réservoir interne des GUV. Cette approche a permis l'observation des parois des GUV ainsi que de leur contenu. Ces résultats montrent la possibilité de former de nouveaux microcontenants à partir d'un mélange d'un amphiphile monoalkylé et de stérol.
Resumo:
L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.