1000 resultados para Énergie de surface
Resumo:
Les brosses de polyélectrolytes font l’objet d’une attention particulière pour de nombreuses applications car elles présentent la capacité de changer de conformation et, par conséquent, de propriétés de surface en réponse aux conditions environnementales appliquées. Le contrôle des principaux paramètres de ces brosses telles que l'épaisseur, la composition et l'architecture macromoléculaire, est essentiel pour obtenir des polymères greffés bien définis. Ceci est possible avec la Polymérisation Radicalaire par Transfert d’Atomes - Initiée à partir de la Surface (PRTA-IS), qui permet la synthèse de brosses polymériques de manière contrôlée à partir d’une couche d'amorceurs immobilisés de manière covalente sur une surface. Le premier exemple d’une synthèse directe de brosses de poly(acide acrylique) (PAA) par polymérisation radicalaire dans l’eau a été démontré. Par greffage d’un marqueur fluorescent aux brosses de PAA et via l’utilisation de la microscopie de fluorescence par réflexion totale interne, le dégreffage du PAA en temps réel a pu être investigué. Des conditions environnementales de pH ≥ 9,5 en présence de sel, se sont avérées critiques pour la stabilité de la liaison substrat-amorceur, conduisant au dégreffage du polymère. Afin de protéger de l’hydrolyse cette liaison substrat-amorceur sensible et prévenir le dégreffage non souhaité du polymère, un espaceur hydrophobique de polystyrène (PS) a été inséré entre l'amorceur et le bloc de PAA stimuli-répondant. Les brosses de PS-PAA obtenues étaient stables pour des conditions extrêmes de pH et de force ionique. La réponse de ces brosses de copolymère bloc a été étudiée in situ par ellipsométrie, et le changement réversible de conformation collapsée à étirée, induit par les variations de pH a été démontré. De plus, des différences de conformation provenant des interactions du bloc de PAA avec des ions métalliques de valence variable ont été obtenues. Le copolymère bloc étudié semble donc prometteur pour la conception de matériaux répondant rapidement a divers stimuli. Par la suite, il a été démontré qu’un acide phosphonique pouvait être employé en tant qu’ amorceur PRTA-IS comme alternative aux organosilanes. Cet amorceur phosphonate a été greffé pour la première fois avec succès sur des substrats de silice et une PRTA-IS en milieux aqueux a permis la synthèse de brosses de PAA et de poly(sulfopropyl méthacrylate). La résistance accrue à l’hydrolyse de la liaison Sisubstrat-O- Pamorceur a été confirmée pour une large gamme de pH 7,5 à 10,5 et a permis l’étude des propriétés de friction des brosses de PAA sous différentes conditions expérimentales par mesure de forces de surface. Malgré la stabilité des brosses de PAA à haute charge appliquée, les études des propriétés de friction ne révèlent pas de changement significatif du coefficient de friction en fonction du pH et de la force ionique.
Resumo:
Une sonde électrostatique de Langmuir cylindrique a été utilisée pour caractériser une post-décharge d’un plasma d’ondes de surface de N2-O2 par la mesure de la densité des ions et électrons ainsi que la température des électrons dérivée de la fonction de distribution en énergie des électrons (EEDF). Une densité maximale des électrons au centre de la early afterglow de l’ordre de 1013 m-3 a été déterminée, alors que celle-ci a chuté à 1011 m-3 au début de la late afterglow. Tout au long du profil de la post-décharge, une densité des ions supérieure à celle des électrons indique la présence d’un milieu non macroscopiquement neutre. La post-décharge est caractérisée par une EEDF quasi maxwellienne avec une température des électrons de 0.5±0.1 eV, alors qu’elle grimpe à 1.1 ±0.2 eV dans la early afterglow due à la contribution des collisions vibrationnelles-électroniques (V-E) particulièrement importantes. L’ajout d’O2 dans la décharge principale entraîne un rehaussement des espèces chargées et de la température des électrons suivi d’une chute avec l’augmentation de la concentration d’O2. Le changement de la composition électrique de la post-décharge par la création de NO+ au détriment des ions N2+ est à l’origine du phénomène. Le recours à cette post-décharge de N2 pour la modification des propriétés d’émission optique de nanofils purs de GaN et avec des inclusions d’InGaN a été étudié par photoluminescence (PL). Bien que l’émission provenant des nanofils de GaN et de la matrice de GaN recouvrant les inclusions diminue suite à la création de sites de recombinaison non radiatifs, celle provenant des inclusions d’InGaN augmente fortement. Des mesures de PL par excitation indiquent que cet effet n’est pas attribuable à un changement de l’absorption de la surface de GaN. Ceci suggère un recuit dynamique induit par la désexcitation des métastables de N2 suite à leur collision à la surface des nanofils et la possibilité de passiver les défauts de surface tels que des lacunes d’azote par l’action d’atomes de N2 réactifs provenant de la post-décharge. L’incorporation d’O2 induit les mêmes effets en plus d’un décalage vers le rouge de la bande d’émission des inclusions, suggérant l’action des espèces d’O2 au sein même des nanostructures.
Resumo:
Dans ce travail, j’étudierai principalement un modèle abélien de Higgs en 2+1 dimensions, dans lequel un champ scalaire interagit avec un champ de jauge. Des défauts topologiques, nommés vortex, sont créés lorsque le potentiel possède un minimum brisant spontanément la symétrie U(1). En 3+1 dimensions, ces vortex deviennent des défauts à une dimension. Ils ap- paraissent par exemple en matière condensée dans les supraconducteurs de type II comme des lignes de flux magnétique. J’analyserai comment l’énergie des solutions statiques dépend des paramètres du modèle et en particulier du nombre d’enroulement du vortex. Pour le choix habituel de potentiel (un poly- nôme quartique dit « BPS »), la relation entre les masses des deux champs mène à deux types de comportements : type I si la masse du champ de jauge est plus grande que celle du champ sca- laire et type II inversement. Selon le cas, la dépendance de l’énergie au nombre d’enroulement, n, indiquera si les vortex auront tendance à s’attirer ou à se repousser, respectivement. Lorsque le flux emprisonné est grand, les vortex présentent un profil où la paroi est mince, permettant certaines simplifications dans l’analyse. Le potentiel, un polynôme d’ordre six (« non-BPS »), est choisi tel que le centre du vortex se trouve dans le vrai vide (minimum absolu du potentiel) alors qu’à l’infini le champ scalaire se retrouve dans le faux vide (minimum relatif du potentiel). Le taux de désintégration a déjà été estimé par une approximation semi-classique pour montrer l’impact des défauts topologiques sur la stabilité du faux vide. Le projet consiste d’abord à établir l’existence de vortex classi- quement stables de façon numérique. Puis, ma contribution fut une analyse des paramètres du modèle révélant le comportement énergétique de ceux-ci en fonction du nombre d’enroulement. Ce comportement s’avèrera être différent du cas « BPS » : le ratio des masses ne réussit pas à décrire le comportement observé numériquement.
Resumo:
Suite à un stage avec la compagnie Hatch, nous possédons des jeux de données composés de séries chronologiques de vitesses de vent mesurées à divers sites dans le monde, sur plusieurs années. Les ingénieurs éoliens de la compagnie Hatch utilisent ces jeux de données conjointement aux banques de données d’Environnement Canada pour évaluer le potentiel éolien afin de savoir s’il vaut la peine d’installer des éoliennes à ces endroits. Depuis quelques années, des compagnies offrent des simulations méso-échelle de vitesses de vent, basées sur divers indices environnementaux de l’endroit à évaluer. Les ingénieurs éoliens veulent savoir s’il vaut la peine de payer pour ces données simulées, donc si celles-ci peuvent être utiles lors de l’estimation de la production d’énergie éolienne et si elles pourraient être utilisées lors de la prévision de la vitesse du vent long terme. De plus, comme l’on possède des données mesurées de vitesses de vent, l’on en profitera pour tester à partir de diverses méthodes statistiques différentes étapes de l’estimation de la production d’énergie. L’on verra les méthodes d’extrapolation de la vitesse du vent à la hauteur d’une turbine éolienne et l’on évaluera ces méthodes à l’aide de l’erreur quadratique moyenne. Aussi, on étudiera la modélisation de la vitesse du vent par la distributionWeibull et la variation de la distribution de la vitesse dans le temps. Finalement, l’on verra à partir de la validation croisée et du bootstrap si l’utilisation de données méso-échelle est préférable à celle de données des stations de référence, en plus de tester un modèle où les deux types de données sont utilisées pour prédire la vitesse du vent. Nous testerons la méthodologie globale présentement utilisée par les ingénieurs éoliens pour l’estimation de la production d’énergie d’un point de vue statistique, puis tenterons de proposer des changements à cette méthodologie, qui pourraient améliorer l’estimation de la production d’énergie annuelle.
Resumo:
Pour analyser les images en tomodensitométrie, une méthode stœchiométrique est gé- néralement utilisée. Une courbe relie les unités Hounsfield d’une image à la densité électronique du milieu. La tomodensitométrie à double énergie permet d’obtenir des informations supplémentaires sur ces images. Une méthode stœchiométrique a été dé- veloppée pour permettre de déterminer les valeurs de densité électronique et de numéro atomique effectif à partir d’une paire d’images d’un tomodensitomètre à double énergie. Le but de cette recherche est de développer une nouvelle méthode d’identification de tissus en utilisant ces paramètres extraits en tomodensitométrie à double énergie. Cette nouvelle méthode est comparée avec la méthode standard de tomodensitométrie à simple énergie. Par ailleurs, l’impact dosimétrique de bien identifier un tissu est déterminé. Des simulations Monte Carlo permettent d’utiliser des fantômes numériques dont tous les paramètres sont connus. Les différents fantômes utilisés permettent d’étalonner les méthodes stœchiométriques, de comparer la polyvalence et la robustesse des méthodes d’identification de tissus double énergie et simple énergie, ainsi que de comparer les distributions de dose dans des fantômes uniformes de mêmes densités, mais de compo- sitions différentes. La méthode utilisant la tomodensitométrie à double énergie fournit des valeurs de densi- tés électroniques plus exactes, quelles que soient les conditions étudiées. Cette méthode s’avère également plus robuste aux variations de densité des tissus. L’impact dosimé- trique d’une bonne identification de tissus devient important pour des traitements aux énergies plus faibles, donc aux énergies d’imagerie et de curiethérapie.
Resumo:
Après des décennies de développement, l'ablation laser est devenue une technique importante pour un grand nombre d'applications telles que le dépôt de couches minces, la synthèse de nanoparticules, le micro-usinage, l’analyse chimique, etc. Des études expérimentales ainsi que théoriques ont été menées pour comprendre les mécanismes physiques fondamentaux mis en jeu pendant l'ablation et pour déterminer l’effet de la longueur d'onde, de la durée d'impulsion, de la nature de gaz ambiant et du matériau de la cible. La présente thèse décrit et examine l'importance relative des mécanismes physiques qui influencent les caractéristiques des plasmas d’aluminium induits par laser. Le cadre général de cette recherche forme une étude approfondie de l'interaction entre la dynamique de la plume-plasma et l’atmosphère gazeuse dans laquelle elle se développe. Ceci a été réalisé par imagerie résolue temporellement et spatialement de la plume du plasma en termes d'intensité spectrale, de densité électronique et de température d'excitation dans différentes atmosphères de gaz inertes tel que l’Ar et l’He et réactifs tel que le N2 et ce à des pressions s’étendant de 10‾7 Torr (vide) jusqu’à 760 Torr (pression atmosphérique). Nos résultats montrent que l'intensité d'émission de plasma dépend généralement de la nature de gaz et qu’elle est fortement affectée par sa pression. En outre, pour un délai temporel donné par rapport à l'impulsion laser, la densité électronique ainsi que la température augmentent avec la pression de gaz, ce qui peut être attribué au confinement inertiel du plasma. De plus, on observe que la densité électronique est maximale à proximité de la surface de la cible où le laser est focalisé et qu’elle diminue en s’éloignant (axialement et radialement) de cette position. Malgré la variation axiale importante de la température le long du plasma, on trouve que sa variation radiale est négligeable. La densité électronique et la température ont été trouvées maximales lorsque le gaz est de l’argon et minimales pour l’hélium, tandis que les valeurs sont intermédiaires dans le cas de l’azote. Ceci tient surtout aux propriétés physiques et chimiques du gaz telles que la masse des espèces, leur énergie d'excitation et d'ionisation, la conductivité thermique et la réactivité chimique. L'expansion de la plume du plasma a été étudiée par imagerie résolue spatio-temporellement. Les résultats montrent que la nature de gaz n’affecte pas la dynamique de la plume pour des pressions inférieures à 20 Torr et pour un délai temporel inférieur à 200 ns. Cependant, pour des pressions supérieures à 20 Torr, l'effet de la nature du gaz devient important et la plume la plus courte est obtenue lorsque la masse des espèces du gaz est élevée et lorsque sa conductivité thermique est relativement faible. Ces résultats sont confirmés par la mesure de temps de vol de l’ion Al+ émettant à 281,6 nm. D’autre part, on trouve que la vitesse de propagation des ions d’aluminium est bien définie juste après l’ablation et près de la surface de la cible. Toutefois, pour un délai temporel important, les ions, en traversant la plume, se thermalisent grâce aux collisions avec les espèces du plasma et du gaz.
Resumo:
Le protocole pour le greffage irréversible du copolymère amphiphile polystyrène-b-poly (acrylate de sodium) PS-b-PANa, sur un substrat de mica et de silice hydrophobe a été développé, en utilisant la méthode de greffage à partir de solution. Les propriétés de surface du bloc chargé ont été évaluées. L’effet de la force ionique sur le gonflement des chaînes a été investigué par ellipsométrie. Les forces d’interaction entre les surfaces recouvertes du copolymère ont été évaluées par la technique SFA. Les profils de force ont démontré être stables et nettement répulsifs en compression et décompression, montrant l’irréversibilité du greffage. Les forces de frottement entre les brosses de PANa sont élevées, mais aucune évidence d’endommagement de la surface n’a été observée. La comparaison entre le comportement à la surface des chaînes de l’acide polyacrylique PAA et celles du PANa, obtenues par deux méthodes de greffage différentes, est également investiguée.
Resumo:
Injectable drug nanocarriers have greatly benefited in their clinical development from the addition of a superficial hydrophilic corona to improve their cargo pharmacokinetics. The most studied and used polymer for this purpose is poly(ethylene glycol), PEG. However, in spite of its wide use for over two decades now, there is no general consensus on the optimum PEG chain coverage-density and size required to escape from the mononuclear phagocyte system and to extend the circulation time. Moreover, cellular uptake and active targeting may have conflicting requirements in terms of surface properties of the nanocarriers which complicates even more the optimization process. These persistent issues can be largely attributed to the lack of straightforward characterization techniques to assess the coverage-density, the conformation or the thickness of a PEG layer grafted or adsorbed on a particulate drug carrier and is certainly one of the main reasons why so few clinical applications involving PEG coated particle-based drug delivery systems are under clinical trial so far. The objective of this review is to provide the reader with a brief description of the most relevant techniques used to assess qualitatively or quantitatively PEG chain coverage-density, conformation and layer thickness on polymeric nanoparticles. Emphasis has been made on polymeric particle (solid core) either made of copolymers containing PEG chains or modified after particle formation. Advantages and limitations of each technique are presented as well as methods to calculate PEG coverage-density and to investigate PEG chains conformation on the NP surface.
Resumo:
The need for reliable predictions of the solar activity cycle motivates the development of dynamo models incorporating a representation of surface processes sufficiently detailed to allow assimilation of magnetographic data. In this series of papers we present one such dynamo model, and document its behavior and properties. This first paper focuses on one of the model's key components, namely surface magnetic flux evolution. Using a genetic algorithm, we obtain best-fit parameters of the transport model by least-squares minimization of the differences between the associated synthetic synoptic magnetogram and real magnetographic data for activity cycle 21. Our fitting procedure also returns Monte Carlo-like error estimates. We show that the range of acceptable surface meridional flow profiles is in good agreement with Doppler measurements, even though the latter are not used in the fitting process. Using a synthetic database of bipolar magnetic region (BMR) emergences reproducing the statistical properties of observed emergences, we also ascertain the sensitivity of global cycle properties, such as the strength of the dipole moment and timing of polarity reversal, to distinct realizations of BMR emergence, and on this basis argue that this stochasticity represents a primary source of uncertainty for predicting solar cycle characteristics.
Resumo:
La synthèse d'images dites photoréalistes nécessite d'évaluer numériquement la manière dont la lumière et la matière interagissent physiquement, ce qui, malgré la puissance de calcul impressionnante dont nous bénéficions aujourd'hui et qui ne cesse d'augmenter, est encore bien loin de devenir une tâche triviale pour nos ordinateurs. Ceci est dû en majeure partie à la manière dont nous représentons les objets: afin de reproduire les interactions subtiles qui mènent à la perception du détail, il est nécessaire de modéliser des quantités phénoménales de géométries. Au moment du rendu, cette complexité conduit inexorablement à de lourdes requêtes d'entrées-sorties, qui, couplées à des évaluations d'opérateurs de filtrage complexes, rendent les temps de calcul nécessaires à produire des images sans défaut totalement déraisonnables. Afin de pallier ces limitations sous les contraintes actuelles, il est nécessaire de dériver une représentation multiéchelle de la matière. Dans cette thèse, nous construisons une telle représentation pour la matière dont l'interface correspond à une surface perturbée, une configuration qui se construit généralement via des cartes d'élévations en infographie. Nous dérivons notre représentation dans le contexte de la théorie des microfacettes (conçue à l'origine pour modéliser la réflectance de surfaces rugueuses), que nous présentons d'abord, puis augmentons en deux temps. Dans un premier temps, nous rendons la théorie applicable à travers plusieurs échelles d'observation en la généralisant aux statistiques de microfacettes décentrées. Dans l'autre, nous dérivons une procédure d'inversion capable de reconstruire les statistiques de microfacettes à partir de réponses de réflexion d'un matériau arbitraire dans les configurations de rétroréflexion. Nous montrons comment cette théorie augmentée peut être exploitée afin de dériver un opérateur général et efficace de rééchantillonnage approximatif de cartes d'élévations qui (a) préserve l'anisotropie du transport de la lumière pour n'importe quelle résolution, (b) peut être appliqué en amont du rendu et stocké dans des MIP maps afin de diminuer drastiquement le nombre de requêtes d'entrées-sorties, et (c) simplifie de manière considérable les opérations de filtrage par pixel, le tout conduisant à des temps de rendu plus courts. Afin de valider et démontrer l'efficacité de notre opérateur, nous synthétisons des images photoréalistes anticrenelées et les comparons à des images de référence. De plus, nous fournissons une implantation C++ complète tout au long de la dissertation afin de faciliter la reproduction des résultats obtenus. Nous concluons avec une discussion portant sur les limitations de notre approche, ainsi que sur les verrous restant à lever afin de dériver une représentation multiéchelle de la matière encore plus générale.
Resumo:
Adolescent idiopathic scoliosis (AIS) is a musculoskeletal pathology. It is a complex spinal curvature in a 3-D space that also affects the appearance of the trunk. The clinical follow-up of AIS is decisive for its management. Currently, the Cobb angle, which is measured from full spine radiography, is the most common indicator of the scoliosis progression. However, cumulative exposure to X-rays radiation increases the risk for certain cancers. Thus, a noninvasive method for the identification of the scoliosis progression from trunk shape analysis would be helpful. In this study, a statistical model is built from a set of healthy subjects using independent component analysis and genetic algorithm. Based on this model, a representation of each scoliotic trunk from a set of AIS patients is computed and the difference between two successive acquisitions is used to determine if the scoliosis has progressed or not. This study was conducted on 58 subjects comprising 28 healthy subjects and 30 AIS patients who had trunk surface acquisitions in upright standing posture. The model detects 93% of the progressive cases and 80% of the nonprogressive cases. Thus, the rate of false negatives, representing the proportion of undetected progressions, is very low, only 7%. This study shows that it is possible to perform a scoliotic patient's follow-up using 3-D trunk image analysis, which is based on a noninvasive acquisition technique.
Resumo:
Study Design. Reliability study. Objectives. To assess between-acquisition reliability of new multilevel trunk cross sections measurements, in order to define what is a real change when comparing 2 trunk surface acquisitions of a same patient, before and after surgery or throughout the clinical monitoring. Summary of Background Data. Several cross-sectional surface measurements have been proposed in the literature for noninvasive assessment of trunk deformity in patients with adolescent idiopathic scoliosis (AIS). However, only the maximum values along the trunk are evaluated and used for monitoring progression and assessing treatment outcome. Methods. Back surface rotation (BSR), trunk rotation (TR), and coronal and sagittal trunk deviation are computed on 300 cross sections of the trunk. Each set of 300 measures is represented as a single functional data, using a set of basis functions. To evaluate between-acquisition variability at all trunk levels, a test-retest reliability study is conducted on 35 patients with AIS. A functional correlation analysis is also carried out to evaluate any redundancy between the measurements. Results. Each set of 300 measures was successfully described using only 10 basis functions. The test-retest reliability of the functional measurements is good to very good all over the trunk, except above the shoulders level. The typical errors of measurement are between 1.20° and 2.2° for the rotational measures and between 2 and 6 mm for deviation measures. There is a very strong correlation between BSR and TR all over the trunk, a moderate correlation between coronal trunk deviation and both BSR and TR, and no correlation between sagittal trunk deviation and any other measurement. Conclusion. This novel representation of trunk surface measurements allows for a global assessment of trunk surface deformity. Multilevel trunk measurements provide a broader perspective of the trunk deformity and allow a reliable multilevel monitoring during clinical follow-up of patients with AIS and a reliable assessment of the esthetic outcome after surgery.
Resumo:
Scoliosis treatment strategy is generally chosen according to the severity and type of the spinal curve. Currently, the curve type is determined from X-rays whose acquisition can be harmful for the patient. We propose in this paper a system that can predict the scoliosis curve type based on the analysis of the surface of the trunk. The latter is acquired and reconstructed in 3D using a non invasive multi-head digitizing system. The deformity is described by the back surface rotation, measured on several cross-sections of the trunk. A classifier composed of three support vector machines was trained and tested using the data of 97 patients with scoliosis. A prediction rate of 72.2% was obtained, showing that the use of the trunk surface for a high-level scoliosis classification is feasible and promising.
Resumo:
The present study on the vertical structure of horizontal wind variability in the surface boundary layer over Sriharikota. Based on clock wind speed and direction measuring meteorological tower facility from seven levels in the 100 m layer. The study on wind variability and elliptical approximation of wind hodographs investigated for this tropical coastal station established that Sriharikota is of meso-scale weather entity. Wind variability ratio increases from lower levels to upper levels. In South West monsoon months the station is of high ratio values and it gets affected with meso-scale weather features like thunderstorms. Average total shears are observed greater values than scalar shears. Scalar shears are high in the lowest shear levels compared to upper levels. Semi diurnal types of oscillation in average total shears are found in south west monsoon months. During cyclonic storm passage it is observed that there can be significant difference in mean wind speed from 10 m to 100 m level, but it is not so for peak wind speeds. The variations in wind variability ratio in different months is clearly depicted its strong link to define meso-scale or synoptic –scale forcing domination for this station. Meso-scale forcing is characterized by diurnal wind variability and synoptic- scale forcing by interdiurnal wind variability.
Resumo:
Simultaneous elimination of specular reflection and backscattered power from a plane metallic surface by simulated corrugated surfaces of constant period and variable strip width for TM polarisation is reported. This new configuration offers almost a ten-fold frequency bandwidth compared with a regularly spaced strip grating of the same size.