731 resultados para Génie chimique


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’électrofilage est une technique permettant de fabriquer des fibres polymériques dont le diamètre varie entre quelques nanomètres et quelques microns. Ces fibres ont donc un rapport surface/volume très élevé. Les fibres électrofilées pourraient trouver des applications dans le relargage de médicaments et le génie tissulaire, comme membranes et capteurs chimiques, ou dans les nanocomposites et dispositifs électroniques. L’électrofilage était initialement utilisé pour préparer des toiles de fibres désordonnées, mais il est maintenant possible d’aligner les fibres par l’usage de collecteurs spéciaux. Cependant, il est important de contrôler non seulement l’alignement macroscopique des fibres mais aussi leur orientation au niveau moléculaire puisque l’orientation influence les propriétés mécaniques, optiques et électriques des polymères. Les complexes moléculaires apparaissent comme une cible de choix pour produire des nanofibres fortement orientées. Dans les complexes d’inclusion d’urée, les chaînes polymères sont empilées dans des canaux unidimensionnels construits à partir d’un réseau tridimensionnel de molécules d’urée liées par des ponts hydrogène. Ainsi, les chaînes polymère sonts très allongées à l’échelle moléculaire. Des nanofibres du complexe PEO-urée ont été préparées pour la première fois par électrofilage de suspensions et de solutions. Tel qu’attendu, une orientation moléculaire inhabituellement élevée a été observée dans ces fibres. De tels complexes orientés pourraient être utilisés à la fois dans des études fondamentales et dans la préparation de matériaux hiérarchiquement structurés. La méthode d’électrofilage peut parfois aussi être utilisée pour préparer des matériaux polymériques métastables qui ne peuvent pas être préparés par des méthodes conventionnelles. Ici, l’électrofilage a été utilisé pour préparer des fibres des complexes stables (α) et "métastables" (β) entre le PEO et l’urée. La caractérisation du complexe β, qui était mal connu, révèle un rapport PEO:urée de 12:8 appartenant au système orthorhombique avec a = 1.907 nm, b = 0.862 nm et c = 0.773 nm. Les chaînes de PEO sont orientées selon l’axe de la fibre. Leur conformation est significativement affectée par les ponts hydrogène. Une structure en couches a été suggérée pour la forme β, plutôt que la structure conventionnelle en canaux adoptée par la forme α. Nos résultats indiquent que le complexe β est thermodynamiquement stable avant sa fonte et peut se transformer en forme α et en PEO liquide par un processus de fonte et recristallisation à 89 ºC. Ceci va dans le sens contraire aux observations faites avec le complexe β obtenu par trempe du complexe α fondu. En effet, le complexe β ainsi obtenu est métastable et contient des cristaux d’urée. Il peut subir une transition de phases cinétique solide-solide pour produire du complexe α dans une vaste gamme de températures. Cette transition est induite par un changement de conformation du PEO et par la formation de ponts hydrogène intermoléculaires entre l’urée et le PEO. Le diagramme de phases du système PEO-urée a été tracé sur toute la gamme de compositions, ce qui a permis d’interpréter la formation de plusieurs mélanges qui ne sont pas à l’équilibre mais qui sont été observés expérimentalement. La structure et le diagramme de phases du complexe PEO-thiourée, qui est aussi un complexe très mal connu, ont été étudiés en détail. Un rapport molaire PEO :thiourée de 3:2 a été déduit pour le complexe, et une cellule monoclinique avec a = 0.915 nm, b = 1.888 nm, c = 0.825 nm et β = 92.35º a été déterminée. Comme pour le complexe PEO-urée de forme β, une structure en couches a été suggérée pour le complexe PEO-thiourée, dans laquelle les molécules de thiourée seraient disposées en rubans intercalés entre deux couches de PEO. Cette structure en couches pourrait expliquer la température de fusion beaucoup plus faible des complexes PEO-thiourée (110 ºC) et PEO-urée de forme β (89 ºC) en comparaison aux structures en canaux du complexe PEO-urée de forme α (143 ºC).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de ce mémoire est de faire un état des lieux des connaissances produites sur les risques environnementaux et la vulnérabilité et appliquer ces connaissances à la ville de Kigali (Rwanda). Après avoir présenté différentes approches, nous avons retenu le cadre d’analyse qui s’inscrit dans l’approche de J.C. Thouret et R.D’Ercole (1996). Cette approche est articulée autour de trois dimensions : enjeux, facteurs de la vulnérabilité et réponses sociales. A travers l’application des éléments pertinents de ces trois dimensions dans le cas de la ville de Kigali, réalisée grâce à une analyse qualitative, centrée sur l’analyse des documents et des entrevues semi-dirigées, voici les principaux résultats que nous avons obtenus: l’analyse des enjeux a révélé que la ville de Kigali est confrontée à plusieurs dommages, parmi lesquels, on peut mentionner les pertes des vies humaines, la démolition des maisons, la contamination des rivières, la prolifération des maladies et la perturbation des besoins de base ( eau potable, électricité, transport) dues aux risques. Cette situation s’explique par la combinaison de plusieurs facteurs dont le relief collinaire, le sol granitique, les pluies violentes, le caractère centrifuge du réseau hydrographique, le sous-dimensionnement des ouvrages d’évacuation et le réseau d’assainissement insuffisant. D’autres facteurs amplifient la vulnérabilité dont l’explosion démographique consécutive à une urbanisation spontanée et inconsciente en zones inondables, l’ensablement des lits des rivières, le vide juridique, les politiques fragmentaires et le dysfonctionnement des acteurs impliqués dans la gestion des risques. Cette situation aurait probablement été améliorée si les réponses sociales étaient efficaces. Or, d’un côté, la faible perception de risque chez les résidants affectés par les risques accélère davantage la vulnérabilité et de l’autre côté, l’intervention significative des CIB n’est pas accompagnée d’actions complémentaires des institutions publiques et des agences internationales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La technique du laser femtoseconde (fs) a été précédemment utilisée pour la production de nanoparticules d'or dans un environnement aqueux biologiquement compatible. Au cours de ce travail de maîtrise, cette méthode a été investiguée en vue d'une application pour la fabrication de nanocristaux de médicament en utilisant le paclitaxel comme modèle. Deux procédés distincts de cette technologie à savoir l'ablation et la fragmentation ont été étudiés. L'influence de la puissance du laser, de point de focalisation, et de la durée du traitement sur la distribution de taille des particules obtenues ainsi que leur intégrité chimique a été évaluée. Les paramètres ont ainsi été optimisés pour la fabrication des nanoparticules. L’évaluation morphologique et chimique a été réalisée par microscopie électronique et spectroscopie infrarouge respectivement. L'état cristallin des nanoparticules de paclitaxel a été caractérisé par calorimétrie differentielle et diffraction des rayons X. L'optimisation du procédé de production de nanoparticules par laser fs a permis d'obtenir des nanocristaux de taille moyenne (400 nm, polydispersité ≤ 0,3). Cependant une dégradation non négligeable a été observée. La cristallinité du médicament a été maintenue durant la procédure de réduction de taille, mais le paclitaxel anhydre a été transformé en une forme hydratée. Les résultats de cette étude suggèrent que le laser fs peut générer des nanocristaux de principe actif. Cependant cette technique peut se révéler problématique pour des médicaments sensibles à la dégradation. Grâce à sa facilité d'utilisation et la possibilité de travailler avec des quantités restreintes de produit, le laser fs pourrait représenter une alternative valable pour la production de nanoparticules de médicaments peu solubles lors des phases initiales de développement préclinique. Mots-clés: paclitaxel, nanocristaux, laser femtoseconde, ablation, fragmentation

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse rapporte le greffage chimique de brosses de polymères neutres de poly(acrylate de tert-butyle) (PtBA) et de brosses chargées d’acide polyacrylique (PAA) sur des substrats de mica afin d’étudier leur conformation en fonction de la densité de greffage, du pH et de la force ionique. Le greffage est réalisé par polymérisation contrôlée par transfert d’atome (ATRP) initiée depuis la surface de mica afin de contrôler la croissance du polymère et sa densité de greffage. L’étude de la conformation des brosses de PtBA et de PAA a été menée avec la technique AFM en mesurant les épaisseurs des films à sec et gonflés sous différentes conditions de solvant, de pH et de force ionique. Une monocouche d’amorceurs est tout d’abord greffée sur du mica porteur de groupes hydroxyles créés par plasma (Ar/H2O). Cette couche a été caractérisée par des mesures d’angle de contact et par la technique TOF-SIMS. L’amorceur greffé a ensuite permis d’initier l’ATRP directement depuis la surface pour former des brosses neutres de PtBA liés de façon covalente au mica. La croissance linéaire de l’épaisseur du film avec la masse molaire du polymère en solution et le taux de conversion montre que la polymérisation est contrôlée. De plus, la ré-initiation des chaînes greffées atteste du caractère vivant de la polymérisation. L’hydrolyse des brosses de PtBA, confirmée par des mesures d’angle de contact, d’épaisseur et par FT-IR, conduit à des brosses de PAA. Les différentes couches greffées sont stables à l’air, en milieu organique et en milieu aqueux et leur gonflement est réversible. Le degreffage de la couche de PAA est observé suite à une longue exposition à pH basique. Cette étude représente le premier exemple de brosses greffées chimiquement sur du mica par polymérisation initiée depuis la surface. La variation des paramètres de la réaction de greffage de l’amorceur, tels que la concentration et la durée de réaction, a permis de contrôler le taux de recouvrement de l’amorceur et la densité de greffage du polymère. Une grande gamme de taux de recouvrement de l’amorceur est accessible et se traduit par un intervalle de densités de greffage allant de faibles à élevées (e.g. 0,04 chaîne/nm2 à 0,5 chaîne/nm2). L’étude de la conformation des chaînes de PtBA dans le DMF montre que cet intervalle de densités recouvre le régime crêpe au régime brosse. Le gonflement de brosses de PAA et la variation de la hauteur de la brosse L ont été étudiés en fonction de la densité de greffage, du pH et du sel ajouté cs (NaCl). Une transition brusque de collapsée à étirée est observée avec l’augmentation du pH, indépendamment de la densité de greffage. A pH neutre, les brosses sont collapsées et se comportent comme des brosses neutres en mauvais solvant. A pH basique, les brosses sont gonflées et chargées et se trouvent dans un régime de Pincus caractéristique des polyélectrolytes forts. En présence de sel, les charges sont partiellement écrantées et les répulsions électrostatiques dominent toujours dans la brosse. Cette étude contribue à une meilleure compréhension du comportement complexe des brosses de polyélectrolytes faibles et apporte un soutien expérimental à la théorie sur le comportement de ces brosses.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les systèmes Matériels/Logiciels deviennent indispensables dans tous les aspects de la vie quotidienne. La présence croissante de ces systèmes dans les différents produits et services incite à trouver des méthodes pour les développer efficacement. Mais une conception efficace de ces systèmes est limitée par plusieurs facteurs, certains d'entre eux sont: la complexité croissante des applications, une augmentation de la densité d'intégration, la nature hétérogène des produits et services, la diminution de temps d’accès au marché. Une modélisation transactionnelle (TLM) est considérée comme un paradigme prometteur permettant de gérer la complexité de conception et fournissant des moyens d’exploration et de validation d'alternatives de conception à des niveaux d’abstraction élevés. Cette recherche propose une méthodologie d’expression de temps dans TLM basée sur une analyse de contraintes temporelles. Nous proposons d'utiliser une combinaison de deux paradigmes de développement pour accélérer la conception: le TLM d'une part et une méthodologie d’expression de temps entre différentes transactions d’autre part. Cette synergie nous permet de combiner dans un seul environnement des méthodes de simulation performantes et des méthodes analytiques formelles. Nous avons proposé un nouvel algorithme de vérification temporelle basé sur la procédure de linéarisation des contraintes de type min/max et une technique d'optimisation afin d'améliorer l'efficacité de l'algorithme. Nous avons complété la description mathématique de tous les types de contraintes présentées dans la littérature. Nous avons développé des méthodes d'exploration et raffinement de système de communication qui nous a permis d'utiliser les algorithmes de vérification temporelle à différents niveaux TLM. Comme il existe plusieurs définitions du TLM, dans le cadre de notre recherche, nous avons défini une méthodologie de spécification et simulation pour des systèmes Matériel/Logiciel basée sur le paradigme de TLM. Dans cette méthodologie plusieurs concepts de modélisation peuvent être considérés séparément. Basée sur l'utilisation des technologies modernes de génie logiciel telles que XML, XSLT, XSD, la programmation orientée objet et plusieurs autres fournies par l’environnement .Net, la méthodologie proposée présente une approche qui rend possible une réutilisation des modèles intermédiaires afin de faire face à la contrainte de temps d’accès au marché. Elle fournit une approche générale dans la modélisation du système qui sépare les différents aspects de conception tels que des modèles de calculs utilisés pour décrire le système à des niveaux d’abstraction multiples. En conséquence, dans le modèle du système nous pouvons clairement identifier la fonctionnalité du système sans les détails reliés aux plateformes de développement et ceci mènera à améliorer la "portabilité" du modèle d'application.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse est dédiée à l’étude des matériaux InMnP et GaMnP fabriqués par implantation ionique et recuit thermique. Plus précisément nous avons investigué la possibilité de former par implantation ionique des matériaux homogènes (alliages) de InMnP et GaMnP contenant de 1 à 5 % atomiques de Mn qui seraient en état ferromagnétique, pour des possibles applications dans la spintronique. Dans un premier chapitre introductif nous donnons les motivations de cette recherche et faisons une revue de la littérature sur ce sujet. Le deuxième chapitre décrit les principes de l’implantation ionique, qui est la technique utilisée pour la fabrication des échantillons. Les effets de l’énergie, fluence et direction du faisceau ionique sur le profil d’implantation et la formation des dommages seront mis en évidence. Aussi dans ce chapitre nous allons trouver des informations sur les substrats utilisés pour l’implantation. Les techniques expérimentales utilisées pour la caractérisation structurale, chimique et magnétique des échantillons, ainsi que leurs limitations sont présentées dans le troisième chapitre. Quelques principes théoriques du magnétisme nécessaires pour la compréhension des mesures magnétiques se retrouvent dans le chapitre 4. Le cinquième chapitre est dédié à l’étude de la morphologie et des propriétés magnétiques des substrats utilisés pour implantation et le sixième chapitre, à l’étude des échantillons implantés au Mn sans avoir subi un recuit thermique. Notamment nous allons voir dans ce chapitre que l’implantation de Mn à plus que 1016 ions/cm2 amorphise la partie implantée du matériau et le Mn implanté se dispose en profondeur sur un profil gaussien. De point de vue magnétique les atomes implantés se trouvent dans un état paramagnétique entre 5 et 300 K ayant le spin 5/2. Dans le chapitre 7 nous présentons les propriétés des échantillons recuits à basses températures. Nous allons voir que dans ces échantillons la couche implantée est polycristalline et les atomes de Mn sont toujours dans un état paramagnétique. Dans les chapitres 8 et 9, qui sont les plus volumineux, nous présentons les résultats des mesures sur les échantillons recuits à hautes températures : il s’agit d’InP et du GaP implantés au Mn, dans le chapitre 8 et d’InP co-implanté au Mn et au P, dans le chapitre 9. D’abord, dans le chapitre 8 nous allons voir que le recuit à hautes températures mène à une recristallisation épitaxiale du InMnP et du GaMnP; aussi la majorité des atomes de Mn se déplacent vers la surface à cause d’un effet de ségrégation. Dans les régions de la surface, concentrés en Mn, les mesures XRD et TEM identifient la formation de MnP et d’In cristallin. Les mesures magnétiques identifient aussi la présence de MnP ferromagnétique. De plus dans ces mesures on trouve qu’environ 60 % du Mn implanté est en état paramagnétique avec la valeur du spin réduite par rapport à celle trouvée dans les échantillons non-recuits. Dans les échantillons InP co-implantés au Mn et au P la recristallisation est seulement partielle mais l’effet de ségrégation du Mn à la surface est beaucoup réduit. Dans ce cas plus que 50 % du Mn forme des particules MnP et le restant est en état paramagnétique au spin 5/2, dilué dans la matrice de l’InP. Finalement dans le dernier chapitre, 10, nous présentons les conclusions principales auxquels nous sommes arrivés et discutons les résultats et leurs implications.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente étude porte sur l’évaluation d’une méthode d’acquisition de la solution de sol présente à l’interface sol-racine, dans la rhizosphère. Cette interface constitue le lieu privilégié de prise en charge par les plantes des contaminants, tels que les métaux traces. Comme les plantes acquièrent ces éléments à partir de la phase liquide, la solution de sol de la rhizosphère est une composante clé pour déterminer la fraction de métaux traces biodisponibles. La microlysimétrie est la méthode in situ la plus appropriée pour aborder les difficultés liées à l’échelle microscopique de la rhizosphère. Ainsi, dans les études sur la biodisponibilité des métaux traces au niveau de la rhizosphère, les microlysimètres (Rhizon©) gagnent en popularité sans, toutefois, avoir fait l’objet d’études exhaustives. L’objectif de cette étude est donc d’évaluer la capacité de ces microlysimètres à préserver l’intégrité chimique de la solution, tout en optimisant leur utilisation. Pour ce faire, les microlysimètres ont été soumis à une série d’expériences en présence de solutions et de sols, où la quantité de solution prélevée et le comportement des métaux traces (Cd, Cu, Ni, Pb, Zn) ont été étudiés. Les résultats montrent que les microlysimètres fonctionnent de façon optimale lorsque le contenu en eau du sol est au-dessus de la capacité au champ et lorsqu’il y a peu de matière organique et d’argile. Les sols sableux ayant un faible contenu en C organique reproduisent mieux le volume prélevé et la solution sous la capacité au champ peut être récoltée. L’utilisation des microlysimètres dans ces sols est donc optimale. Dans les essais en solution, les microlysimètres ont atteint un équilibre avec la solution après 10 h de prélèvement. En respectant ce délai et les conditions optimales préalablement établies (pH acide et COD élevé), les microlysimètres préservent la composition chimique de la solution. Dans les essais en sol, cet équilibre n’a pas été atteint après dix jours et huit prélèvements. Le contenu en matière organique et l’activité microbienne semblent responsables de la modification des concentrations en métaux au cours de ces prélèvements, notamment, dans l’horizon FH où les microlysimètres performent très mal. En revanche, dans l’horizon B, les concentrations tendent à se stabiliser vers la fin de la série de prélèvements en se rapprochant des valeurs de référence. Bien que des valeurs plus élevées s’observent pour les microlysimètres, leurs concentrations en métaux sont comparables à celles des méthodes de référence (extrait à l’eau, lysimètres de terrain avec et sans tension). En somme, les microlysimètres se comportent généralement mieux dans l’horizon B. Même si leur utilisation est plus optimale dans un sol sableux, cet horizon est privilégié pour de futures études sur le terrain avec les microlysimètres.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les phytochélatines (PC) sont des polypeptides ayant la structure générale, (alpha-Glu-Cys)n-Gly, où n = 2 à 11. Leur synthèse est induite par un grand nombre de végétaux en réponse à une élévation de la concentration du milieu en métaux, en particulier le cadmium (ci-après, Cd). Le but de cette étude a été de développer un outil pour évaluer la biodisponibilité du Cd dans les eaux douces. Pour ce faire, une méthode analytique a été réalisée afin de déterminer les phytochélatines induites dans les algues C. reinhardtii. Celle-ci consiste à utiliser la chromatographie liquide couplée à la spectrométrie de masse en tandem (LCHP-SM/SM) "on-line". L’ionisation des molécules est celle faite par électronébulisation (IEN) (traduction de electrospray ionisation). L’objectif principal de ce mémoire est la validation de cette méthode : la détermination des courbes de calibration et des limites de détection et l'identification d'interférences potentielles. L’utilisation de dithiothreitol (DTT) à une concentration de 25 mM a été nécessaire à la conservation de la forme réduite des phytochélatines. En effet, suite à la validation de la méthode d’analyse des phytochélatines il a été démontré qu’elle représente un potentiel d’application. Ceci dans la mesure où l’induction des phytochélatines (PC2, PC3 et PC4) dans les algues C. reinhardtii a été possible à deux concentrations de Cd (1 x 10-7 M et 1 x 10 6 M) et ce, après plusieurs temps d'induction (1, 2, 4, et 6 h). Ainsi, l’étude de la stabilité des phytochélatines a été réalisée et toutes les températures examinées ont démontré une diminution des phytochélatines analysées par HPLC-ESI-MS/MS. Il se pourrait que la cause de la dégradation des phytochélatines soit physique ou chimique plutôt que bactérienne. Toutefois, un approfondissement au niveau de la purification de la solution d’extraction serait nécessaire à la mise au point de la dite méthode analytique afin de quantifier les phytochélatines dans l’algue C. reinhardtii.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La suffocation est une forme d’asphyxie dans laquelle l’oxygène ne peut atteindre le sang. Il existe divers types de suffocation dont la suffocation par confinement/ environnementale, les étouffements externe et interne, et les asphyxies traumatique/ positionnelle. La littérature scientifique sur la suffocation est relativement pauvre, étant principalement constituée de revues de cas et de quelques séries de cas limités à un contexte particulier de suffocation. Dans le contexte actuel d’une médecine basée sur les preuves, les ouvrages de médecine légale n’ont guère d’études pour appuyer leurs enseignements, tirés essentiellement de l’expérience personnelle de générations de médecins légistes. Le présent projet vise à palier ce manque de données sur la suffocation, un type de décès pourtant important en pratique médico-légale. Il s’agit d’une étude rétrospective de six ans portant sur tous les cas de suffocation non-chimique ayant été autopsiés au Laboratoire de sciences judiciaires et de médecine légale. À notre connaissance, cette étude est la première à établir le portrait systématique des morts par suffocation non-chimique en milieu médico-légal. Elle permet, entre autres, de confirmer les modes de décès usuels par catégorie de suffocation, le type de victime et les contextes courants. Généralement, les résultats concordent avec la littérature, appuyant ainsi le savoir commun des pathologistes sur la suffocation non-chimique. Toutefois, certaines dissimilitudes ont été notées quant aux modes de décès lors de l’étouffement externe. Par ailleurs, les questions reliées à la classification des asphyxies et aux définitions souvent contradictoires sont discutées. En un effort de normalisation, ce projet souligne les divergences retrouvées dans les classifications usuelles et tente d’en dégager les définitions courantes afin de proposer un modèle de classification unifié.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec la hausse mondiale de la fréquence des floraisons de cyanobactéries (CB), dont certaines produisent des cyanotoxines (CT), le développement d’une méthode de détection/quantification rapide d’un maximum de CT s’impose. Cette méthode permettrait de faire un suivi quotidien de la toxicité de plans d’eau contaminés par des CB et ainsi d’émettre rapidement des avis d’alerte appropriés afin de protéger la santé publique. Une nouvelle technologie utilisant la désorption thermique induite par diode laser (LDTD) couplée à l’ionisation chimique sous pression atmosphérique (APCI) et reliée à la spectrométrie de masse en tandem (MS/MS) a déjà fait ses preuves avec des temps d'analyse de l’ordre de quelques secondes. Les analytes sont désorbés par la LDTD, ionisés en phase gazeuse par APCI et détectés par la MS/MS. Il n’y a donc pas de séparation chromatographique, et la préparation de l’échantillon avant l’analyse est minimale selon la complexité de la matrice contenant les analytes. Parmi les quatre CT testées (microcystine-LR, cylindrospermopsine, saxitoxine et anatoxine-a (ANA-a)), seule l’ANA-a a généré une désorption significative nécessaire au développement d’une méthode analytique avec l’interface LDTD-APCI. La forte polarité ou le poids moléculaire élevé des autres CT empêche probablement leur désorption. L’optimisation des paramètres instrumentaux, tout en tenant compte de l’interférence isobarique de l’acide aminé phénylalanine (PHE) lors de la détection de l’ANA-a par MS/MS, a généré une limite de détection d’ANA-a de l’ordre de 1 ug/L. Celle-ci a été évaluée à partir d’une matrice apparentée à une matrice réelle, démontrant qu’il serait possible d’utiliser la LDTD pour effectuer le suivi de l’ANA-a dans les eaux naturelles selon les normes environnementales applicables (1 à 12 ug/L). Il a été possible d’éviter l’interférence isobarique de la PHE en raison de sa très faible désorption avec l’interface LDTD-APCI. En effet, il a été démontré qu’une concentration aussi élevée que 500 ug/L de PHE ne causait aucune interférence sur le signal de l’ANA-a.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse est une enquête épistémologique qui s’interroge sur la persistance de « l’éther » dans le champ de la technologie. De façon générale, le mot « éther » évoque un modèle conceptuel de la physique pré-einsteinienne, celui d’un milieu invisible permettant la propagation de la lumière et des ondes électromagnétiques. Or, ce n’est là qu’une des figures de l’éther. Dans plusieurs mythologies et cosmogonies anciennes, le nom « éther » désignait le feu originel contenu dans les plus hautes régions célestes. Aristote nommait « éther », par exemple, le « cinquième être », ou « cinquième élément ». La chimie a aussi sa propre figure de l’éther où il donne son nom à un composé chimique, le C4H10O, qui a été utilisé comme premier anesthésiant général à la fin du XIXe siècle. L’apparition soutenue dans l’histoire de ces figures disparates de l’éther, qui a priori ne semblent pas entretenir de relation entre elles, est pour nous la marque de la persistance de l’éther. Nous défendons ici l’argument selon lequel cette persistance ne se résume pas à la constance de l’attribution d’un mot ou d’un nom à différents phénomènes dans l’histoire, mais à l’actualisation d’une même signature, éthérogène. À l’invitation d’Agamben et en nous inspirant des travaux de Nietzsche et Foucault sur l’histoire-généalogie et ceux de Derrida sur la déconstruction, notre thèse amorce une enquête historique motivée par un approfondissement d’une telle théorisation de la signature. Pour y parvenir, nous proposons de placer l’éther, ou plutôt la signature-éther, au cœur de différentes enquêtes historiques préoccupées par le problème de la technologie. En abordant sous cet angle des enjeux disparates – la légitimation des savoirs narratifs, la suspension des sens, la pseudoscience et la magie, les révolutions de l’information, l’obsession pour le sans-fil, l’économie du corps, la virtualisation de la communication, etc. –, nous proposons dans cette thèse autant d’amorces pour une histoire autre, une contre-histoire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse entend contribuer à la compréhension du processus de conception architecturale par le biais du concept de tectonique, notion dont l’historicité confirme une certaine diversité de significations, mais qui suscite une réflexion fondamentale sur le rapport entre l’esthétique architecturale et les moyens constructifs. La connaissance technique de la construction, constituée principalement au 18ème siècle, permettra une nouvelle réflexion sur le rapport entre l’esthétique architecturale et les moyens constructifs. Au 19ème siècle, moment de l’apparition du concept de « tectonique » dans le contexte du débat sur la notion de style, l’indéniable contribution de l’architecte et théoricien Gottfried Semper reconnaît la complexité matérielle de l’édifice. La reprise du terme au 20ème siècle par l’historien et théoricien Kenneth Frampton va quant à elle déplacer le sens de la tectonique vers l’idée d’un « potentiel d’expression constructive ». Ces deux auteurs représentent deux grandes approches tectoniques convergeant sur la nécessité, pour toute théorie de l’architecture, d’encourager une réflexion critique de la construction. Cette thèse se développe en deux parties, l’une retraçant l’histoire et les enjeux de la tectonique, l’autre, de nature plus concrète, cherchant à tester l’actualité du concept à travers une série d’analyses tectoniques de projets modernes et contemporains. À la croisée de deux contextes géographiques différents, le Canada et le Brésil, le corpus de projets de concours que nous avons constitué considère la tectonique comme un phénomène transculturel. Nous formulons l’hypothèse d’une « tectonique du projet », c’est-à-dire d’un espace théorique dans lequel les questions relatives au bâtiment s’élaborent dans des « tensions » dialectiques. L’actualité des catégories semperiennes, dans lesquelles les différents « éléments » du bâtiment représentent différentes techniques de construction, est revisitée à partir de l’étude des projets de Patkau Architects (1986) et de MMBB Arquitetos (1990). Une tension entre les expressions symbolique et formelle issues du matériau brut est plus explicite dans l’étude des projets de Ramoisy Tremblay architectes (2002) et de Brasil Arquitetura (2005). La théorie de la transformation de matériau (Stoffwechseltheorie) de Semper est réexaminée parallèlement dans les projets d’Arthur Erickson et Geoffrey Massey (1967) et de Paulo Mendes da Rocha (1969). Dans l’ensemble de tensions tectoniques présentes tout au long de la conception, nous avons retenu plus particulièrement : le contact avec le sol, la recherche d’une homogénéité constructive, ou son opposé, la recherche d’une variété matérielle et, finalement la tension entre la dimension représentationnelle et la dimension technique de l’architecture. La modélisation du concept de tectonique, par un ensemble de tensions auxquelles les concepteurs doivent s’adresser en phase de projet, confirme que des questions en apparence simplement « techniques » concernent en fait tout autant le génie de l’invention que la connaissance historique des idées architecturales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse a été réalisée en cotutelle. Pour la forme, Gérard Jasniewicz était mon codirecteur 'officiel' en France, bien que mon codirecteur était plutôt Olivier Richard qui m'a encadré lorsque j'étais en France.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les sociétés modernes dépendent de plus en plus sur les systèmes informatiques et ainsi, il y a de plus en plus de pression sur les équipes de développement pour produire des logiciels de bonne qualité. Plusieurs compagnies utilisent des modèles de qualité, des suites de programmes qui analysent et évaluent la qualité d'autres programmes, mais la construction de modèles de qualité est difficile parce qu'il existe plusieurs questions qui n'ont pas été répondues dans la littérature. Nous avons étudié les pratiques de modélisation de la qualité auprès d'une grande entreprise et avons identifié les trois dimensions où une recherche additionnelle est désirable : Le support de la subjectivité de la qualité, les techniques pour faire le suivi de la qualité lors de l'évolution des logiciels, et la composition de la qualité entre différents niveaux d'abstraction. Concernant la subjectivité, nous avons proposé l'utilisation de modèles bayésiens parce qu'ils sont capables de traiter des données ambiguës. Nous avons appliqué nos modèles au problème de la détection des défauts de conception. Dans une étude de deux logiciels libres, nous avons trouvé que notre approche est supérieure aux techniques décrites dans l'état de l'art, qui sont basées sur des règles. Pour supporter l'évolution des logiciels, nous avons considéré que les scores produits par un modèle de qualité sont des signaux qui peuvent être analysés en utilisant des techniques d'exploration de données pour identifier des patrons d'évolution de la qualité. Nous avons étudié comment les défauts de conception apparaissent et disparaissent des logiciels. Un logiciel est typiquement conçu comme une hiérarchie de composants, mais les modèles de qualité ne tiennent pas compte de cette organisation. Dans la dernière partie de la dissertation, nous présentons un modèle de qualité à deux niveaux. Ces modèles ont trois parties: un modèle au niveau du composant, un modèle qui évalue l'importance de chacun des composants, et un autre qui évalue la qualité d'un composé en combinant la qualité de ses composants. L'approche a été testée sur la prédiction de classes à fort changement à partir de la qualité des méthodes. Nous avons trouvé que nos modèles à deux niveaux permettent une meilleure identification des classes à fort changement. Pour terminer, nous avons appliqué nos modèles à deux niveaux pour l'évaluation de la navigabilité des sites web à partir de la qualité des pages. Nos modèles étaient capables de distinguer entre des sites de très bonne qualité et des sites choisis aléatoirement. Au cours de la dissertation, nous présentons non seulement des problèmes théoriques et leurs solutions, mais nous avons également mené des expériences pour démontrer les avantages et les limitations de nos solutions. Nos résultats indiquent qu'on peut espérer améliorer l'état de l'art dans les trois dimensions présentées. En particulier, notre travail sur la composition de la qualité et la modélisation de l'importance est le premier à cibler ce problème. Nous croyons que nos modèles à deux niveaux sont un point de départ intéressant pour des travaux de recherche plus approfondis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Dans la présente thèse, nous avons étudié la déformation anisotrope par bombardement ionique de nanoparticules d'or intégrées dans une matrice de silice amorphe ou d'arséniure d’aluminium cristallin. On s’est intéressé à la compréhension du mécanisme responsable de cette déformation pour lever toute ambigüité quant à l’explication de ce phénomène et pour avoir une interprétation consistante et unique. Un procédé hybride combinant la pulvérisation et le dépôt chimique en phase vapeur assisté par plasma a été utilisé pour la fabrication de couches nanocomposites Au/SiO2 sur des substrats de silice fondue. Des structures à couches simples et multiples ont été obtenues. Le chauffage pendant ou après le dépôt active l’agglomération des atomes d’Au et par conséquent favorise la croissance des nanoparticules. Les nanocomposites Au/AlAs ont été obtenus par implantation ionique de couches d’AlAs suivie de recuit thermique rapide. Les échantillons des deux nanocomposites refroidis avec de l’azote liquide ont été irradiés avec des faisceaux de Cu, de Si, d’Au ou d’In d’énergie allant de 2 à 40 MeV, aux fluences s'étendant de 1×1013 à 4×1015 ions/cm2, en utilisant le Tandem ou le Tandetron. Les propriétés structurales et morphologiques du nanocomposite Au/SiO2 sont extraites en utilisant des techniques optiques car la fréquence et la largeur de la résonance plasmon de surface dépendent de la forme et de la taille des nanoparticules, de leur concentration et de la distance qui les séparent ainsi que des propriétés diélectriques du matériau dans lequel les particules sont intégrées. La cristallinité de l’arséniure d’aluminium est étudiée par deux techniques: spectroscopie Raman et spectrométrie de rétrodiffusion Rutherford en mode canalisation (RBS/canalisation). La quantité d’Au dans les couches nanocomposites est déduite des résultats RBS. La distribution de taille et l’étude de la transformation de forme des nanoparticules métalliques dans les deux nanocomposites sont déterminées par microscopie électronique en transmission. Les résultats obtenus dans le cadre de ce travail ont fait l’objet de trois articles de revue. La première publication montre la possibilité de manipuler la position spectrale et la largeur de la bande d’absorption des nanoparticules d’or dans les nanocomposites Au/SiO2 en modifiant leur structure (forme, taille et distance entre particules). Les nanoparticules d’Au obtenues sont presque sphériques. La bande d’absorption plasmon de surface (PS) correspondante aux particules distantes est située à 520 nm. Lorsque la distance entre les particules est réduite, l’interaction dipolaire augmente ce qui élargit la bande de PS et la déplace vers le rouge (602 nm). Après irradiation ionique, les nanoparticules sphériques se transforment en ellipsoïdes alignés suivant la direction du faisceau. La bande d’absorption se divise en deux bandes : transversale et longitudinale. La bande correspondante au petit axe (transversale) est décalée vers le bleu et celle correspondante au grand axe (longitudinale) est décalée vers le rouge indiquant l’élongation des particules d’Au dans la direction du faisceau. Le deuxième article est consacré au rôle crucial de la déformation plastique de la matrice et à l’importance de la mobilité des atomes métalliques dans la déformation anisotrope des nanoparticules d’Au dans les nanocomposites Au/SiO2. Nos mesures montrent qu'une valeur seuil de 2 keV/nm (dans le pouvoir d'arrêt électronique) est nécessaire pour la déformation des nanoparticules d'or. Cette valeur est proche de celle requise pour la déformation de la silice. La mobilité des atomes d’Au lors du passage d’ions est confirmée par le calcul de la température dans les traces ioniques. Le troisième papier traite la tentative de formation et de déformation des nanoparticules d’Au dans une matrice d’arséniure d’aluminium cristallin connue pour sa haute résistance à l’amorphisation et à la déformation sous bombardement ionique. Le résultat principal de ce dernier article confirme le rôle essentiel de la matrice. Il s'avère que la déformation anisotrope du matériau environnant est indispensable pour la déformation des nanoparticules d’or. Les résultats expérimentaux mentionnés ci-haut et les calculs de températures dans les traces ioniques nous ont permis de proposer le scénario de déformation anisotrope des nanoparticules d’Au dans le nanocomposite Au/SiO2 suivant: - Chaque ion traversant la silice fait fondre brièvement un cylindre étroit autour de sa trajectoire formant ainsi une trace latente. Ceci a été confirmé par la valeur seuil du pouvoir d’arrêt électronique. - L’effet cumulatif des impacts de plusieurs ions conduit à la croissance anisotrope de la silice qui se contracte dans la direction du faisceau et s’allonge dans la direction perpendiculaire. Le modèle de chevauchement des traces ioniques (overlap en anglais) a été utilisé pour valider ce phénomène. - La déformation de la silice génère des contraintes qui agissent sur les nanoparticules dans les plans perpendiculaires à la trajectoire de l’ion. Afin d’accommoder ces contraintes les nanoparticules d’Au se déforment dans la direction du faisceau. - La déformation de l’or se produit lorsqu’il est traversé par un ion induisant la fusion d’un cylindre autour de sa trajectoire. La mobilité des atomes d’or a été confirmée par le calcul de la température équivalente à l’énergie déposée dans le matériau par les ions incidents. Le scénario ci-haut est compatible avec nos données expérimentales obtenues dans le cas du nanocomposite Au/SiO2. Il est appuyé par le fait que les nanoparticules d’Au ne se déforment pas lorsqu’elles sont intégrées dans l’AlAs résistant à la déformation.