935 resultados para Step and flash imprint lithography
Resumo:
The practice of social entrepreneurship already exists for a long time but the concept is quite new and has more recently raised a growing interest among academics. However, the majority of researches and considerations about the subject have taken a strong positive concern by omitting some sort of a critical reflection. The idea of this study is to consider the gap between the very optimistic and the more precautious concerns about social entrepreneurship. It means presenting the advantages and downsides connected to the topic in the business, public and third sector. The aim is to help the reader building his/her own belief on social entrepreneurship by considering the positive and negative sides of social entrepreneurship. Hence, the research is intended to take a critical step and aims to answer to the following research questions: Shall we believe in social entrepreneurship? What are the reasons for believing or not in social entrepreneurship taking into account the advantages and possible risks of it in the business, public, and third sector? The theoretical framework consists of the comparison between the promising and precautious sides about social entrepreneurship for private, public and non-governmental organizations including the actors or participants inside these sectors. The empirical part is conducted using a qualitative method. Personal interviews of experts in the fields of business, public and third sectors were handled. The purpose of this approach is to compare the critics in theory with the experience of persons dealing with social entrepreneurship. The results from the interviews revealed that in general, reasons for believing in social entrepreneurship prevail over critics about the subject. Social entrepreneurship may not yet represent a full performing business. Concerns for weakening the public power and putting aside the interests of communities in need may exist too. Furthermore, naïve and extra liberal ways of thinking or doing can lead to practices going in opposition with initial social objectives. Nevertheless, problems about social entrepreneurship would be mainly due to the young age of the movement. Time and experience would give better foundations and results to social entrepreneurs. Critics about social entrepreneurship could also easily be done to any sorts of business. Overall, the positive considerations of social entrepreneurship with skillful, motivated and responsible actors could represent some useful tools for enterprises, governments and charities. Some tools among many other possibilities to help people in need.
Resumo:
Freezing of gait (FOG) can be assessed by clinical and instrumental methods. Clinical examination has the advantage of being available to most clinicians; however, it requires experience and may not reveal FOG even for cases confirmed by the medical history. Instrumental methods have an advantage in that they may be used for ambulatory monitoring. The aim of the present study was to describe and evaluate a new instrumental method based on a force sensitive resistor and Pearson's correlation coefficient (Pcc) for the assessment of FOG. Nine patients with Parkinson's disease in the "on" state walked through a corridor, passed through a doorway and made a U-turn. We analyzed 24 FOG episodes by computing the Pcc between one "regular/normal" step and the rest of the steps. The Pcc reached ±1 for "normal" locomotion, while correlation diminished due to the lack of periodicity during FOG episodes. Gait was assessed in parallel with video. FOG episodes determined from the video were all detected with the proposed method. The computed duration of the FOG episodes was compared with those estimated from the video. The method was sensitive to various types of freezing; although no differences due to different types of freezing were detected. The study showed that Pcc analysis permitted the computerized detection of FOG in a simple manner analogous to human visual judgment, and its automation may be useful in clinical practice to provide a record of the history of FOG.
Resumo:
Global warming is one of the most alarming problems of this century. Initial scepticism concerning its validity is currently dwarfed by the intensification of extreme weather events whilst the gradual arising level of anthropogenic CO2 is pointed out as its main driver. Most of the greenhouse gas (GHG) emissions come from large point sources (heat and power production and industrial processes) and the continued use of fossil fuels requires quick and effective measures to meet the world’s energy demand whilst (at least) stabilizing CO2 atmospheric levels. The framework known as Carbon Capture and Storage (CCS) – or Carbon Capture Utilization and Storage (CCUS) – comprises a portfolio of technologies applicable to large‐scale GHG sources for preventing CO2 from entering the atmosphere. Amongst them, CO2 capture and mineralisation (CCM) presents the highest potential for CO2 sequestration as the predicted carbon storage capacity (as mineral carbonates) far exceeds the estimated levels of the worldwide identified fossil fuel reserves. The work presented in this thesis aims at taking a step forward to the deployment of an energy/cost effective process for simultaneous capture and storage of CO2 in the form of thermodynamically stable and environmentally friendly solid carbonates. R&D work on the process considered here began in 2007 at Åbo Akademi University in Finland. It involves the processing of magnesium silicate minerals with recyclable ammonium salts for extraction of magnesium at ambient pressure and 400‐440⁰C, followed by aqueous precipitation of magnesium in the form of hydroxide, Mg(OH)2, and finally Mg(OH)2 carbonation in a pressurised fluidized bed reactor at ~510⁰C and ~20 bar PCO2 to produce high purity MgCO3. Rock material taken from the Hitura nickel mine, Finland, and serpentinite collected from Bragança, Portugal, were tested for magnesium extraction with both ammonium sulphate and bisulphate (AS and ABS) for determination of optimal operation parameters, primarily: reaction time, reactor type and presence of moisture. Typical efficiencies range from 50 to 80% of magnesium extraction at 350‐450⁰C. In general ABS performs better than AS showing comparable efficiencies at lower temperature and reaction times. The best experimental results so far obtained include 80% magnesium extraction with ABS at 450⁰C in a laboratory scale rotary kiln and 70% Mg(OH)2 carbonation in the PFB at 500⁰C, 20 bar CO2 pressure for 15 minutes. The extraction reaction with ammonium salts is not at all selective towards magnesium. Other elements like iron, nickel, chromium, copper, etc., are also co‐extracted. Their separation, recovery and valorisation are addressed as well and found to be of great importance. The assessment of the exergetic performance of the process was carried out using Aspen Plus® software and pinch analysis technology. The choice of fluxing agent and its recovery method have a decisive sway in the performance of the process: AS is recovered by crystallisation and in general the whole process requires more exergy (2.48–5.09 GJ/tCO2sequestered) than ABS (2.48–4.47 GJ/tCO2sequestered) when ABS is recovered by thermal decomposition. However, the corrosive nature of molten ABS and operational problems inherent to thermal regeneration of ABS prohibit this route. Regeneration of ABS through addition of H2SO4 to AS (followed by crystallisation) results in an overall negative exergy balance (mainly at the expense of low grade heat) but will flood the system with sulphates. Although the ÅA route is still energy intensive, its performance is comparable to conventional CO2 capture methods using alkanolamine solvents. An energy‐neutral process is dependent on the availability and quality of nearby waste heat and economic viability might be achieved with: magnesium extraction and carbonation levels ≥ 90%, the processing of CO2‐containing flue gases (eliminating the expensive capture step) and production of marketable products.
Resumo:
The optical response to far infrared radiation has been measured on a mosaic of heavy fermion CeColnssingle crystals. The superconducting transition temperature of the crystals has been determined by van der Pauw resistivity and ac-susceptibility measurements as Tc = 2.3 K. The optical measurements were taken above and below the transition temperature using a 3He cryostat and step and integrate Martin-Puplett type polarizing interferometer. The absolute reflectance of the heavy fermion CeColns in the superconducting state in range (0, 100)cm-1 was calculated from the measured thermal reflectance, using the normal state data of Singley et al and a low frequency extrapolation for a metallic material in the Hagen-Rubens regime. By means of Kramers-Kronig analysis the absolute reflectance was used to calculate the optical conductivity of the sample. The real part of the calculated complex conductivity 0-(w) ofCeColns indicates a possible opening of an energy gap close to 50 em-I.
Resumo:
The optical response to far infrared radiation has been measured on a mosaic of heavy fermion CeCoIns single crystals. The superconducting transition temperature of the crystals has been determined by van der Pauw resistivity and ac-susceptibility measurements as Tc = 2.3 K. The optical measurements were taken above and below the transition temperature using a ^He cryostat and step and integrate Martin-Puplett type polarizing interferometer. The absolute reflectance of the heavy fermion CeCoIns in the superconducting state in range (0, 100)cm~^ was calculated from the measured thermal reflectance, using the normal state data of Singley et al and a low frequency extrapolation for a metallic material in the Hagen-Rubens regime. By means of Kramers-Kronig analysis the absolute reflectance was used to calculate the optical conductivity of the sample. The real part of the calculated complex conductivity a{u)) of CeCoIns indicates a possible opening of an energy gap close to 50 cm~^.
Resumo:
Cette thèse porte sur l’étude de l’anatomie de la cornée après 3 techniques de greffe soient, la greffe totale traditionnelle (GTT) et des techniques de greffe lamellaire postérieur (GLP) telles que la greffe lamellaire endothéliale profonde (DLEK) et la greffe endothélium/membrane de Descemet (EDMG) pour le traitement des maladies de l’endothélium, telles que la dystrophie de Fuchs et de la kératopathie de l’aphaque et du pseudophaque. Dans ce contexte, cette thèse contribue également à démontrer l’utilité de la tomographie de cohérence optique (OCT) pour l’étude de l’anatomie des plaies chirurgicales la cornée post transplantation. Au cours de ce travail nous avons étudié l'anatomie de la DLEK, avant et 1, 6, 12 et 24 mois après la chirurgie. Nous avons utilisé le Stratus OCT (Version 3, Carl Zeiss, Meditec Inc.) pour documenter l’anatomie de la plaie. L'acquisition et la manipulation des images du Stratus OCT, instrument qui à été conçu originalement pour l’étude de la rétine et du nerf optique, ont été adaptées pour l'analyse du segment antérieur de l’oeil. Des images cornéennes centrales verticales et horizontales, ainsi que 4 mesures radiaires perpendiculaires à la plaie à 12, 3, 6 et 9 heures ont été obtenues. Les paramètres suivants ont été étudiés: (1) Les espaces (gap) entre les rebords du disque donneur et ceux du receveur, (2) les dénivelés de surface postérieure (step) entre le les rebords du disque donneur et ceux du receveur, (3) la compression tissulaire, (4) le décollement du greffon, 6) les élévations de la surface antérieure de la cornée et 7) la pachymétrie centrale de la cornée. Les mesures d’épaisseur totale de la cornée ont été comparées et corrélées avec celles obtenues avec un pachymètre à ultra-sons. Des mesures d’acuité visuelle, de réfraction manifeste et de topographie ont aussi été acquises afin d’évaluer les résultats fonctionnels. Enfin, nous avons comparé les données de DLEK à celles obtenues de l’EDMG et de la GTT, afin de caractériser les plaies et de cerner les avantages et inconvénients relatifs à chaque technique chirurgicale. Nos résultats anatomiques ont montré des différences importantes entre les trois techniques chirurgicales. Certains des paramètres étudiés, comme le sep et le gap, ont été plus prononcés dans la GTT que dans la DLEK et complètement absents dans l’EDMG. D’autres, comme la compression tissulaire et le décollement du greffon n’ont été observés que dans la DLEK. Ceci laisse entrevoir que la distorsion de la plaie varie proportionnellement à la profondeur de la découpe stromale du receveur, à partir de la face postérieure de la cornée. Moins la découpe s’avance vers la face antérieure (comme dans l’EDMG), moins elle affecte l’intégrité anatomique de la cornée, le pire cas étant la découpe totale comme dans la GTT. Cependant, tous les paramètres d’apposition postérieure sous-optimale et d’élévation de la surface antérieure (ce dernier observé uniquement dans la GTT) finissent par diminuer avec le temps, évoluant à des degrés variables vers un profil topographique plus semblable à celui d’une cornée normale. Ce processus paraît plus long et plus incomplet dans les cas de GTT à cause du type de plaie, de la présence de sutures et de la durée de la cicatrisation. Les valeurs moyennes d’épaisseur centrale se sont normalisées après la chirurgie. De plus, ces valeurs moyennes obtenues par OCT étaient fortement corrélées à celles obtenues par la pachymétrie à ultra-sons et nous n’avons remarqué aucune différence significative entre les valeurs moyennes des deux techniques de mesure. L’OCT s’est avéré un outil utile pour l’étude de l’anatomie microscopique des plaies chirurgicales. Les résultats d’acuité visuelle, de réfraction et de topographie des techniques de GLP ont montré qu’il existe une récupération visuelle rapide et sans changements significatifs de l’astigmatisme, contrairement à la GTT avec et sans suture. La GLP a permis une meilleure conservation de la morphologie de la cornée, et par conséquence des meilleurs résultats fonctionnels que la greffe de pleine épaisseur. Ceci nous permet d’avancer que la GLP pourrait être la technique chirurgicale à adopter comme traitement pour les maladies de l’endothélium cornéen.
Resumo:
Notre recherche visait au départ l'analyse de la substance du dommage moral: retrouver les sentiments à l'intérieur des chefs de dommage moral. Une première lecture des jugements québécois publiés, rendus entre le 1er janvier 1950 et le 31 décembre 2008 et à l'intérieur desquels des dommages et intérêts ont été octroyés pour réparer un dommage moral en matière de responsabilité civile extracontractuelle, laisse une impression de confusion et de désordre, tant au plan terminologique qu'au plan conceptuel. Dommage moral, préjudice extrapatrimonial, dommage non pécuniaire, préjudice moral: autant de termes qui rendent impossible une synthèse des chefs de préjudice. C'est finalement à l'analyse des raisons de cette confusion, aux formes qu'elle prend, aux moyens déployés par les juristes pour, sinon la surmonter, du moins la contenir, que la présente thèse est consacrée. Malgré cette confusion et ce désordre, un constat général d'homogénéité et de stabilité des discours judiciaire et juridique sur le préjudice extrapatrimonial peut d'abord être tracé. Le dommage moral et le préjudice extrapatrimonial (les deux étant couramment assimilés) sont réputés difficilement réparables. Afin de contenir l'arbitraire et la subjectivité qui caractérisent le préjudice extrapatrimonial, un discours dominant rationnel et raisonnable s'est construit et une évaluation globale du préjudice est pratiquée par les juges. Il en résulte une stabilité des montants des dommages et intérêts octroyés à titre de réparation. Mais pourquoi autant de mots pour décrire une même réalité? Dommage et préjudice sont actuellement employés en droit québécois comme s'ils étaient terminologiquement et conceptuellement indistincts; il en résulte une sursimplification de la responsabilité civile. Nous proposons que le dommage (qu'il soit corporel, matériel ou moral) et le préjudice (qu'il soit extrapatrimonial ou patrimonial) sont distincts. Le dommage se qualifie au siège de l'atteinte (des corps, des choses, des sentiments et valeurs) et le préjudice se qualifie au regard de la nature des répercussions du dommage (répercussions patrimoniales ou extrapatrimoniales). Ainsi distingués, dommage et préjudice retrouvent un sens tout en faisant ressortir les deux temps composant la responsabilité civile: l'établissement d'une responsabilité à l'aide de la faute, du dommage et du lien de causalité les unissant (1er temps) et la réparation du préjudice accompagnant le dommage (2e temps). Par une telle distinction, la sursimplification de la responsabilité civile est dépassée et force est de constater que bien peu de choses sont dites dans les jugements sur la substance du dommage moral et même sur le dommage moral tout court. Le discours dominant porte essentiellement sur la difficile détermination de la quotité des dommages et intérêts pour réparer le préjudice extrapatrimonial. Si le dommage moral et le préjudice extrapatrimonial n'étaient pas confondus et employés par les juristes avec une apparente cohérence, une synthèse des chefs de préjudice extrapatrimonial, telle qu'envisagée au départ, aurait peut-être été possible…
Espace et récit : l’inscription des temps dans la ville : parcours stochastiques chez Julio Cortázar
Resumo:
De la mouvance du récit contemporain fragmenté, labyrinthique, se dégage un rapport significatif entre les personnages du récit et les lieux dans lesquels ils gravitent : lieux comme figures diverses et discontinues de l’histoire et des mythes y étant inscrits. Cette construction interactive entre lieu et sujet fait intervenir l’espace comme primordial, et, ainsi, redéfinit l’importance du temps dans l’écrit. Le temps n’adviendrait plus seulement dans le « raconté », comme le suggère Ricœur, mais dans les strates successives de son inscription dans les lieux : le lieu est vécu comme art combinatoire des expériences qui s’y rattachent. C’est par le projet continuel et imparfait du sujet à se situer, plus spécifiquement ici dans la ville et dans celles auxquelles il s’identifie, que surgit l’expression du récit. À travers trois œuvres de Julio Cortázar, le temps sera pensé comme une modalité de fragments « empilables », inscrite dans les lieux signifiants, qui saura émerger au conscient par l’entremise de la porosité de la ville, de sa capacité à susciter des « sauts », des passages. Ce qui lie les espaces architectoniques et le temps qui s’y imprime au sujet qui doit se dire pour exister, mettre en récit afin d’unifier les parties discontinues de son être, émergera dans le « devenir en mouvement », superposition du récit et de l’expérience réelle, par les tropes cortazariens de l’expérimentation, jeu, passage et langage. Là surgira dans l’acte créatif une dynamique spécifique à la ville qui envahit et guide le sujet: sa singularité plurielle.
Resumo:
L'objectif de ce projet de recherche était d'approfondir notre compréhension des liens entre communauté et cinéma, rendus possibles par et pour le film documentaire, à travers l'analyse des interactions entre le cinéaste, la personne filmée et le spectateur. L'expérience cinématographique sera analysée d'une part en tant que pratique sociale à travers la prise en considération du contexte de production des films. D'autre part, le film sera aussi considéré comme expérience imaginaire de sociabilité. Les trois films de notre corpus s'intéressent à des expériences communautaires atypiques et mettent en scène des relations fragiles et précaires avec des personnes souffrant de troubles sociaux majeurs, c'est-à-dire des psychotiques, des déficients intellectuels profonds ou des autistes. C'est à partir de l'expérience de l'apparente insociabilité de ces individus que nous réfléchirons au lien d'accompagnement ainsi qu'au concept de care qui seront envisagés, aussi, comme pouvant traduire la relation particulière qui a lieu entre le spectateur et le film. En effet, le cinéma permet l'élaboration d'une expérience relationnelle construite dans les œuvres médiatiques. Le dispositif filmique donne l'occasion au spectateur d'expérimenter des postures morales et affectives nouvelles. Nous tiendrons compte, au cours de ce mémoire, de la façon dont les choix esthétiques du cinéaste peuvent éduquer et faire évoluer la sensibilité du spectateur. Nous essaierons aussi de souligner les différents jeux de pouvoir et d'influence entre les trois instances que sont le cinéaste, la personne filmée et le spectateur. Après avoir décrit le cadre et les enjeux théoriques du projet, le premier chapitre concernera le film La Moindre des choses (1996) dans lequel Nicolas Philibert filme, jour après jour, les pensionnaires de la clinique psychiatrique de la Borde. Ce film nous a servi de prétexte pour penser ou repenser la place du spectateur comme étant inclus dans la relation entre le cinéaste et la personne filmée et cela à partir de cette phrase d'un des protagonistes du film : « On est entre nous, mais vous aussi, vous êtes entre nous. » Le deuxième chapitre s'intéressera au film Ce Gamin là (1985) de Renaud Victor qui cherche à faire voir au spectateur ce que le projet de Fernand Deligny de vivre dans les Cévennes en compagnie d'enfants autistes a d'original et de particulier. Nous pensons que l'enfant autiste nous amène à dépasser nos expériences de sociabilités habituelles. Le lien d'accompagnement d'enfants autistes, puisque toujours fragile et précaire, révèle quelque chose sur nos façons d'avoir du commun. L'étude des médias et de la médiation est pertinente parce qu'elle nous permet de multiplier et de diversifier les modes de communications. Dans Ce Gamin-là, bien que les images permettent au cinéaste de rendre compte de l'événement d'un contact, l'accent sera mis sur l'analyse du commentaire de Deligny, puisqu'il accompagne le spectateur dans l'appréhension d'une réalité qui lui est étrangère. Ce film nous a aussi appris que l’étude des techniques utilisées nous renseigne sur les différentes façons de dire ou de montrer un lien communautaire, affectif ou social particulier. Le Moindre Geste (1971) qui permet à Yves Guignard, déficient intellectuel sévère, de devenir le héros d'un film, se distingue des deux autres films de par la distinction radicale entre les deux étapes du tournage et du montage. Le troisième chapitre se concentrera, d'une part, sur l'analyse de la relation qui se développe entre Yves et Josée Manenti à la caméra. Ensuite, nous verrons de quelle façon le jeu du montage de Jean-Pierre Daniel laisse une grande liberté à Yves, mais aussi au spectateur en multipliant les possibilités d'interprétations.
Resumo:
Thèse réalisée en cotutelle avec Michèle Prévost (Ph.D), Professeure titulaire au département des génies civil, géologique et des mines de l'École Polytechnique de Montréal.
Resumo:
Les souvenirs sont encodés dans le cerveau grâce aux configurations uniques de vastes réseaux neuronaux. Chaque connexion dans ces circuits est apte à être modifiée. Ces changements durables s’opèrent au niveau des synapses grâce à une synthèse de protéines de novo et génèrent ce qu’on nomme des traces mnésiques. Plusieurs preuves indiquent que, dans certaines formes de plasticité synaptique à long terme, cette synthèse a lieu dans les dendrites près des synapses activées plutôt que dans le corps cellulaire. Cependant, les mécanismes qui régulent cette traduction de protéines demeurent encore nébuleux. La phase d’initiation de la traduction est une étape limitante et hautement régulée qui, selon plusieurs chercheurs, constitue la cible principale des mécanismes de régulation de la traduction dans la plasticité synaptique à long terme. Le présent projet de recherche infirme cette hypothèse dans une certaine forme de plasticité synaptique, la dépression à long terme dépendante des récepteurs métabotropiques du glutamate (mGluR-LTD). À l’aide d’enregistrements électrophysiologiques de neurones hippocampiques en culture couplés à des inhibiteurs pharmacologiques, nous montrons que la régulation de la traduction implique les étapes de l’élongation et de la terminaison et non celle de l’initiation. De plus, nous démontrons grâce à des stratégies de knockdown d’expression d’ARN que la protéine de liaison d’ARNm Staufen 2 joue un rôle déterminant dans la mGluR-LTD induite en cultures. Dans leur ensemble, les résultats de la présente étude viennent appuyer un modèle de régulation de la traduction locale de protéines qui est indépendante de l’initiation.
Resumo:
Les cyanobactéries ont une place très importante dans les écosystèmes aquatiques et un nombre important d’espèces considéré comme nuisible de par leur production de métabolites toxiques. Ces cyanotoxines possèdent des propriétés très variées et ont souvent été associées à des épisodes d’empoisonnement. L’augmentation des épisodes d’efflorescence d’origine cyanobactériennes et le potentiel qu’ils augmentent avec les changements climatiques a renchéri l’intérêt de l’étude des cyanobactéries et de leurs toxines. Considérant la complexité chimique des cyanotoxines, le développement de méthodes de détection simples, sensibles et rapides est toujours considéré comme étant un défi analytique. Considérant ces défis, le développement de nouvelles approches analytiques pour la détection de cyanotoxines dans l’eau et les poissons ayant été contaminés par des efflorescences cyanobactériennes nuisibles a été proposé. Une première approche consiste en l’utilisation d’une extraction sur phase solide en ligne couplée à une chromatographie liquide et à une détection en spectrométrie de masse en tandem (SPE-LC-MS/MS) permettant l’analyse de six analogues de microcystines (MC), de l’anatoxine (ANA-a) et de la cylindrospermopsine (CYN). La méthode permet une analyse simple et rapide et ainsi que la séparation chromatographique d’ANA-a et de son interférence isobare, la phénylalanine. Les limites de détection obtenues se trouvaient entre 0,01 et 0,02 μg L-1 et des concentrations retrouvées dans des eaux de lacs du Québec se trouvaient entre 0,024 et 36 μg L-1. Une deuxième méthode a permis l’analyse du b-N-méthylamino-L-alanine (BMAA), d’ANA-a, de CYN et de la saxitoxine (STX) dans les eaux de lac contaminés. L’analyse de deux isomères de conformation du BMAA a été effectuée afin d’améliorer la sélectivité de la détection. L’utilisation d’une SPE manuelle permet la purification et préconcentration des échantillons et une dérivatisation à base de chlorure de dansyle permet une chromatographie simplifiée. L’analyse effectuée par LC couplée à la spectrométrie de masse à haute résolution (HRMS) et des limites de détections ont été obtenues entre 0,007 et 0,01 µg L-1. Des échantillons réels ont été analysés avec des concentrations entre 0,01 et 0,3 µg L-1 permettant ainsi la confirmation de la présence du BMAA dans les efflorescences de cyanobactéries au Québec. Un deuxième volet du projet consiste en l’utilisation d’une technologie d’introduction d’échantillon permettant des analyses ultra-rapides (< 15 secondes/échantillons) sans étape chromatographique, la désorption thermique à diode laser (LDTD) couplée à l’ionisation chimique à pression atmosphérique (APCI) et à la spectrométrie de masse (MS). Un premier projet consiste en l’analyse des MC totales par l’intermédiaire d’une oxydation de Lemieux permettant un bris de la molécule et obtenant une fraction commune aux multiples congénères existants des MC. Cette fraction, le MMPB, est analysée, après une extraction liquide-liquide, par LDTD-APCI-MS/MS. Une limite de détection de 0,2 µg L-1 a été obtenue et des concentrations entre 1 et 425 µg L-1 ont été trouvées dans des échantillons d’eau de lac contaminés du Québec. De plus, une analyse en parallèle avec des étalons pour divers congénères des MC a permis de suggérer la possible présence de congénères ou d’isomères non détectés. Un deuxième projet consiste en l’analyse directe d’ANA-a par LDTD-APCI-HRMS pour résoudre son interférence isobare, la phénylalanine, grâce à la détection à haute résolution. La LDTD n’offre pas de séparation chromatographique et l’utilisation de la HRMS permet de distinguer les signaux d’ANA-a de ceux de la phénylalanine. Une limite de détection de 0,2 µg L-1 a été obtenue et la méthode a été appliquée sur des échantillons réels d’eau avec un échantillon positif en ANA-a avec une concentration de 0,21 µg L-1. Finalement, à l’aide de la LDTD-APCI-HRMS, l’analyse des MC totales a été adaptée pour la chair de poisson afin de déterminer la fraction libre et liée des MC et comparer les résultats avec des analyses conventionnelles. L’utilisation d’une digestion par hydroxyde de sodium précédant l’oxydation de Lemieux suivi d’une purification par SPE a permis d’obtenir une limite de détection de 2,7 µg kg-1. Des échantillons de poissons contaminés ont été analysés, on a retrouvé des concentrations en MC totales de 2,9 et 13,2 µg kg-1 comparativement aux analyses usuelles qui avaient démontré un seul échantillon positif à 2 µg kg-1, indiquant la possible présence de MC non détectés en utilisant les méthodes conventionnelles.
Resumo:
La marche occupe un rôle important dans la vie quotidienne. Ce processus apparaît comme facile et naturel pour des gens en bonne santé. Cependant, différentes sortes de maladies (troubles neurologiques, musculaires, orthopédiques...) peuvent perturber le cycle de la marche à tel point que marcher devient fastidieux voire même impossible. Ce projet utilise l'application de Poincaré pour évaluer l'asymétrie de la marche d'un patient à partir d'une carte de profondeur acquise avec un senseur Kinect. Pour valider l'approche, 17 sujets sains ont marché sur un tapis roulant dans des conditions différentes : marche normale et semelle de 5 cm d'épaisseur placée sous l'un des pieds. Les descripteurs de Poincaré sont appliqués de façon à évaluer la variabilité entre un pas et le cycle complet de la marche. Les résultats montrent que la variabilité ainsi obtenue permet de discriminer significativement une marche normale d'une marche avec semelle. Cette méthode, à la fois simple à mettre en oeuvre et suffisamment précise pour détecter une asymétrie de la marche, semble prometteuse pour aider dans le diagnostic clinique.
Resumo:
A major challenge in the transmission of narrow pulses is the radiation characteristics of the antenna. Designing the front ends for UWB systems pose challenges compared to their narrow and wide band counterparts because in addition to having electrically small size, high efficiency and band width, the antenna has to have excellent transient response. The present work deals with the design of four novel antenna designs- Square Monopole, Semi-Elliptic Slot, Step and Linear Tapered slot - and an assay on their suitability in UWB Systems. Multiple resonances in the geometry are matched to UWB by redesigning the ground-patch interfaces. Techniques to avoid narrow band interference is proposed in the antenna level and their effect on a nano second pulse have also been investigated. The thesis proposes design guidelines to design the antenna on laminates of any permittivity and the analyzes are complete with results in the frequency and time domains.
Resumo:
Krypton atoms were excited by photons in the energy range from the threshold for photoionization of the 3d-electrons up to 120 eV. and the fluorescence radiation in the spectral range from 780 to 965 A was observed and analyzed. Cross sections for the population of excited states in KrIII with at least one 4s-hole resulting from an Auger transition as the first decay step and for KrII satellites were determined. The energy dependence of the 3d-ionization cross section in the 3d{_5/2}- and the 3d{_3/2}-threshold range was derived from the experimental data. The cross sections for production of KrII states were found to follow the energy dependence of the 3d-cross sections.