1000 resultados para Nombres réels récursifs


Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper is devoted to the study of the volcanoes of l-isogenies of elliptic curves over a finite field, focusing on their height as well as on the location of curves across its different levels. The core of the paper lies on the relationship between the l-Sylow subgroup of an elliptic curve and the level of the volcano where it is placed. The particular case l = 3 is studied in detail, giving an algorithm to determine the volcano of 3-isogenies of a given elliptic curve. Experimental results are also provided.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse vise à apporter des éléments concrets permettant d'évaluer l'efficacité et la pertinence de la nouvelle gestion publique (NGP) dans le contexte de l'assurance-chômage en Suisse. Ancrée dans une approche des politiques publiques partant de ces dernières telles qu'elles sont mises en oeuvre plutôt que de ce qu'elles devraient être, elle s'attache à observer l'impact d'une catégorie spécifique d'instruments de gestion caractéristiques de la NGP, les instruments de redevabilité. La redevabilité désigne la nécessité ou l'obligation qu'ont des individus ou des organisations de rendre compte de leurs activités, d'en accepter la responsabilité et d'en exposer les résultats de façon transparente. À partir d'un matériau empirique constitué d'entretiens semi-directifs et d'observations participantes et non-participantes, complété par l'analyse d'un corpus documentaire varié, elle répond à cinq questions de recherche liant les agents de base, les managers qui les encadrent et les instruments gestionnaires de redevabilité. Ces questions concernent les effets réels, désirés ou non, des instruments gestionnaires encadrant la mise en oeuvre des politiques d'insertion socioprofessionnelle. Elles permettent également d'évaluer la pertinence des instruments de la NGP au regard de l'objectif général d'amélioration de la qualité du service aux usagers. En résumé, les instruments étudiés incitent les managers et les agents à la conformité (légale et budgétaire) et entraînent des conséquences inattendues limitant l'efficacité des interventions, ce qui met en question la pertinence du lien entre NGP et qualité du service rendu aux usagers. Les résultats obtenus font également ressortir l'importance d'étudier l'ensemble de la chaîne d'exécution des politiques publiques en tenant compte des interactions entre niveaux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se evalua la contaminación atmosférica de la llanura litoral del Camp de Tarragona (Cataluña) tomando como bioindicadores los líquens epífitos del algarrobo (Ceratonia Siliqua). Se caracterizan ochenta y cinco estaciones según diversos parámetros: índice de pureza atmosférica (IPA), recubrimiento medio global (RMG) y nombres de especies. La combinación de los datos obtenidos permite dividir el área estudiada en seis zonas de isocontaminación. Por otra parte, se clasifican 15 especies de líquenes y el alga Pleurococcus en función de su resistencia a la contaminación atmosférica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de esta nota es aclarar en lo posible el intrincado panorama nomenclatural del género que nos ocupa. Trataremos en especial acerca de algunos binómenes establecidos por autores como Smith, Lapeyrouse y Timbal-Lagrave, a causa de los problemas que plantea el uso diverso que de ellos se ha hecho. Se imponía fijar la aplicación de tales nombres, designando, en los casos en que fuera posible, sus tipos nomenclaturales. Para ello hemos consultado los materiales originales, depositados en los herbarios: LINN The Linnean Society of London , P Muséum National d'Histoire Naturelle, Laboratoire de Phanérogamie, París y TL Laboratoire de Botanique, Université Paul Sabatier, Toulouse-: . Hacemos, también, algunas precisiones acerca de la nomenclatura de algunos híbridos existentes en la Península Ibérica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'interaction thérapeutique avec les patients présentant un trouble de la personnalité a été décrite comme difficile et volatile. Récemment, les thérapies cognitivo-comportementales (TCC) s'approchent de ces difficultés par des traitements manualisés et des modélisations complexes, ce qui tend à laisser dans l'ombre l'acteur principal du changement en psychothérapie : le patient. La présente lecture intégrative discute plusieurs mécanismes de changement actifs chez les patients avec trouble de la personnalité. Premièrement, il est décrit que les problèmes d'interaction, résumés sous le terme des jeux interactionnels, posent des défis spécifiques. Le thérapeute est ainsi amené à favoriser une interaction thérapeutique authentique, en utilisant notamment une forme individualisée d'intervention, la relation thérapeutique centrée sur les motifs. Deuxièmement, il est décrit que les problèmes de conscience et de différenciation émotionnelles entravent la qualité du traitement des troubles de la personnalité. Le thérapeute est ainsi conseillé d'utiliser des techniques empruntées aux thérapies néo-humanistes, notamment la directivité de processus, afin d'approfondir l'affect émergeant en séance. Troisièmement, il a été décrit qu'une identité sociale affirmée fait souvent défaut chez les patients avec trouble de la personnalité. Les thérapeutes avisés peuvent favoriser ce processus avec des interventions ciblées. En conclusion, une focalisation sur les comportements observables du patient - les processus réels en séance -, est productive, et elle permet au thérapeute d'affiner, de préciser et d'approfondir son intervention, au plus près du patient.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

«Quel est l'âge de cette trace digitale?» Cette question est relativement souvent soulevée au tribunal ou lors d'investigations, lorsque la personne suspectée admet avoir laissé ses empreintes digitales sur une scène de crime mais prétend l'avoir fait à un autre moment que celui du crime et pour une raison innocente. Toutefois, aucune réponse ne peut actuellement être donnée à cette question, puisqu'aucune méthodologie n'est pour l'heure validée et acceptée par l'ensemble de la communauté forensique. Néanmoins, l'inventaire de cas américains conduit dans cette recherche a montré que les experts fournissent tout de même des témoignages au tribunal concernant l'âge de traces digitales, même si ceux-­‐ci sont majoritairement basés sur des paramètres subjectifs et mal documentés. Il a été relativement aisé d'accéder à des cas américains détaillés, ce qui explique le choix de l'exemple. Toutefois, la problématique de la datation des traces digitales est rencontrée dans le monde entier, et le manque de consensus actuel dans les réponses données souligne la nécessité d'effectuer des études sur le sujet. Le but de la présente recherche est donc d'évaluer la possibilité de développer une méthode de datation objective des traces digitales. Comme les questions entourant la mise au point d'une telle procédure ne sont pas nouvelles, différentes tentatives ont déjà été décrites dans la littérature. Cette recherche les a étudiées de manière critique, et souligne que la plupart des méthodologies reportées souffrent de limitations prévenant leur utilisation pratique. Néanmoins, certaines approches basées sur l'évolution dans le temps de composés intrinsèques aux résidus papillaires se sont montrées prometteuses. Ainsi, un recensement détaillé de la littérature a été conduit afin d'identifier les composés présents dans les traces digitales et les techniques analytiques capables de les détecter. Le choix a été fait de se concentrer sur les composés sébacés détectés par chromatographie gazeuse couplée à la spectrométrie de masse (GC/MS) ou par spectroscopie infrarouge à transformée de Fourier. Des analyses GC/MS ont été menées afin de caractériser la variabilité initiale de lipides cibles au sein des traces digitales d'un même donneur (intra-­‐variabilité) et entre les traces digitales de donneurs différents (inter-­‐variabilité). Ainsi, plusieurs molécules ont été identifiées et quantifiées pour la première fois dans les résidus papillaires. De plus, il a été déterminé que l'intra-­‐variabilité des résidus était significativement plus basse que l'inter-­‐variabilité, mais que ces deux types de variabilité pouvaient être réduits en utilisant différents pré-­‐ traitements statistiques s'inspirant du domaine du profilage de produits stupéfiants. Il a également été possible de proposer un modèle objectif de classification des donneurs permettant de les regrouper dans deux classes principales en se basant sur la composition initiale de leurs traces digitales. Ces classes correspondent à ce qui est actuellement appelé de manière relativement subjective des « bons » ou « mauvais » donneurs. Le potentiel d'un tel modèle est élevé dans le domaine de la recherche en traces digitales, puisqu'il permet de sélectionner des donneurs représentatifs selon les composés d'intérêt. En utilisant la GC/MS et la FTIR, une étude détaillée a été conduite sur les effets de différents facteurs d'influence sur la composition initiale et le vieillissement de molécules lipidiques au sein des traces digitales. Il a ainsi été déterminé que des modèles univariés et multivariés pouvaient être construits pour décrire le vieillissement des composés cibles (transformés en paramètres de vieillissement par pré-­‐traitement), mais que certains facteurs d'influence affectaient ces modèles plus sérieusement que d'autres. En effet, le donneur, le substrat et l'application de techniques de révélation semblent empêcher la construction de modèles reproductibles. Les autres facteurs testés (moment de déposition, pression, température et illumination) influencent également les résidus et leur vieillissement, mais des modèles combinant différentes valeurs de ces facteurs ont tout de même prouvé leur robustesse dans des situations bien définies. De plus, des traces digitales-­‐tests ont été analysées par GC/MS afin d'être datées en utilisant certains des modèles construits. Il s'est avéré que des estimations correctes étaient obtenues pour plus de 60 % des traces-­‐tests datées, et jusqu'à 100% lorsque les conditions de stockage étaient connues. Ces résultats sont intéressants mais il est impératif de conduire des recherches supplémentaires afin d'évaluer les possibilités d'application de ces modèles dans des cas réels. Dans une perspective plus fondamentale, une étude pilote a également été effectuée sur l'utilisation de la spectroscopie infrarouge combinée à l'imagerie chimique (FTIR-­‐CI) afin d'obtenir des informations quant à la composition et au vieillissement des traces digitales. Plus précisément, la capacité de cette technique à mettre en évidence le vieillissement et l'effet de certains facteurs d'influence sur de larges zones de traces digitales a été investiguée. Cette information a ensuite été comparée avec celle obtenue par les spectres FTIR simples. Il en a ainsi résulté que la FTIR-­‐CI était un outil puissant, mais que son utilisation dans l'étude des résidus papillaires à des buts forensiques avait des limites. En effet, dans cette recherche, cette technique n'a pas permis d'obtenir des informations supplémentaires par rapport aux spectres FTIR traditionnels et a également montré des désavantages majeurs, à savoir de longs temps d'analyse et de traitement, particulièrement lorsque de larges zones de traces digitales doivent être couvertes. Finalement, les résultats obtenus dans ce travail ont permis la proposition et discussion d'une approche pragmatique afin d'aborder les questions de datation des traces digitales. Cette approche permet ainsi d'identifier quel type d'information le scientifique serait capable d'apporter aux enquêteurs et/ou au tribunal à l'heure actuelle. De plus, le canevas proposé décrit également les différentes étapes itératives de développement qui devraient être suivies par la recherche afin de parvenir à la validation d'une méthodologie de datation des traces digitales objective, dont les capacités et limites sont connues et documentées. -- "How old is this fingermark?" This question is relatively often raised in trials when suspects admit that they have left their fingermarks on a crime scene but allege that the contact occurred at a time different to that of the crime and for legitimate reasons. However, no answer can be given to this question so far, because no fingermark dating methodology has been validated and accepted by the whole forensic community. Nevertheless, the review of past American cases highlighted that experts actually gave/give testimonies in courts about the age of fingermarks, even if mostly based on subjective and badly documented parameters. It was relatively easy to access fully described American cases, thus explaining the origin of the given examples. However, fingermark dating issues are encountered worldwide, and the lack of consensus among the given answers highlights the necessity to conduct research on the subject. The present work thus aims at studying the possibility to develop an objective fingermark dating method. As the questions surrounding the development of dating procedures are not new, different attempts were already described in the literature. This research proposes a critical review of these attempts and highlights that most of the reported methodologies still suffer from limitations preventing their use in actual practice. Nevertheless, some approaches based on the evolution of intrinsic compounds detected in fingermark residue over time appear to be promising. Thus, an exhaustive review of the literature was conducted in order to identify the compounds available in the fingermark residue and the analytical techniques capable of analysing them. It was chosen to concentrate on sebaceous compounds analysed using gas chromatography coupled with mass spectrometry (GC/MS) or Fourier transform infrared spectroscopy (FTIR). GC/MS analyses were conducted in order to characterize the initial variability of target lipids among fresh fingermarks of the same donor (intra-­‐variability) and between fingermarks of different donors (inter-­‐variability). As a result, many molecules were identified and quantified for the first time in fingermark residue. Furthermore, it was determined that the intra-­‐variability of the fingermark residue was significantly lower than the inter-­‐variability, but that it was possible to reduce both kind of variability using different statistical pre-­‐ treatments inspired from the drug profiling area. It was also possible to propose an objective donor classification model allowing the grouping of donors in two main classes based on their initial lipid composition. These classes correspond to what is relatively subjectively called "good" or "bad" donors. The potential of such a model is high for the fingermark research field, as it allows the selection of representative donors based on compounds of interest. Using GC/MS and FTIR, an in-­‐depth study of the effects of different influence factors on the initial composition and aging of target lipid molecules found in fingermark residue was conducted. It was determined that univariate and multivariate models could be build to describe the aging of target compounds (transformed in aging parameters through pre-­‐ processing techniques), but that some influence factors were affecting these models more than others. In fact, the donor, the substrate and the application of enhancement techniques seemed to hinder the construction of reproducible models. The other tested factors (deposition moment, pressure, temperature and illumination) also affected the residue and their aging, but models combining different values of these factors still proved to be robust. Furthermore, test-­‐fingermarks were analysed with GC/MS in order to be dated using some of the generated models. It turned out that correct estimations were obtained for 60% of the dated test-­‐fingermarks and until 100% when the storage conditions were known. These results are interesting but further research should be conducted to evaluate if these models could be used in uncontrolled casework conditions. In a more fundamental perspective, a pilot study was also conducted on the use of infrared spectroscopy combined with chemical imaging in order to gain information about the fingermark composition and aging. More precisely, its ability to highlight influence factors and aging effects over large areas of fingermarks was investigated. This information was then compared with that given by individual FTIR spectra. It was concluded that while FTIR-­‐ CI is a powerful tool, its use to study natural fingermark residue for forensic purposes has to be carefully considered. In fact, in this study, this technique does not yield more information on residue distribution than traditional FTIR spectra and also suffers from major drawbacks, such as long analysis and processing time, particularly when large fingermark areas need to be covered. Finally, the results obtained in this research allowed the proposition and discussion of a formal and pragmatic framework to approach the fingermark dating questions. It allows identifying which type of information the scientist would be able to bring so far to investigators and/or Justice. Furthermore, this proposed framework also describes the different iterative development steps that the research should follow in order to achieve the validation of an objective fingermark dating methodology, whose capacities and limits are well known and properly documented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nadie discute la importancia de las obras clásicas, pero pocos tienen acceso a ellas. Sus nombres, sus autores forman el cuerpo de la historia de la literatura; son, pues, materia de estudio. Honran calles, plazas; visten centenarios, premios; arropan con su excelencia la historia del país, incluso dibujan rutas turísticas, en las que se contemplan esculturas de sus personajes y placas alusivas, y, sin embargo, la mayoría de los ciudadanos de esas ciudades y pueblos, y la gran parte de los transeúntes de esos caminos no han leído las obras literarias cuyos nombres conocen tan bien. Y lo que es peor, sus hijos y sus nietos no sólo no las van a leer, sino que no pueden leerlas. No estoy hablando de un extraño pueblo cuyos habitantes sufren una terrible maldición, no; estoy hablando de nuestro país y de nuestros clásicos, tal vez eso sí exagerando un poco

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De plus en plus de substances chimiques sont émises et détectées dans l'environnement.Parmi ces substances, on trouve les herbicides qui sont utilisés en agriculture pour luttercontre la présence des mauvaises herbes. Après leur application sur les sols, les herbicidespeuvent être entrainés par les eaux de pluie jusque dans les ruisseaux et les rivières. Lesconcentrations de ces substances varient donc de manière importante dans les systèmesaquatiques en période de pluie ou en période de temps sec. Des pics élevés de concentrationssont suivis de période de concentrations très faibles ou nulles. Les herbicides présents dans lescours d'eau peuvent engendrer des effets toxiques sur les algues et les plantes aquatiques. Orles tests classiques d'écotoxicologie effectués en laboratoire sont réalisés en exposant lesespèces vivantes à des polluants de manière continue. Ils ne permettent donc pas d'évaluer leseffets des concentrations fluctuantes comme celles des herbicides. Le but de cette thèse estd'étudier et de modéliser les effets des concentrations fluctuantes d'herbicide sur les espècesde microalgues vertes Scenedesmus vacuolatus et Pseudokirchneriella subcapitata. Desexpériences en laboratoire ont également été effectuées dans le but de valider le modèle.Quatre herbicides ont été testés. Il s'agit de l'atrazine (utilisé jusqu'à récemment pour lemaïs), du diuron (utilisé dans la vigne), de l'isoproturon (utilisé pour les céréales) et du Smétolachlore(utilisé pour le maïs). Les résultats de ce travail de thèse indiquent que les effetsdes concentrations fluctuantes d'herbicide peuvent être modélisés sur des algues d'eau douce.Le modèle est relativement simple pour les inhibiteurs de la photosynthèse tels que l'atrazine,le diuron ou l'isoproturon. Il nécessite la connaissance de deux paramètres, le taux decroissance de l'algue sans polluant et la courbe dose-réponse pour chaque substance.Cependant, des expériences supplémentaires doivent être réalisées si la substance étudiéeinduit un délai de l'effet et du rétablissement ou si une algue est cultivée avec une autre alguedans le même milieu de croissance. Le modèle pourrait également être adapté pour tenircompte des mélanges de substances. Appliqué pour prédire les effets sur les algues descénarios réels, le modèle montre que les longs pics de concentrations jouent le rôle le plusimportant. Il est donc crucial de les mesurer lors du monitoring des cours d'eau. D'autre part,une évaluation du risque effectuée avec ce modèle montre que l'impact des pics deconcentrations sur les espèces les plus sensibles est total. Cela met en évidence, une fois deplus, l'importance de tenir compte de ces concentrations fluctuantes dans l'évaluation durisque environnemental des herbicides, mais également des autres polluants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Vingt-et-un chercheurs provenant de différents horizons disciplinaires se proposent d'explorer l'insaisissable multiplicité des "visions" culturelles liées aux notions d'espace et de paysage. Leurs interventions ont été présentées lors de deux colloques interdisciplinaires consacrés à la représentation de l'espace et du paysage dans les sciences humaines, organisés en 2011 par la Formation doctorale interdisciplinaire de la Faculté des lettres de l'Université de Lausanne et par le "Laboratorio internazionale sul paesaggio" di S.Biagio della Cima. En parcourant ces essais, le lecteur pourra suivre le fil d'une réflexion collective qui montre à quel point toute délimitation spatiale et tout cadrage paysager relèvent d'une expérience de reconnaissance identitaire, individuelle et culturelle. Les espaces et les paysages dits "réels" se présentent finalement comme des systèmes complexes, formés par plusieurs couches d'énonciations verbales et non verbales, et comme des discours qu'on peut essayer de traduire ou de laisser partiellement émerger.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction Les Echelles Lausannoises d'Auto-Evaluation des Difficultés et des Besoins ELADEB, est un outil utilisé en réhabilitation psychiatrique permettant de dresser le profil des problèmes rencontrés par les patients psychiatriques dans les principaux domaines de la vie quotidienne, ainsi que le besoin d'aide supplémentaire à celle déjà existante. Cet outil a déjà été validé dans une étude1 portant sur 94 patients et recueille un intérêt grandissant. Afin de compléter les données de validation recueillies lors de la première étude, nous présentons ici une seconde étude visant à comprendre d'avantage cet outil en le couplant à l'Eye tracker qui permet une étude du regard et ainsi observer des phénomènes visuels des sujets qui pratiquent l'auto-évaluation des difficultés et des besoins d'aide. Objectifs Cette étude pilote et exploratrice a pour but de mesurer l'exploration visuelle des cartes lors de l'évaluation d'ELADEB au travers des trois variables suivantes d'oculométrie récoltées au travers de l'outil de mesure de l'Eye tracker : (1) la variation de la taille pupillaire (pixels), (2) le rapport des nombres de points de fixation/temps, et (3) de la durée totale du temps de traitement de l'information de la carte (ms). Hypothèses. Le traitement visuel des cartes sélectionnées comme problèmes versus non problèmes sera différent chez tout le monde d'une part au niveau de : (1) la variation pupillaire, (2) du nombre de points de fixation de l'oeil/temps ainsi que (3) de la durée totale du traitement de l'information de la carte en fonction de notre compréhension. On peut poser l'hypothèse que l'émotion sera différente selon que la personne rencontre un problème ou non et ainsi, on peut s'attendre à ce que les cartes sélectionnées comme problèmes soient associées à une réaction émotionnelle plus importante que les autres, ce qui nous permettrait d'observer une corrélation entre le balayage visuel et ELADEB. Méthodes Cette étude exploratoire porte sur un échantillon de 10 sujets passant un test d'évaluation des difficultés et des besoins ELADEB, couplé à un appareil d'Eye tracking. Les critères d'inclusion des sujets sont : (1) hommes entre 30 et 40 ans, (2) dépourvu de symptômes psychotiques ou de psychoses. Les critères d'exclusion des sujets sont : (1) consommation d'alcool ou de drogues, (2) troubles psycho-organiques, (3) retard mental, (4) difficulté de compréhension de la langue française, (5) état de décompensation aiguë empêchant la réalisation de l'étude. Trois instruments sont utilisés comme supports d'analyses pour cette étude : (1) ELADEB, (2) l'Eye tracking et (3) le Gaze tracker. Le dispositif (2) d'Eye tracking se présente sous forme de lunettes particulières à porter par le sujet et qui permet de suivre les mouvements de l'oeil. L'une des caméras suit et enregistre les mouvements oculaires du sujet et permet de « voir en temps réel ce que voit le sujet et où il regarde » tandis que la seconde caméra scrute et analyse sa pupille. Les données sont ensuite répertoriées par le logiciel de mesures (3) « Gaze tracker », qui les analyse avec, à la fois une évaluation quantitative des points de fixation2 en se basant sur leurs nombres et leurs durées, ainsi qu'une mesure de la variation pupillaire fournie en pixels par le logiciel. Résultat(s) escompté(s) Il s'agit d'une étude exploratoire dans laquelle on espère retrouver les variations moyennes intra-sujets selon les hypothèses carte problème versus non problèmes. On peut s'attendre à trouver une retraduction des mesures de l'échelle ELADEB au travers de l'Eye tracking, ce qui concorderait avec les hypothèses énoncées et ajouterait encore d'avantage de validation à ELADEB au travers d'un outil pointu de mesure physiologique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En aquesta recerca es presenta l’anàlisi de les estratègies que usen els alumnes de 4t de primària de l’escola Barnola d’Avinyó per a resoldre operacions de suma amb nombres de fins a dues xifres. A més, permet observar la seva evolució després d’haver dut a terme una unitat didàctica orientada a treballar i millorar de manera manipulativa i dinàmica, al llarg de set setmanes, els continguts numèrics. Per tant, amb els resultats obtinguts podem valorar si el fet de treballar continguts numèrics influencia en l’ús d’estratègies de càlcul mental i contrastar-ho amb diferents autors destacats en aquest àmbit.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'exposition professionnelle aux nanomatériaux manufacturés dans l'air présente des risques potentiels pour la santé des travailleurs dans les secteurs de la nanotechnologie. Il est important de comprendre les scénarios de libération des aérosols de nanoparticules dans les processus et les activités associées à l'exposition humaine. Les mécanismes de libération, y compris les taux de libération et les propriétés physico-chimiques des nanoparticules, déterminent leurs comportements de transport ainsi que les effets biologiques néfastes. La distribution de taille des particules d'aérosols est l'un des paramètres les plus importants dans ces processus. La stabilité mécanique d'agglomérats de nanoparticules affecte leurs distributions de tailles. Les potentiels de désagglomération de ces agglomérats déterminent les possibilités de leur déformation sous énergies externes. Cela rend les changements possibles dans leur distribution de taille et de la concentration en nombre qui vont finalement modifier leurs risques d'exposition. Les conditions environnementales, telles que l'humidité relative, peuvent influencer les processus de désagglomération par l'adhérence de condensation capillaire de l'humidité. L'objectif général de cette thèse était d'évaluer les scénarios de libération des nanomatériaux manufacturés des processus et activités sur le lieu de travail. Les sous-objectifs étaient les suivants: 1. Etudier les potentiels de désagglomération des nanoparticules dans des conditions environnementales variées. 2. Etudier la libération des nano-objets à partir de nanocomposites polymères; 3. Evaluer la libération de nanoparticules sur le lieu de travail dans des situations concrètes. Nous avons comparé différents systèmes de laboratoire qui présentaient différents niveau d'énergie dans l'aérosolisation des poudres. Des nanopoudres de TiO2 avec des hydrophilicités de surface distinctes ont été testées. Un spectromètre à mobilité électrique (SMPS), un spectromètre à mobilité aérodynamique (APS) et un spectromètre optique (OPC) ont été utilisés pour mesurer la concentration de particules et la distribution de taille des particules. La microscopie électronique à transmission (TEM) a été utilisée pour l'analyse morphologique d'échantillons de particules dans l'air. Les propriétés des aérosols (distribution de taille et concentration en nombre) étaient différentes suivant la méthode employée. Les vitesses des flux d'air d'aérosolisation ont été utilisées pour estimer le niveau d'énergie dans ces systèmes, et il a été montré que les tailles modales des particules étaient inversement proportionnelles à la vitesse appliquée. En général, les particules hydrophiles ont des diamètres plus grands et des nombres inférieurs à ceux des particules hydrophobes. Toutefois, cela dépend aussi des méthodes utilisées. La vitesse de l'air peut donc être un paramètre efficace pour le classement de l'énergie des procédés pour des systèmes d'aérosolisation similaires. Nous avons développé un système laboratoire pour tester les potentiels de désagglomération des nanoparticules dans l'air en utilisant des orifices critiques et un humidificateur. Sa performance a été comparée à un système similaire dans un institut partenaire. Une variété de nanopoudres différentes a été testée. Le niveau d'énergie appliquée et l'humidité ont été modifiés. Le SMPS et l'OPC ont été utilisés pour mesurer la concentration de particules et la distribution de la taille. Un TEM a été utilisé pour l'analyse morphologique d'échantillons de particules dans l'air. Le diamètre moyen des particules a diminué et la concentration en nombre s'est accrue lorsque des énergies externes ont été appliquées. Le nombre de particules inférieures à 100 nm a été augmenté, et celui au-dessus de 350 nm réduits. Les conditions humides ont faits exactement le contraire, en particulier pour les petites particules. En outre, ils ont réduits les effets de la différence de pression due à l'orifice. Les résultats suggèrent que la désagglomération d'agglomérats de nanoparticules dans l'air est possible dans la gamme d'énergie appliquée. Cependant, l'atmosphère humide peut favoriser leur agglomération et améliorer leurs stabilités en réduisant la libération de nanoparticules dans l'environnement. Nous proposons d'utiliser notre système pour le test de routine des potentiels de désagglomération des nanomatériaux manufacturés et de les classer. Un tel classement faciliterait la priorisation de l'exposition et du risque encouru en fonction du niveau d'ENM. Un système de perçage automatique et un système de sciage manuel ont été développés pour étudier la libération de nanoparticules à partir de différents types de nanocomposites. La vitesse de perçage et taille de la mèche ont été modifiées dans les expériences. La distribution de taille des particules et leur concentration en nombre ont été mesurées par un SMPS et un miniature diffusion size classifier (DISCmini). Les distributions de nanoparticules dans les composites et les particules libérées ont été analysés par un TEM et un microscope électronique à balayage (SEM). Les tests de perçage ont libérés un plus grand nombre de particules que le sciage. Des vitesses de perçage plus rapide et les mèches plus grandes ont augmentés la génération de particules. Les charges de nanoparticules manufacturées dans les composites ne modifient pas leurs comportements de libération dans les expériences de perçage. Toutefois, le sciage différencie les niveaux de libération entre les composites et les échantillons blancs. De plus, les vapeurs de polymères ont été générées par la chaleur de sciage. La plupart des particules libérées sont des polymères contenant des nanoparticules ou sur leurs surface. Les résultats ont souligné l'importance du type de processus et paramètres pour déterminer la libération de nanoparticules de composites. Les émissions secondaires telles que les fumées polymères appellent à la nécessité d'évaluations de l'exposition et de risque pour de tels scénarios. Une revue systématique de la littérature sur le sujet de libérations de nanoparticules dans l'air dans les secteurs industriels et laboratoires de recherche a été effectuée. Des stratégies de recherche des informations pertinentes et de stockage ont été développées. Les mécanismes de libération, tels que la taille de particules d'aérosol et de leur concentration en nombre, ont été comparés pour différentes activités. La disponibilité de l'information contextuelle qui est pertinente pour l'estimation de l'exposition humaine a été évaluée. Il a été constaté que les données relatives à l'exposition ne sont pas toujours disponibles dans la littérature actuelle. Les propriétés des aérosols libérés semblent dépendre de la nature des activités. Des procédés à haute énergie ont tendance à générer des plus hauts niveaux de concentrations de particules dans les gammes de plus petite taille. Les résultats peuvent être utiles pour déterminer la priorité des procédés industriels pour l'évaluation les risques associés dans une approche à plusieurs niveaux. Pour l'évaluation de l'exposition, la disponibilité de l'information peut être améliorée par le développement d'une meilleure méthode de communication des données.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce diplôme présente les marchés prédictifs, qui sont un moyen d'agréger l'information en utilisant les processus à la base des marchés financiers et en proposant des contrats à termes représentant la probabilité de survenance d'une proposition. Des publications dans le domaine de la finance, du management ou de l'informatique font référence à l'utilisation des marchés prédictifs et démontrent les bons résultats obtenus par cette méthode. Nous nous sommes demandé s'il était possible de concevoir et utiliser un tel marché dans un milieu académique, pour prédire l'émergence de nouvelles théories et applications dans le domaine des communications mobiles. Pour supporter notre réflexion, nous avons mis en place un prototype qui devrait pouvoir nous permettre de tester le concept, d'étudier les fonctions de calcul de prix et les mécanismes d'agrégation de l'information. Pour débuter, nous présentons l'état de l'art en nous appuyant sur la littérature parue depuis 1988 lorsque l'University of Iowa a lancé sa plate-forme Iowa Electronic Market (IEM) dans le cadre de l'élection présidentielle Bush-Dukakis. Depuis, plusieurs chercheurs se sont penchés sur les marchés prédictifs comme instrument de prévision dans de nombreux domaines: politique, sport, cinéma, marketing, ... Nous allons comparer les marchés prédictifs à d'autres outils de prévision puis nous présenterons en détail les marchés prédictifs ainsi qu'un essai d'en formaliser les spécifications. Nous illustrerons alors ceci par des exemples tirés des principales plates-formes en activité pour le moment. S'ensuit une discussion sur l'orientation ludique des plates-formes actuelles et une présentation des utilisations que l'on pourrait en faire et qui apporteraient un réel bénéfice. Nous nous penchons alors sur l'analyse des besoins tant de l'expérimentateur que des utilisateurs. Cherchant des raisons à l'absence totale de telles plates-formes dans le cadre de la recherche, nous avons mené une série d'entretiens avec des professeurs de l'EPFL engagés dans la direction du projet MICS. Leurs réticences et craintes ont été prises en compte pour la définition des spécifications du prototype. Nous utilisons la méthode de (Spann and Skiera 2003) pour définir les spécifications de la plate-forme. Ces spécifications comprennent le choix du but prévisionnel, qui dans notre cas découle directement de notre proposition de recherche, des mécanismes financiers à la base des transactions, ainsi que des moyens incitatifs mis en place pour amener les utilisateurs à utiliser la plate-forme et surtout, pour amener les plus éclairés d'entre eux à transmettre leurs informations au marché. Ces spécifications débouchent sur la présentation de quatre cas d'utilisation. Notre objectif étant de développer un prototype pour y tester nos hypothèses, nous faisons un tour d'horizon des plates-formes à disposition et présentons l'architecture de ce dernier, basé sur les développements à la base d'USIFEX, qui n'est plus en activité depuis quatre ans. Le prototype utilise la souplesse de la programmation objet en se basant sur le langage Python dans sa version 2.3. Nous nous attardons ensuite sur la présentation de l'interface du prototype et des interactions avec les utilisateurs. Il faudra par la suite s'attacher à refondre l'interface pour le faire évoluer vers plus de convivialité, et nous permettre de guider l'utilisateur lors de ses sessions sur la plate-forme. Les parties théoriques et logicielles sous toit il nous reste encore à décrire les contrats et la manière de les formuler. A nouveau nous nous penchons sur les marchés actuels pour y tirer des enseignements qui pourraient nous être utiles. N'ayant malheureusement pas fait l'objet de publications, la définition des contrats est intimement liée avec les auteurs qui les rédigent. Nous tentons de tirer quelques enseignements provenant des contrats actifs sur les marchés des matières premières pour proposer un cadre nous permettant de formaliser la rédaction d'un contrat. Ne s'agissant que d'une proposition, il faudra encore tester et compléter ce cadre pour pouvoir s'assurer que la manière de rédiger les contrats n'influence pas sur la pertinence des prédictions. Finalement, nous esquissons les travaux qu'il reste à accomplir avant de pouvoir mener les premiers tests réels de la plate-forme. De la formulation des contrats à l'étude des mécanismes combinatoires d'agrégation de l'information en passant par les fonctions de fixation du prix. Nous revenons sur les travaux effectués dans le cadre de ce diplôme et présentons quelques idées de recherche futures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis develops a comprehensive and a flexible statistical framework for the analysis and detection of space, time and space-time clusters of environmental point data. The developed clustering methods were applied in both simulated datasets and real-world environmental phenomena; however, only the cases of forest fires in Canton of Ticino (Switzerland) and in Portugal are expounded in this document. Normally, environmental phenomena can be modelled as stochastic point processes where each event, e.g. the forest fire ignition point, is characterised by its spatial location and occurrence in time. Additionally, information such as burned area, ignition causes, landuse, topographic, climatic and meteorological features, etc., can also be used to characterise the studied phenomenon. Thereby, the space-time pattern characterisa- tion represents a powerful tool to understand the distribution and behaviour of the events and their correlation with underlying processes, for instance, socio-economic, environmental and meteorological factors. Consequently, we propose a methodology based on the adaptation and application of statistical and fractal point process measures for both global (e.g. the Morisita Index, the Box-counting fractal method, the multifractal formalism and the Ripley's K-function) and local (e.g. Scan Statistics) analysis. Many measures describing the space-time distribution of environmental phenomena have been proposed in a wide variety of disciplines; nevertheless, most of these measures are of global character and do not consider complex spatial constraints, high variability and multivariate nature of the events. Therefore, we proposed an statistical framework that takes into account the complexities of the geographical space, where phenomena take place, by introducing the Validity Domain concept and carrying out clustering analyses in data with different constrained geographical spaces, hence, assessing the relative degree of clustering of the real distribution. Moreover, exclusively to the forest fire case, this research proposes two new methodologies to defining and mapping both the Wildland-Urban Interface (WUI) described as the interaction zone between burnable vegetation and anthropogenic infrastructures, and the prediction of fire ignition susceptibility. In this regard, the main objective of this Thesis was to carry out a basic statistical/- geospatial research with a strong application part to analyse and to describe complex phenomena as well as to overcome unsolved methodological problems in the characterisation of space-time patterns, in particular, the forest fire occurrences. Thus, this Thesis provides a response to the increasing demand for both environmental monitoring and management tools for the assessment of natural and anthropogenic hazards and risks, sustainable development, retrospective success analysis, etc. The major contributions of this work were presented at national and international conferences and published in 5 scientific journals. National and international collaborations were also established and successfully accomplished. -- Cette thèse développe une méthodologie statistique complète et flexible pour l'analyse et la détection des structures spatiales, temporelles et spatio-temporelles de données environnementales représentées comme de semis de points. Les méthodes ici développées ont été appliquées aux jeux de données simulées autant qu'A des phénomènes environnementaux réels; nonobstant, seulement le cas des feux forestiers dans le Canton du Tessin (la Suisse) et celui de Portugal sont expliqués dans ce document. Normalement, les phénomènes environnementaux peuvent être modélisés comme des processus ponctuels stochastiques ou chaque événement, par ex. les point d'ignition des feux forestiers, est déterminé par son emplacement spatial et son occurrence dans le temps. De plus, des informations tels que la surface bru^lée, les causes d'ignition, l'utilisation du sol, les caractéristiques topographiques, climatiques et météorologiques, etc., peuvent aussi être utilisées pour caractériser le phénomène étudié. Par conséquent, la définition de la structure spatio-temporelle représente un outil puissant pour compren- dre la distribution du phénomène et sa corrélation avec des processus sous-jacents tels que les facteurs socio-économiques, environnementaux et météorologiques. De ce fait, nous proposons une méthodologie basée sur l'adaptation et l'application de mesures statistiques et fractales des processus ponctuels d'analyse global (par ex. l'indice de Morisita, la dimension fractale par comptage de boîtes, le formalisme multifractal et la fonction K de Ripley) et local (par ex. la statistique de scan). Des nombreuses mesures décrivant les structures spatio-temporelles de phénomènes environnementaux peuvent être trouvées dans la littérature. Néanmoins, la plupart de ces mesures sont de caractère global et ne considèrent pas de contraintes spatiales com- plexes, ainsi que la haute variabilité et la nature multivariée des événements. A cet effet, la méthodologie ici proposée prend en compte les complexités de l'espace géographique ou le phénomène a lieu, à travers de l'introduction du concept de Domaine de Validité et l'application des mesures d'analyse spatiale dans des données en présentant différentes contraintes géographiques. Cela permet l'évaluation du degré relatif d'agrégation spatiale/temporelle des structures du phénomène observé. En plus, exclusif au cas de feux forestiers, cette recherche propose aussi deux nouvelles méthodologies pour la définition et la cartographie des zones périurbaines, décrites comme des espaces anthropogéniques à proximité de la végétation sauvage ou de la forêt, et de la prédiction de la susceptibilité à l'ignition de feu. A cet égard, l'objectif principal de cette Thèse a été d'effectuer une recherche statistique/géospatiale avec une forte application dans des cas réels, pour analyser et décrire des phénomènes environnementaux complexes aussi bien que surmonter des problèmes méthodologiques non résolus relatifs à la caractérisation des structures spatio-temporelles, particulièrement, celles des occurrences de feux forestières. Ainsi, cette Thèse fournit une réponse à la demande croissante de la gestion et du monitoring environnemental pour le déploiement d'outils d'évaluation des risques et des dangers naturels et anthro- pogéniques. Les majeures contributions de ce travail ont été présentées aux conférences nationales et internationales, et ont été aussi publiées dans 5 revues internationales avec comité de lecture. Des collaborations nationales et internationales ont été aussi établies et accomplies avec succès.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde Estambul a Barcelona, de Almería a Niza, de Venecia a Túnez, de Atenas a Alejandría, de la India a la China, el mundo ofrece una actividad cultural rica y muy variada. Los turistas que lo recorren desean impregnarse de ella. Parece como si el sector turístico no haya sido capaz de organizarse y desarrollar un proyecto común de turismo cultural que hermane todas estas posibilidades. Quizá en un futuro, con el uso de las nuevas tecnologías se puedan proponer viajes virtuales por el patrimonio cultural del mediterráneo como preámbulo y estimulo de posibles viajes reales