909 resultados para Multichip modules
Resumo:
Ponsse Oyj:n kaltainen konfiguroituvaa, monimutkaista tuotetta valmistava yhtiö tarvitsee ehdottomasti nykyaikaisen modulaarisuuteen perustuvan tuoterakennesystematiikan. Käyttämällä osioita eri modulaarisuusmalleista ja soveltamalla niitä Ponssen näkökulmasta kaikkein edullisimmalla tavalla, on kehitetty ensimmäinen case - tapaus ja sen myötä mahdollisimman yksinkertainen toimintamalli. Mallissa on otettu huomioon myös useat tuoterakenteen kanssa vuorovaikutuksessa olevat tekijät. Myyntitilanteen valinnat ovat listattu konfigurointimatriisiin ja ne voivat olla itsenäisiä tai sulkea pois joitakin toisia valintoja. Kun sopiva koneyksilö on muodostettu, saadaan matriisista samantien tulostettua valintojen mukainen tuoteyksilö. Tuoteyksilön moduulirakenne toimii kyseisen, yksittäisen koneen työmääräimenä sekä koneenvalmistuksen dokumenttina, sillä luettelon yksi moduuli on yhden valmistettavantyövaiheen moduulipiirustus alimoduuleineen ja osineen. Moduulipiirustusten on siis otettava huomioon tuotannon, oston, suunnittelun ja dokumentoinnin näkökulmat. Piirustuksen laatijan on tiedettävä kyseisen moduulin valmistus eli koottavan komponenttikokoelman laajuus sekä tuotantolinjan että osto-osaston intressien mukaisesti. Piirustuksen on nivouduttava sitä kutsuvaan matriisiin ja kyseisen moduulin valinnan kytköksiin muihin moduuleihin nähden. Kaiken lisäksi piirustuksen on toimittava kokoonpano-ohjeena sekä jälkimarkkinoinnin työkaluna. Tässä työssä muodostettiin metsätraktorin ohjaamosta esimerkkitapaus. Case tapauksessa käytettiin työssä esitettyä uutta tuoterakennesystematiikkaa uuden modulaarisuussäännöstön käytöstä, laskettu sen aiheuttamat muutokset ja sen tuotantoon otosta on kerätty ensimmäiset kommentit. Esimerkillä pyrittiin saavuttamaan modulaarisen tuoterakenteen mahdollistamat edut ja projektia on jatkettu Ponsse Oyj:llä käsittämään muitakin tuotekokonaisuuksia.
Resumo:
This article details the use of photographic rectification as support for the graphic documentation of historical and archaeological heritage and specifically the southern facade of the Torre del Pretori (Praetorium Tower) in Tarragona. The Praetorium Tower is part of a larger monumental complex and one of the towers that connected different parts of the Tarraco Provincial Forum, the politic-administrative centre of the ancient capital of Hispania Citerioris. It is therefore a valuable example of the evolution of Roman urban architecture. The aim of this project is to provide accurate graphic documentation of the structure to facilitate the restoration and conservation of the tower, as well as to provide a more profound architectural and archaeological understanding of the Roman forum. The use of photographic rectification enabled us to overcome the spatial and time difficulties involved in collecting data caused by the size and location of the building. Specific software made it easier to obtain accurate two-dimensional images. For this reason, in our case, photographic rectification helped us to make a direct analysis of the monument and facilitated interpretation of the architectural stratigraphy. We currently separate the line of research into two concepts: the construction processes and the architecture of the building. The documentation collected permitted various analyses: the characterisation of the building modules, identification of the tools used to work the building materials, etc. In conclusion, the use of orthoimages is a powerful tool that permits the systematic study of a Roman building that has evolved over the centuries and is now in a modern urban context.
Resumo:
Betaiini on ammoniumyhdiste, jota käytetään esimerkiksi eläinten rehussa, kosmetiikassa ja lääkkeissä. Danisco Animal Nutrition Finnfeeds Finland Oy:n Naantalin tehdas on maailman johtava betaiinin tuottaja ja raaka-aineena tehtaalla käytetään melassierotuksesta saatavaa betaiinimelassia. Kiteisen betaiinin puhdistusprosessin yhteydessä syntyybetaiinipitoisia sivujakeita, jotka sisältävät huomattavan määrän betaiinia, minkä takia niiden jatkokäsittely on tärkeää. Betaiinin tuotannon sivujakeet ovat erittäin vaikeasti suodattuvia orgaanisia liuoksia, joiden koostumuksia ei täysin tunneta. Tämän työn tarkoituksena oli puhdistaa betaiinin tuotannon sivujakeita mikrosuodattamalla niitä teräskeraamisella kalvolla. Työn kokeellisessa osassa suoritettiin suodatusparametrien eli pH:n, lämpötilan, TMP:n ja betaiiniliuoksen kuiva-ainepitoisuuden optimointi sekä konsentrointikokeita. Mikrosuodatus suoritettiin Graver Technologiesin Scepter-putkimoduulilla, joka toimi ohivirtausperiaatteella ja jonka huokoskoko oli 0,1 ¿m. Scepter-moduuli koostui ruostumattomasta teräksestä sintratuista putkimoduuleista, joissa erottavana kerroksena toimi TiO2. Esikokeiden perusteella todettiin ettei pH:lla ollut suurta vaikutusta suodatukseen. Permeaattivuo kasvoi selvästi lämpötilan ja TMP:nkasvaessa. Vuo taas huononi ja permeaatin sameus lisääntyi selvästi 35 % korkeammissa kuiva-ainepitoisuuksissa. Konsentrointikokeet suoritettiin betaiiniliuoksen refraktrometrisessa kuiva-ainepitoisuudessa, BetRk, 35 %, 80 °C lämpötilassa ja betaiiniliuoksen omassa pH:ssa (pH 8-9,5). Esikokeiden tulosten perusteella konsentrointikokeet suoritettiin TMP:ssa 0,6; 0,8 ja 1,0 bar. Betaiinin tuotannonsivujakeiden konsentrointikokeissa saannoksi saatiin 95 %. Suodatustuloksista havaittiin, että betaiinin tuotannon sivujakeen erä vaikutti voimakkaasti suodatuksen toimivuuteen. Konsentrointikokeissa suodatukset suoritettiin sekäuusilla mikrosuodatusmoduuleilla että vanhalla moduulilla, joka oli jo kulunut.Kulumisen ei kuitenkaan havaittu huonontavan suodatustehokkuutta. Konsentrointikokeiden perusteella voidaan laitteiston pesuväliksi arvioida noin viikko ja pesu tulisi suorittaa sekä emäksisellä että happamalla pesuaineella.
Resumo:
The nature of client-server architecture implies that some modules are delivered to customers. These publicly distributed commercial software components are under risk, because users (and simultaneously potential malefactors) have physical access to some components of the distributed system. The problem becomes even worse if interpreted programming languages are used for creation of client side modules. The language Java, which was designed to be compiled into platform independent byte-code is not an exception and runs the additional risk. Along with advantages like verifying the code before execution (to ensure that program does not produce some illegal operations)Java has some disadvantages. On a stage of byte-code a java program still contains comments, line numbers and some other instructions, which can be used for reverse-engineering. This Master's thesis focuses on protection of Java code based client-server applications. I present a mixture of methods to protect software from tortious acts. Then I shall realize all the theoretical assumptions in a practice and examine their efficiency in examples of Java code. One of the criteria's to evaluate the system is that my product is used for specialized area of interactive television.
Resumo:
Diplomityössä tehdään jatkokehitystä KCI Konecranes yrityksen siltanosturin laskentaohjelmaan. Ohjelman tärkeimmät jatkokehityskohteet kartoitettiin käyttäjäkyselyn avulla ja niistä valittiin toivotuimmat, sekä diplomityön lujuusopilliseen aihepiiriin parhaiten soveltuvat. Työhön valitut kaksi aihetta ovat koteloprofiilin kaksiosaisen uuman lujuuslaskennan selvittäminen ja siltanosturin kahdeksanpyöräisenpäätykannattajan elementtimallin suunnittelu. Diplomityössä selvitetään jatkokehityskohteisiin liittyvä teoria, mutta varsinainen ohjelmointi jätetään työn ulkopuolelle. Kaksiosaisella uumalla varustetussa koteloprofiilissa nostovaunun kulkukiskon alla olevan uuman yläosa tehdään paksummaksi, jotta uuma kestäisi nostovaunun pyöräkuormasta aiheutuvan paikallisen jännityksen, eliniin sanotun rusennusjännityksen. Rusennusjännityksen määrittäminen uumalevyissä on kaksiosaisen uuman lujuuslaskennan tärkein tehtävä. Rusennuksen aiheuttamankalvojännityksen ja jännityskeskittymien määrittämiseen erilaisissa konstruktioissa etsittiin sopivimmat menetelmät kirjallisuudesta ja standardeista. Kalvojännitys voidaan määrittää luotettavasti käyttäen joko 45 asteen sääntöä tai standardin mukaista menetelmää ja jännityskonsentraatioiden suuruus saadaan kertomallakalvojännitys jännityskonsentraatiokertoimilla. Menetelmien toimivuus verifioitiin tekemällä kymmeniä uuman elementtimalleja erilaisin dimensioin ja reunaehdoin ja vertaamalla elementtimallien tuloksia käsin laskettuihin. Käsin lasketut jännitykset saatiin vastaamaan tarkasti elementtimallien tuloksia. Kaksiosaisen uuman lommahdus- ja väsymislaskentaa tutkittiin alustavasti. Kahdeksanpyöräisiä päätykannattajia käytetään suurissa siltanostureissa pienentämään pyöräkuormia ja radan rusennusjännityksiä. Kahdeksanpyöräiselle siltanosturin päätykannattajalle suunniteltiin elementtimallit molempiin rakenteesta käytettyihin konstruktioihin: nivelöityyn ja jäykkäkehäiseen malliin. Elementtimallien rakentamisessa hyödynnettiin jo olemassa olevia malleja, jolloin niiden lisääminen ohjelmakoodiin nopeutuu ja ne ovat varmasti yhteensopivia muiden laskentamoduuleiden kanssa. Elementtimallien värähtelyanalyysin reunaehtoja tarkasteltiin. Värähtelyanalyysin reunaehtoihin ei tutkimuksen perusteella tarvitse tehdä muutoksia, mutta staattisen analyysin reunaehdot kaipaavat vielä lisätutkimusta.
Resumo:
Tämändiplomityön tavoitteena oli tutkia, miten liiketoimintaprosessissa esiintyviä toimijoiden välisiä riippuvuussuhteita voidaan kehittää, käyttäen juuri tähän tarkoitukseen räätälöityä kehittämismenetelmää ja mitä osia tämäntyyppisen kehittämismenetelmän tulisi sisältää. Työssä ideoitu menetelmä on tarkoitettu jo käytössä olevien liiketoimintaprosessien kehittämiseen. Työ aloitettiin tutkimalla teoriataustaa liiketoimintaprosesseistaja olemassa olevista organisaatioiden sekä liiketoimintaprosessien kehittämismenetelmistä. Kehittämismenetelmän sisällön määrittelyssä hyödynnettiin myös työn tilaajan toimesta aikaisemmin tehtyä menetelmien ja mallien kehittämistyötä. Menetelmän sisältö rajattiin kolmeen vaiheeseen, joita ovat kehittämisprojektin suunnitteluvaihe, prosessin ja toimijoiden välisten yhteistyösuhteiden analysointivaihe sekä kehittämisratkaisujen suunnittelu- ja toteutusvaihe. Menetelmää testattiin kahdessa julkisen sektorin palveluprosessissa, joista saatujen kokemuksien perusteella menetelmää kehitettiin edelleen lopulliseen muotoonsa. Työn varsinaisena tuloksena syntyi sekä käytännössä testattu kehittämismenetelmä että useita potentiaalisia jatkokehityskohteita, jotka koskevat menetelmän yksittäisiä vaiheita. Lisäksi kehittämistyön yhteydessä syntyi myös laajempia kehittämisideoita, jotka koskevat prosessi- ja verkostomallien yhdistämistä, prosessijohtamista ja kehittämishankkeiden koordinointia.
Resumo:
Työn lopputulos on kuvaus mallista, jonka avulla tuotteen ylösajoavoidaan tukea valmistuspaikasta riippumatta. Mallin tavoitteena on saavuttaa uuden tuotteen ylösajossa asiakaslaadun ja saannon nopea nouseminen hyväksyttävälle tasolle. Mallin rakentaminen suoritetaan tutkimallanykytilannetta kohdeyrityksessa ja työn tavoitteeseen sopivaa teoriaa.Nykytilanteen tutkimus käsittää kohdeyrityksen keskeisimmät toiminnot, jotka ovat (1) tuotanto, (2) asiakaspalvelu ja (3) tehdyt tuotesiirrot. Työn tavoitetta tukevaksi teoriakentäksi vahvistui tietojohtamisen teoriakenttä tiedon siirtämiseen osalta. Teorian avulla huomattiin, että siirrettävä tieto on havainnollista ja siksi ei aseta haasteita tiedon muokkaamiselle sähköisesti siirrettävään muotoon. Malli koostuu kolmesta päämoduulista ja yhdestä alimoduulista. Tiedon kerääminen jaettiin kolmeen itsenäiseen päämoduuliin ja jokaiselle moduulille annettiin omistaja kohdeyrityksessä, koska jako auttaa tiedon keräämisen hallintaa ja edelleen kehittämistä. Prosessi sisältää paljon ihmistyötä vaativaa tiedon keräämistä. Tämän johdosta luonteva jatko työlle on kehittää kohdeyrityksen nykyistä tiedon keräämistä ja hyödyntämistä.
Resumo:
RESUME : Cette étude est une analyse métrique et stylistique de La Pulcella d'Orléans de Vincenzo Monti - traduction-réécriture de l'homonyme poème de Voltaire, La Pucelle d'Orléans - commencée à Milan en 1798 et terminée à Chambéry, en Savoie, en 1799. Le texte italien a été considéré comme une version autonome par rapport au texte français, étant donné le particulier choix de réduire la composante philosophique et idéologique d'origine, et de mettre en relation le modèle avec une littérature italienne spécifique, principalement par l'adoption d'une grille strophique fortement marquée. La Pulcella est traduite en octaves, un mètre chevaleresque qui possède au moins depuis trois siècles sa propre "grammaire" ainsi qu'une formidable tradition de référence. De plus, avec sa traduction, l'auteur a voulu mettre l'accent sur les aspects de l'histoire les plus amusantes et provocatrices de Jeanne d'Arc - déjà narrée par Voltaire avec un ton ironique et irrévérencieux - dans le but d'une grande expérimentation au niveau de la langue, de la métrique et de la syntaxe. La traduction de la Pucelle est en effet liée à une dimension hédonistique et livresque: elle n'est pas un prétexte pour connaitre une oeuvre étrangère, ni un texte conçu pour être publiée; il s'agit plutôt d'un exercice personnel, un divertissement privé, demeuré dans le tiroir de l'auteur. Alors que pour Voltaire le but principal du poème est la polémique idéologique du fond, exprimée par un registre fort satirique, pour Monti la réécriture est un jeu stylistique, une complaisance littéraire, qui repose autant sur les composantes désacralisantes et provocatrices que sur les éléments poétiques et idylliques. Le modèle français est donc retravaillé, en premier lieu, au niveau du ton: d'un côté la traduction réduit l'horizon idéologique et la perspective historique des événements; de l'autre elle accroît les aspects les plus hédonistiques et ludiques de Voltaire, par la mise en évidence de l'élément comique, plus coloré et ouvert. En raison de la dimension intime de cette traduction, de nos jours la tradition de la Pulcella italienne se fonde sur trois témoins manuscrits seulement, dont un retrouvé en 1984 et qui a rouvert le débat philologique. Pour ma thèse j'ai utilisé l'édition critique qu'on possède à présent, imprimée en 1982 sous la direction de M. Mari et G. Barbarisi, qui se fonde seulement sur deux témoins du texte; de toute façon mon travail a essayé de considérer aussi en compte le nouvel autographe découvert. Ce travail de thèse sur la Pulcella est organisé en plusieurs chapitres qui reflètent la structure de l'analyse, basée sur les différents niveaux d'élaboration du texte. Au début il y a une introduction générale, où j'ai encadré les deux versions, la française et l'italienne, dans l'histoire littéraire, tout en donnant des indications sur la question philologique relative au texte de Monti. Ensuite, les chapitres analysent quatre aspects différents de la traduction: d'abord, les hendécasyllabes du poème: c'est à dire le rythme des vers, la prosodie et la distribution des différents modules rythmiques par rapport aux positions de l'octave. La Pucelle de Voltaire est en effet écrite en décasyllabes, un vers traditionnellement assez rigide à cause de son rythme coupé par la césure; dans la traduction le vers français est rendu par la plus célèbre mesure de la tradition littéraire italienne, l'endécasyllabe, un vers qui correspond au décasyllabe seulement pour le nombre de syllabes, mais qui présente une majeure liberté rythmique pour la disposition des accents. Le deuxième chapitre considère le mètre de l'octave, en mettant l'accent sur l'organisation syntaxique interne des strophes et sur les liens entre elles ; il résulte que les strophes sont traitées de manière différente par rapport à Voltaire. En effet, au contraire des octaves de Monti, la narration française se développe dans chaque chant en une succession ininterrompue de vers, sans solutions de continuité, en délinéant donc des structures textuelles très unitaires et linéaires. Le troisième chapitre analyse les enjambements de la Pulcella dans le but de dévoiler les liaisons syntactiques entre les verses et les octaves, liaisons presque toujours absentes en Voltaire. Pour finir, j'ai étudié le vocabulaire du poème, en observant de près les mots les plus expressives quant à leur côté comique et parodique. En effet, Monti semble exaspérer le texte français en utilisant un vocabulaire très varié, qui embrasse tous les registres de la langue italienne: de la dimension la plus basse, triviale, populaire, jusqu'au niveau (moins exploité par Voltaire) lyrique et littéraire, en vue d'effets de pastiche comique et burlesque. D'après cette analyse stylistique de la traduction, surgit un aspect très intéressant et unique de la réécriture de Monti, qui concerne l'utilisation soit de l'endécasyllabe, soit de l'octave, soit du vocabulaire du texte. Il s'agit d'un jeu constant sur la voix - ou bien sur une variation continue des différents plans intonatives - et sur la parole, qui devient plus expressive, plus dense. En effet, la lecture du texte suppose une variation mélodique incessante entre la voix de l'auteur (sous forme de la narration et du commentaire) et la voix de personnages, qu'on entend dans les nombreux dialogues; mais aussi une variation de ton entre la dimension lexical littéraire et les registres les plus baissés de la langue populaire. Du point de vue de la syntaxe, par rapport au modèle français (qui est assez monotone et linéaire, basé sur un ordre syntactique normal, sur le rythme régulier du decasyllabe et sur un langage plutôt ordinaire), Monti varie et ennoblit le ton du discours à travers des mouvements syntaxiques raffinés, des constructions de la période plus ou moins réguliers et l'introduction de propositions à cheval des vers. Le discours italien est en effet compliquée par des interruptions continues (qui ne se réalisent pas dans des lieux canoniques, mais plutôt dans la première partie du vers ou en proximité de la pointe) qui marquent des changements de vitesse dans le texte (dialogues, narration, commentaires): ils se vérifient, en somme, des accélérations et des décélérations continues du récit ainsi qu'un jeu sur les ouvertures et fermetures de chaque verse. Tout se fait à travers une recherche d'expressivité qui, en travaillant sur la combinaison et le choc des différents niveaux, déstabilise la parole et rend l'écriture imprévisible.
Resumo:
The transcriptome is the readout of the genome. Identifying common features in it across distant species can reveal fundamental principles. To this end, the ENCODE and modENCODE consortia have generated large amounts of matched RNA-sequencing data for human, worm and fly. Uniform processing and comprehensive annotation of these data allow comparison across metazoan phyla, extending beyond earlier within-phylum transcriptome comparisons and revealing ancient, conserved features. Specifically, we discover co-expression modules shared across animals, many of which are enriched in developmental genes. Moreover, we use expression patterns to align the stages in worm and fly development and find a novel pairing between worm embryo and fly pupae, in addition to the embryo-to-embryo and larvae-to-larvae pairings. Furthermore, we find that the extent of non-canonical, non-coding transcription is similar in each organism, per base pair. Finally, we find in all three organisms that the gene-expression levels, both coding and non-coding, can be quantitatively predicted from chromatin features at the promoter using a 'universal model' based on a single set of organism-independent parameters.
Resumo:
BACKGROUND: Developing and updating high-quality guidelines requires substantial time and resources. To reduce duplication of effort and enhance efficiency, we developed a process for guideline adaptation and assessed initial perceptions of its feasibility and usefulness. METHODS: Based on preliminary developments and empirical studies, a series of meetings with guideline experts were organised to define a process for guideline adaptation (ADAPTE) and to develop a manual and a toolkit made available on a website (http://www.adapte.org). Potential users, guideline developers and implementers, were invited to register and to complete a questionnaire evaluating their perception about the proposed process. RESULTS: The ADAPTE process consists of three phases (set-up, adaptation, finalisation), 9 modules and 24 steps. The adaptation phase involves identifying specific clinical questions, searching for, retrieving and assessing available guidelines, and preparing the draft adapted guideline. Among 330 registered individuals (46 countries), 144 completed the questionnaire. A majority found the ADAPTE process clear (78%), comprehensive (69%) and feasible (60%), and the manual useful (79%). However, 21% found the ADAPTE process complex. 44% feared that they will not find appropriate and high-quality source guidelines. DISCUSSION: A comprehensive framework for guideline adaptation has been developed to meet the challenges of timely guideline development and implementation. The ADAPTE process generated important interest among guideline developers and implementers. The majority perceived the ADAPTE process to be feasible, useful and leading to improved methodological rigour and guideline quality. However, some de novo development might be needed if no high quality guideline exists for a given topic.
Resumo:
Gaia is the most ambitious space astrometry mission currently envisaged and is a technological challenge in all its aspects. We describe a proposal for the payload data handling system of Gaia, as an example of a high-performance, real-time, concurrent, and pipelined data system. This proposal includes the front-end systems for the instrumentation, the data acquisition and management modules, the star data processing modules, and the payload data handling unit. We also review other payload and service module elements and we illustrate a data flux proposal.
Resumo:
Understanding the complexity of cancer depends on an elucidation of the underlying regulatory networks, at the cellular and intercellular levels and in their temporal dimension. This Opinion article focuses on the multilevel crosstalk between the Notch pathway and the p53 and p63 pathways. These two coordinated signalling modules are at the interface of external damaging signals and control of stem cell potential and differentiation. Positive or negative reciprocal regulation of the two pathways can vary with cell type and cancer stage. Therefore, selective or combined targeting of the two pathways could improve the efficacy and reduce the toxicity of cancer therapies.
Resumo:
The aim of `Valssi' study was to find out the service requirements in `business-to-business' (B2B) markets and to present a new logistics service concept, where the traditional logistics service is expanded with significant manufacturing and value addedfacilities. The traditional third-party logistics service providers are not necessarily able to offer services, which cover widely the needs of potential customers. The study has been outlined to spare part markets in metal industry. In the second phase of the Valssi-project the aim is to examine the economical conditions and potentiality of the new logistics business concept. This research report (Part 1) concentrates on examining current trends in global and domestic logistics markets. Based on detailed survey among the participating companies, the study presents basis for a new logistics business concept model. The developed concept consists of 12 different service modules, which are split into deeper details of processes. The integration of worldwide supplier and service provider network together with customer companies systems is a challenge. The report focuses on evaluating the requirements for the new business concept from the customer-companies point of view. The study paints an overall picture of distribution and service provider network including an abstract about the software and system integration possibilities. As a result of the survey, it can be concluded that thereis need for the new business concept among the participating companies, and a modular service concept meets the requirements of them, because the new sophisticated concept considers the specialities involved in spare part logistics in metal industry.
Resumo:
La biologie de la conservation est communément associée à la protection de petites populations menacées d?extinction. Pourtant, il peut également être nécessaire de soumettre à gestion des populations surabondantes ou susceptibles d?une trop grande expansion, dans le but de prévenir les effets néfastes de la surpopulation. Du fait des différences tant quantitatives que qualitatives entre protection des petites populations et contrôle des grandes, il est nécessaire de disposer de modèles et de méthodes distinctes. L?objectif de ce travail a été de développer des modèles prédictifs de la dynamique des grandes populations, ainsi que des logiciels permettant de calculer les paramètres de ces modèles et de tester des scénarios de gestion. Le cas du Bouquetin des Alpes (Capra ibex ibex) - en forte expansion en Suisse depuis sa réintroduction au début du XXème siècle - servit d?exemple. Cette tâche fut accomplie en trois étapes : En premier lieu, un modèle de dynamique locale, spécifique au Bouquetin, fut développé : le modèle sous-jacent - structuré en classes d?âge et de sexe - est basé sur une matrice de Leslie à laquelle ont été ajoutées la densité-dépendance, la stochasticité environnementale et la chasse de régulation. Ce modèle fut implémenté dans un logiciel d?aide à la gestion - nommé SIM-Ibex - permettant la maintenance de données de recensements, l?estimation automatisée des paramètres, ainsi que l?ajustement et la simulation de stratégies de régulation. Mais la dynamique d?une population est influencée non seulement par des facteurs démographiques, mais aussi par la dispersion et la colonisation de nouveaux espaces. Il est donc nécessaire de pouvoir modéliser tant la qualité de l?habitat que les obstacles à la dispersion. Une collection de logiciels - nommée Biomapper - fut donc développée. Son module central est basé sur l?Analyse Factorielle de la Niche Ecologique (ENFA) dont le principe est de calculer des facteurs de marginalité et de spécialisation de la niche écologique à partir de prédicteurs environnementaux et de données d?observation de l?espèce. Tous les modules de Biomapper sont liés aux Systèmes d?Information Géographiques (SIG) ; ils couvrent toutes les opérations d?importation des données, préparation des prédicteurs, ENFA et calcul de la carte de qualité d?habitat, validation et traitement des résultats ; un module permet également de cartographier les barrières et les corridors de dispersion. Le domaine d?application de l?ENFA fut exploré par le biais d?une distribution d?espèce virtuelle. La comparaison à une méthode couramment utilisée pour construire des cartes de qualité d?habitat, le Modèle Linéaire Généralisé (GLM), montra qu?elle était particulièrement adaptée pour les espèces cryptiques ou en cours d?expansion. Les informations sur la démographie et le paysage furent finalement fusionnées en un modèle global. Une approche basée sur un automate cellulaire fut choisie, tant pour satisfaire aux contraintes du réalisme de la modélisation du paysage qu?à celles imposées par les grandes populations : la zone d?étude est modélisée par un pavage de cellules hexagonales, chacune caractérisée par des propriétés - une capacité de soutien et six taux d?imperméabilité quantifiant les échanges entre cellules adjacentes - et une variable, la densité de la population. Cette dernière varie en fonction de la reproduction et de la survie locale, ainsi que de la dispersion, sous l?influence de la densité-dépendance et de la stochasticité. Un logiciel - nommé HexaSpace - fut développé pour accomplir deux fonctions : 1° Calibrer l?automate sur la base de modèles de dynamique (par ex. calculés par SIM-Ibex) et d?une carte de qualité d?habitat (par ex. calculée par Biomapper). 2° Faire tourner des simulations. Il permet d?étudier l?expansion d?une espèce envahisseuse dans un paysage complexe composé de zones de qualité diverses et comportant des obstacles à la dispersion. Ce modèle fut appliqué à l?histoire de la réintroduction du Bouquetin dans les Alpes bernoises (Suisse). SIM-Ibex est actuellement utilisé par les gestionnaires de la faune et par les inspecteurs du gouvernement pour préparer et contrôler les plans de tir. Biomapper a été appliqué à plusieurs espèces (tant végétales qu?animales) à travers le Monde. De même, même si HexaSpace fut initialement conçu pour des espèces animales terrestres, il pourrait aisément être étndu à la propagation de plantes ou à la dispersion d?animaux volants. Ces logiciels étant conçus pour, à partir de données brutes, construire un modèle réaliste complexe, et du fait qu?ils sont dotés d?une interface d?utilisation intuitive, ils sont susceptibles de nombreuses applications en biologie de la conservation. En outre, ces approches peuvent également s?appliquer à des questions théoriques dans les domaines de l?écologie des populations et du paysage.<br/><br/>Conservation biology is commonly associated to small and endangered population protection. Nevertheless, large or potentially large populations may also need human management to prevent negative effects of overpopulation. As there are both qualitative and quantitative differences between small population protection and large population controlling, distinct methods and models are needed. The aim of this work was to develop theoretical models to predict large population dynamics, as well as computer tools to assess the parameters of these models and to test management scenarios. The alpine Ibex (Capra ibex ibex) - which experienced a spectacular increase since its reintroduction in Switzerland at the beginning of the 20th century - was used as paradigm species. This task was achieved in three steps: A local population dynamics model was first developed specifically for Ibex: the underlying age- and sex-structured model is based on a Leslie matrix approach with addition of density-dependence, environmental stochasticity and culling. This model was implemented into a management-support software - named SIM-Ibex - allowing census data maintenance, parameter automated assessment and culling strategies tuning and simulating. However population dynamics is driven not only by demographic factors, but also by dispersal and colonisation of new areas. Habitat suitability and obstacles modelling had therefore to be addressed. Thus, a software package - named Biomapper - was developed. Its central module is based on the Ecological Niche Factor Analysis (ENFA) whose principle is to compute niche marginality and specialisation factors from a set of environmental predictors and species presence data. All Biomapper modules are linked to Geographic Information Systems (GIS); they cover all operations of data importation, predictor preparation, ENFA and habitat suitability map computation, results validation and further processing; a module also allows mapping of dispersal barriers and corridors. ENFA application domain was then explored by means of a simulated species distribution. It was compared to a common habitat suitability assessing method, the Generalised Linear Model (GLM), and was proven better suited for spreading or cryptic species. Demography and landscape informations were finally merged into a global model. To cope with landscape realism and technical constraints of large population modelling, a cellular automaton approach was chosen: the study area is modelled by a lattice of hexagonal cells, each one characterised by a few fixed properties - a carrying capacity and six impermeability rates quantifying exchanges between adjacent cells - and one variable, population density. The later varies according to local reproduction/survival and dispersal dynamics, modified by density-dependence and stochasticity. A software - named HexaSpace - was developed, which achieves two functions: 1° Calibrating the automaton on the base of local population dynamics models (e.g., computed by SIM-Ibex) and a habitat suitability map (e.g. computed by Biomapper). 2° Running simulations. It allows studying the spreading of an invading species across a complex landscape made of variously suitable areas and dispersal barriers. This model was applied to the history of Ibex reintroduction in Bernese Alps (Switzerland). SIM-Ibex is now used by governmental wildlife managers to prepare and verify culling plans. Biomapper has been applied to several species (both plants and animals) all around the World. In the same way, whilst HexaSpace was originally designed for terrestrial animal species, it could be easily extended to model plant propagation or flying animals dispersal. As these softwares were designed to proceed from low-level data to build a complex realistic model and as they benefit from an intuitive user-interface, they may have many conservation applications. Moreover, theoretical questions in the fields of population and landscape ecology might also be addressed by these approaches.
Resumo:
Abstract The solvability of the problem of fair exchange in a synchronous system subject to Byzantine failures is investigated in this work. The fair exchange problem arises when a group of processes are required to exchange digital items in a fair manner, which means that either each process obtains the item it was expecting or no process obtains any information on, the inputs of others. After introducing a novel specification of fair exchange that clearly separates safety and liveness, we give an overview of the difficulty of solving such a problem in the context of a fully-connected topology. On one hand, we show that no solution to fair exchange exists in the absence of an identified process that every process can trust a priori; on the other, a well-known solution to fair exchange relying on a trusted third party is recalled. These two results lead us to complete our system model with a flexible representation of the notion of trust. We then show that fair exchange is solvable if and only if a connectivity condition, named the reachable majority condition, is satisfied. The necessity of the condition is proven by an impossibility result and its sufficiency by presenting a general solution to fair exchange relying on a set of trusted processes. The focus is then turned towards a specific network topology in order to provide a fully decentralized, yet realistic, solution to fair exchange. The general solution mentioned above is optimized by reducing the computational load assumed by trusted processes as far as possible. Accordingly, our fair exchange protocol relies on trusted tamperproof modules that have limited communication abilities and are only required in key steps of the algorithm. This modular solution is then implemented in the context of a pedagogical application developed for illustrating and apprehending the complexity of fair exchange. This application, which also includes the implementation of a wide range of Byzantine behaviors, allows executions of the algorithm to be set up and monitored through a graphical display. Surprisingly, some of our results on fair exchange seem contradictory with those found in the literature of secure multiparty computation, a problem from the field of modern cryptography, although the two problems have much in common. Both problems are closely related to the notion of trusted third party, but their approaches and descriptions differ greatly. By introducing a common specification framework, a comparison is proposed in order to clarify their differences and the possible origins of the confusion between them. This leads us to introduce the problem of generalized fair computation, a generalization of fair exchange. Finally, a solution to this new problem is given by generalizing our modular solution to fair exchange