983 resultados para indecomposable module
La paulatina incorporación del estándar CERIF al diseño de sistemas integrados de gestión científica
Resumo:
Núria Cuní y Juan Pedro Belchi, representantes del Consorcio Sigma Gestión Universitaria, miembro institucional de euroCRIS, hablaron de sus previsiones para la incorporación de CERIF al desarrollo de su módulo Argos para sistemas CRIS universitarios, previa descripción de la aplicación de Argos a la integración de diversos sistemas institucionales en la Universitat Pompeu Fabra. El trabajo de implantación de Argos en la UPF incluyó la puesta a punto del estándar CVN, y en la presentación se relacionó dicho proyecto CVN con la adaptación progresiva del modelo de datos de Argos hacia CERIF.
Resumo:
Financial information is extremely sensitive. Hence, electronic banking must provide a robust system to authenticate its customers and let them access their data remotely. On the other hand, such system must be usable, affordable, and portable.We propose a challengeresponse based one-time password (OTP) scheme that uses symmetriccryptography in combination with a hardware security module. The proposed protocol safeguards passwords from keyloggers and phishing attacks.Besides, this solution provides convenient mobility for users who want to bank online anytime and anywhere, not just from their owntrusted computers.
Resumo:
Tämän diplomityön tavoitteena oli kehittää menetelmiä ja ohjeitataajuusmuuttajan sulautetun ohjelmiston kehityksen aikaiseen testaukseen. Soveltuvia menetelmiä etsittiin tutkimalla laajasti kirjallisuutta sekä selvittämälläyrityksen testauskäytäntöä. Tutkittuja kirjallisuudesta löytyneitä menetelmä olivat testauskehykset, simulointi ja staattinen sekä automaattinen testaus. Kirjallisuudesta etsittiin myös menetelmiä, joiden avulla testausprosessia voidaan helpottaa tai muuten parantaa. Tällaisista menetelmistä tutkittiin muun muassa testidatan valintaa, testauslähtöistä kehitystä sekä testattavuuden parantamista. Lisäksi selvitettiin uudelleenkäytettävien testien ohjelmointiin soveltuvia ohjelmointikieliä. Haastatteluiden ja dokumentaation avulla saatiin hyvä käsitys yrityksessä vallitsevasta testauskäytännöstä sekä sen ongelmakohdista. Testauksen ongelmiksi havaittiin testausprosessin järjestelmällisyyden puute sekä tarve suunnittelijoiden testauskoulutukseen. Testausprosessin parantamiseksi esitetään moduulitestauskehyksen käyttöönottoa. Lisäksi suunnittelijoiden testauskoulutuksella arvioidaan olevan suuri vaikutus koko testausprosessiin. Testitapausten suunnitteluun esitetään menetelmiä, joiden avulla voidaan suunnitella kattavampia testejä.
Resumo:
Ponsse Oyj:n kaltainen konfiguroituvaa, monimutkaista tuotetta valmistava yhtiö tarvitsee ehdottomasti nykyaikaisen modulaarisuuteen perustuvan tuoterakennesystematiikan. Käyttämällä osioita eri modulaarisuusmalleista ja soveltamalla niitä Ponssen näkökulmasta kaikkein edullisimmalla tavalla, on kehitetty ensimmäinen case - tapaus ja sen myötä mahdollisimman yksinkertainen toimintamalli. Mallissa on otettu huomioon myös useat tuoterakenteen kanssa vuorovaikutuksessa olevat tekijät. Myyntitilanteen valinnat ovat listattu konfigurointimatriisiin ja ne voivat olla itsenäisiä tai sulkea pois joitakin toisia valintoja. Kun sopiva koneyksilö on muodostettu, saadaan matriisista samantien tulostettua valintojen mukainen tuoteyksilö. Tuoteyksilön moduulirakenne toimii kyseisen, yksittäisen koneen työmääräimenä sekä koneenvalmistuksen dokumenttina, sillä luettelon yksi moduuli on yhden valmistettavantyövaiheen moduulipiirustus alimoduuleineen ja osineen. Moduulipiirustusten on siis otettava huomioon tuotannon, oston, suunnittelun ja dokumentoinnin näkökulmat. Piirustuksen laatijan on tiedettävä kyseisen moduulin valmistus eli koottavan komponenttikokoelman laajuus sekä tuotantolinjan että osto-osaston intressien mukaisesti. Piirustuksen on nivouduttava sitä kutsuvaan matriisiin ja kyseisen moduulin valinnan kytköksiin muihin moduuleihin nähden. Kaiken lisäksi piirustuksen on toimittava kokoonpano-ohjeena sekä jälkimarkkinoinnin työkaluna. Tässä työssä muodostettiin metsätraktorin ohjaamosta esimerkkitapaus. Case tapauksessa käytettiin työssä esitettyä uutta tuoterakennesystematiikkaa uuden modulaarisuussäännöstön käytöstä, laskettu sen aiheuttamat muutokset ja sen tuotantoon otosta on kerätty ensimmäiset kommentit. Esimerkillä pyrittiin saavuttamaan modulaarisen tuoterakenteen mahdollistamat edut ja projektia on jatkettu Ponsse Oyj:llä käsittämään muitakin tuotekokonaisuuksia.
Resumo:
Betaiini on ammoniumyhdiste, jota käytetään esimerkiksi eläinten rehussa, kosmetiikassa ja lääkkeissä. Danisco Animal Nutrition Finnfeeds Finland Oy:n Naantalin tehdas on maailman johtava betaiinin tuottaja ja raaka-aineena tehtaalla käytetään melassierotuksesta saatavaa betaiinimelassia. Kiteisen betaiinin puhdistusprosessin yhteydessä syntyybetaiinipitoisia sivujakeita, jotka sisältävät huomattavan määrän betaiinia, minkä takia niiden jatkokäsittely on tärkeää. Betaiinin tuotannon sivujakeet ovat erittäin vaikeasti suodattuvia orgaanisia liuoksia, joiden koostumuksia ei täysin tunneta. Tämän työn tarkoituksena oli puhdistaa betaiinin tuotannon sivujakeita mikrosuodattamalla niitä teräskeraamisella kalvolla. Työn kokeellisessa osassa suoritettiin suodatusparametrien eli pH:n, lämpötilan, TMP:n ja betaiiniliuoksen kuiva-ainepitoisuuden optimointi sekä konsentrointikokeita. Mikrosuodatus suoritettiin Graver Technologiesin Scepter-putkimoduulilla, joka toimi ohivirtausperiaatteella ja jonka huokoskoko oli 0,1 ¿m. Scepter-moduuli koostui ruostumattomasta teräksestä sintratuista putkimoduuleista, joissa erottavana kerroksena toimi TiO2. Esikokeiden perusteella todettiin ettei pH:lla ollut suurta vaikutusta suodatukseen. Permeaattivuo kasvoi selvästi lämpötilan ja TMP:nkasvaessa. Vuo taas huononi ja permeaatin sameus lisääntyi selvästi 35 % korkeammissa kuiva-ainepitoisuuksissa. Konsentrointikokeet suoritettiin betaiiniliuoksen refraktrometrisessa kuiva-ainepitoisuudessa, BetRk, 35 %, 80 °C lämpötilassa ja betaiiniliuoksen omassa pH:ssa (pH 8-9,5). Esikokeiden tulosten perusteella konsentrointikokeet suoritettiin TMP:ssa 0,6; 0,8 ja 1,0 bar. Betaiinin tuotannonsivujakeiden konsentrointikokeissa saannoksi saatiin 95 %. Suodatustuloksista havaittiin, että betaiinin tuotannon sivujakeen erä vaikutti voimakkaasti suodatuksen toimivuuteen. Konsentrointikokeissa suodatukset suoritettiin sekäuusilla mikrosuodatusmoduuleilla että vanhalla moduulilla, joka oli jo kulunut.Kulumisen ei kuitenkaan havaittu huonontavan suodatustehokkuutta. Konsentrointikokeiden perusteella voidaan laitteiston pesuväliksi arvioida noin viikko ja pesu tulisi suorittaa sekä emäksisellä että happamalla pesuaineella.
Resumo:
Työssä tarkastellaan oppimisalustoilla käytettäviä testikysymyksiä ja oppisisältöjä uudelleen-käytettävyyden ja siirrettävyyden näkökulmasta. Tavoitteena on selvittää, minkälaisia välineitä määrämuotoisten sisältöjen tuottamista varten on olemassa, ja miten niillä luodut materiaalit ovat siirrettävissä työvälineestä toiseen ja oppimisalustoille. Tutkittavana ovat sisällön paketointiin tarkoitetutSCORM- ja IMS Content Packaging -spesifikaatiot sekä kysymysten esittämiseen tarkoitettu IMS Question and Test Interoperability -spesifikaatio. Pääpaino työssäon selvittää, miten oppisisällöt ovat siirrettävissä WebCT- ja Moodle-alustojenvälillä. Tähän liittyen on luotu ohjeistus, miten yksittäiset tiedostot, kysymykset ja Sisältökokonaisuus-työkalulla koostetut sisällöt siirretään WebCT:ltä Moodleen.
Resumo:
Työn lopputulos on kuvaus mallista, jonka avulla tuotteen ylösajoavoidaan tukea valmistuspaikasta riippumatta. Mallin tavoitteena on saavuttaa uuden tuotteen ylösajossa asiakaslaadun ja saannon nopea nouseminen hyväksyttävälle tasolle. Mallin rakentaminen suoritetaan tutkimallanykytilannetta kohdeyrityksessa ja työn tavoitteeseen sopivaa teoriaa.Nykytilanteen tutkimus käsittää kohdeyrityksen keskeisimmät toiminnot, jotka ovat (1) tuotanto, (2) asiakaspalvelu ja (3) tehdyt tuotesiirrot. Työn tavoitetta tukevaksi teoriakentäksi vahvistui tietojohtamisen teoriakenttä tiedon siirtämiseen osalta. Teorian avulla huomattiin, että siirrettävä tieto on havainnollista ja siksi ei aseta haasteita tiedon muokkaamiselle sähköisesti siirrettävään muotoon. Malli koostuu kolmesta päämoduulista ja yhdestä alimoduulista. Tiedon kerääminen jaettiin kolmeen itsenäiseen päämoduuliin ja jokaiselle moduulille annettiin omistaja kohdeyrityksessä, koska jako auttaa tiedon keräämisen hallintaa ja edelleen kehittämistä. Prosessi sisältää paljon ihmistyötä vaativaa tiedon keräämistä. Tämän johdosta luonteva jatko työlle on kehittää kohdeyrityksen nykyistä tiedon keräämistä ja hyödyntämistä.
Resumo:
Työn kirjallisuusosassa on tarkasteltu rasvaistenjätevesien puhdistuksessa käytettyjä perinteisiä käsittelymenetelmiä ja ultrasuodatusta. Perinteisiä rasvaisten jätevesien käsittelymenetelmiä ovat muun muassalaskeutus, flotaatio, hydrosykloni, pisarakoon kasvattaminen suodatus sekä biologinen käsittely. Lisäksi happohydrolyysia voidaan soveltaa edellä mainittujen menetelmien esikäsittelynä. Perinteisten puhdistusmenetelmien käyttöä rajoittavatniiden tehottomuus emulgoituneen ja liukoisen öljyn poistossa. Tämä sekä kiristyneet päästövaatimukset ja kalvotekniikan nopea kehittyminen ovat lisänneet kiinnostusta kalvotekniikkaan. Työn soveltavassa osassa on tarkasteltu rasvojen mahdollisesti aiheuttamia ongelmia Porvoon jalostamon kemiallisessa ja biologisessa puhdistuksessa. Rasvaisia jätevesiä muodostuu biodieselin valmistuksessa, jossa rasvoja käytetään syöttöaineena. Vertailtaessa jalostamon vesilaitoksen nykyisiä olosuhteita ja rasvojen käsittelyn vaatimia olosuhteita havaitaan, että optimiolosuhteet ovat melko lähellä toisiaan ja rasvaisten jätevesien mukana tulevat fosfori-, typpi- ja COD-kuormat melko pieniä. Suurimmat mahdolliset rasvojen aiheuttamat ongelmat syntyvät aktiivilietelaitoksella, jossa kevyt pinnalle nouseva rasva nostaa mukanaan lietettä. Rasvat ja rasvahapot myös lisäävät rihmamaisten bakteerien kasvua, joiden runsas esiintyminen aiheuttaa huonosti laskeutuvaa lietettä, eli paisuntalietettä. Rasvaisten vesien aiheuttamaa kuormitusta aktiivilieteprosessiin on tarkasteltu Activated sludge Model No. 3:n ja bio-P fosforin poisto moduuliin pohjautuvan Excel-taulukkolaskentamallin avulla. Pohjana työssä on käytetty Tuomo Hillin vuonna 2002 diplomityönä tekemää taulukkolaskentamallia. Työssä on esitelty kaikki mallin kannalta oleelliset yhtälöt ja parametrit. Tämän tutkimuksen perusteella mallin käytettävyyttä rajoittaa se, että sitä ei ole kalibroitu Porvoon jalostamolle. Kalibroimattomalla mallilla voidaan saada vain suuntaa antavia tuloksia.
Resumo:
Työssä tutkittiin kalvon likaantumiseen vaikuttavia tekijöitä juoksuteheran nanosuodatuksessa. Tutkimuksessa käytettiin Desal-5 DK kalvoa. Heran nanosuodatukset suoritettiin yhden spiraalimoduulin käsittävää pilot -mittakaavaista suodatuslaitteistoa käyttäen. Työssä selvitettiin suodatettavan heran iän, pastörointilämpötilan, pH:n, suodatuslämpötilan sekäheran sisältämän juustopölyn, lisätyn kalsiumkloridin määrän ja rasvan laadun vaikutusta permeaattivuohon. Jokaista tekijää testattiin kahta eri muuttujaa käyttäen. Työssä tutkittiin myös kahden samanlaisen kalvon välisiä läpäisevyyseroja. Heran pastörointilämpötila, pH ja suodatuslämpötila osoittautuivat kalvon likaantumisen kannalta tärkeimmiksi tekijöiksi heran nanosuodatuksessa. Permeaattivuo oli korkeampi suodatettaessa 74 ºC lämpötilassa pastöroitua heraa, kuin 78 ºC lämpötilassa pastöroitua. Hera suodattui paremmin silloin, kunsen pH oli säädetty 5,8:aan, kuin heran pH:n ollessa säädettynä 5,2:een. Suodatettaessa 18 ºC suodatuslämpötilaan temperoitua heraa havaittiin korkeampi permeaattivuo kuin 12 ºC lämpötilaan termostoitua heraa suodatettaessa. Heran sisältämä pölyn määrä, rasvan laatu ja heran ikä havaittiin tilastollisesti merkityksettömiksi tekijöiksi sekä heran suodattuvuuden, että kalvon puhdistuvuuden kannalta. Kalsiumkloridin lisääminen heraan ennen suodatusta vaikuttivain kalvon suodatuksen jälkeiseen peseytyvyyteen. Kalvo puhdistui paremmin, kun kalsiumkloridia ei oltu lisätty heraan ennen suodatusta. Desal-5 DK kalvojen läpäisevyyseroja tutkittiin suodattamalla glukoosia ja natriumkloridia sisältävää malliaineliuosta kummankin vertailtavan kalvon läpi. Kokeissa havaittiin, että toista nanosuodatuskalvoa käytettäessä mitatut vesivuot olivat jopa 100 % korkeampia kuin vertailukalvoa käytettäessä mitatut. Myös glukoosin kalvolle pidättymisessä havaittiin eroja kalvojen välillä. Syyksi suuriin läpäisevyyseroihin arveltiin riittämätöntä kalvojen esikäsittelyä ennen malliainekokeen suorittamista, joten ei pystytty arvioimaan, oliko kalvojen läpäisevyyksissävalmistusprosessista johtuvia eroja.
Resumo:
Résumé : La radiothérapie par modulation d'intensité (IMRT) est une technique de traitement qui utilise des faisceaux dont la fluence de rayonnement est modulée. L'IMRT, largement utilisée dans les pays industrialisés, permet d'atteindre une meilleure homogénéité de la dose à l'intérieur du volume cible et de réduire la dose aux organes à risque. Une méthode usuelle pour réaliser pratiquement la modulation des faisceaux est de sommer de petits faisceaux (segments) qui ont la même incidence. Cette technique est appelée IMRT step-and-shoot. Dans le contexte clinique, il est nécessaire de vérifier les plans de traitement des patients avant la première irradiation. Cette question n'est toujours pas résolue de manière satisfaisante. En effet, un calcul indépendant des unités moniteur (représentatif de la pondération des chaque segment) ne peut pas être réalisé pour les traitements IMRT step-and-shoot, car les poids des segments ne sont pas connus à priori, mais calculés au moment de la planification inverse. Par ailleurs, la vérification des plans de traitement par comparaison avec des mesures prend du temps et ne restitue pas la géométrie exacte du traitement. Dans ce travail, une méthode indépendante de calcul des plans de traitement IMRT step-and-shoot est décrite. Cette méthode est basée sur le code Monte Carlo EGSnrc/BEAMnrc, dont la modélisation de la tête de l'accélérateur linéaire a été validée dans une large gamme de situations. Les segments d'un plan de traitement IMRT sont simulés individuellement dans la géométrie exacte du traitement. Ensuite, les distributions de dose sont converties en dose absorbée dans l'eau par unité moniteur. La dose totale du traitement dans chaque élément de volume du patient (voxel) peut être exprimée comme une équation matricielle linéaire des unités moniteur et de la dose par unité moniteur de chacun des faisceaux. La résolution de cette équation est effectuée par l'inversion d'une matrice à l'aide de l'algorithme dit Non-Negative Least Square fit (NNLS). L'ensemble des voxels contenus dans le volume patient ne pouvant être utilisés dans le calcul pour des raisons de limitations informatiques, plusieurs possibilités de sélection ont été testées. Le meilleur choix consiste à utiliser les voxels contenus dans le Volume Cible de Planification (PTV). La méthode proposée dans ce travail a été testée avec huit cas cliniques représentatifs des traitements habituels de radiothérapie. Les unités moniteur obtenues conduisent à des distributions de dose globale cliniquement équivalentes à celles issues du logiciel de planification des traitements. Ainsi, cette méthode indépendante de calcul des unités moniteur pour l'IMRT step-andshootest validée pour une utilisation clinique. Par analogie, il serait possible d'envisager d'appliquer une méthode similaire pour d'autres modalités de traitement comme par exemple la tomothérapie. Abstract : Intensity Modulated RadioTherapy (IMRT) is a treatment technique that uses modulated beam fluence. IMRT is now widespread in more advanced countries, due to its improvement of dose conformation around target volume, and its ability to lower doses to organs at risk in complex clinical cases. One way to carry out beam modulation is to sum smaller beams (beamlets) with the same incidence. This technique is called step-and-shoot IMRT. In a clinical context, it is necessary to verify treatment plans before the first irradiation. IMRT Plan verification is still an issue for this technique. Independent monitor unit calculation (representative of the weight of each beamlet) can indeed not be performed for IMRT step-and-shoot, because beamlet weights are not known a priori, but calculated by inverse planning. Besides, treatment plan verification by comparison with measured data is time consuming and performed in a simple geometry, usually in a cubic water phantom with all machine angles set to zero. In this work, an independent method for monitor unit calculation for step-and-shoot IMRT is described. This method is based on the Monte Carlo code EGSnrc/BEAMnrc. The Monte Carlo model of the head of the linear accelerator is validated by comparison of simulated and measured dose distributions in a large range of situations. The beamlets of an IMRT treatment plan are calculated individually by Monte Carlo, in the exact geometry of the treatment. Then, the dose distributions of the beamlets are converted in absorbed dose to water per monitor unit. The dose of the whole treatment in each volume element (voxel) can be expressed through a linear matrix equation of the monitor units and dose per monitor unit of every beamlets. This equation is solved by a Non-Negative Least Sqvare fif algorithm (NNLS). However, not every voxels inside the patient volume can be used in order to solve this equation, because of computer limitations. Several ways of voxel selection have been tested and the best choice consists in using voxels inside the Planning Target Volume (PTV). The method presented in this work was tested with eight clinical cases, which were representative of usual radiotherapy treatments. The monitor units obtained lead to clinically equivalent global dose distributions. Thus, this independent monitor unit calculation method for step-and-shoot IMRT is validated and can therefore be used in a clinical routine. It would be possible to consider applying a similar method for other treatment modalities, such as for instance tomotherapy or volumetric modulated arc therapy.
Resumo:
Työn tavoitteena oli selvittää, millainen suunnittelu- ja toimeenpanojärjestelmä tukee Junttanin liiketoimintatavoitteiden saavuttamista ja valita tarjolla olevista vaihtoehdoistasopivin kokonaisuus. Työn teoriaosassa selvitetään toiminnanohjausjärjestelmien toiminnallisuuksien jako suunnittelu- ja toimeenpanojärjestelmiin ja miten suunnittelu- ja toimeenpa-nojärjestelmien käyttötarkoitus ja käyttöönotto poikkeavat toisistaan. Teoriaosas-sa käsitellään myös päätöksentekoon liittyviä asioita sillä tämän työn lopputulok-sena Junttanille valittiin PDM- ja ERP-järjestelmä. Työssä toteutettiin aluksi liiketoimintatavoitteiden selvitys. Liiketoimintatavoitteet ohjasivat, millaisen suunnittelu- ja toimeenpanojärjestelmän Junttan tarvitsi. Ny-kytilan kartoituksen yhteydessä kerättiin kehitysideoita uutta järjestelmäkokonai-suutta varten. Liiketoimintatavoitteiden ja kehitysideoiden pohjalta laadittiin tavoi-tetila, jonka pohjalta määritettiin vaatimukset PDM- ja ERP-järjestelmille. Yrityksen toiminnanohjausjärjestelmän valinta on iso päätös. Sen vuoksi päätök-sentekoon panostettiin niin, että ennakkoasenteet ja henkilökohtaiset mieltymyk-set eivät ohjanneet valintaa. Toiminnallinen määrittely jätettiin tehtäväksi järjestelmien käyttöönoton yhteydes-sä. Junttanilla päätettiin hyödyntää uusien toimintatapojen määrittämisessä toi-mittajien alakohtaista osaamista ja järjestelmiin kuvattuja ja järjestelmissä tuettuja prosesseja.
Resumo:
Gaia is the most ambitious space astrometry mission currently envisaged and is a technological challenge in all its aspects. We describe a proposal for the payload data handling system of Gaia, as an example of a high-performance, real-time, concurrent, and pipelined data system. This proposal includes the front-end systems for the instrumentation, the data acquisition and management modules, the star data processing modules, and the payload data handling unit. We also review other payload and service module elements and we illustrate a data flux proposal.
Resumo:
Résumé L'arrivée en force de l'imagerie numérique de bonne qualité à un prix abordable m'a fait réfléchir à la meilleure manière de l'intégrer dans la pratique courante de l'enseignement de la dermatologie, spécialité très visuelle. Comment mettre à profit la richesse des images et les nombreuses possibilités pédagogiques que l'informatique offre. J'ai étudié quelques produits existant sur le marché; je constate que les possibilités offertes par l'informatique restent souvent sous exploitées. Les réalisations manquent de liens hypertextes et la facilité d'accès aux images que permet l'informatique n'est pas appliquée. Les images sont trop souvent présentées avec une légende trop brève, ne soulignant pas les points importants pour le diagnostic. Certains outils ne proposent même pas de diagnostics différentiels. Ma réflexion me pousse à croire que l'apprentissage doit se faire par l'image. L'étudiant doit y apprendre les bases du diagnostic morphologique, trouver ce qui lui permet de poser le diagnostic. Compte tenu de mes observations, j'ai développé à Lausanne mon propre atlas interactif de diagnostics différentiels, basé sur la comparaison d'images. Mon projet n'a donc pas pour but de remplacer un livre ou un atlas, mais je souhaite compléter les moyens d'apprentissage basés sur l'image. Sa particularité tient dans la manière dont on a sélectionné les diagnostics différentiels; mon critère principal n'a pas été un choix théorique, mais la ressemblance entre deux images de ma bibliothèque. Cette manière de procéder m'a forcé à résoudre quelques questions fondamentales à propos des diagnostics différentiels. J'ai prêté une attention particulière à ce que l'utilisateur replace aisément les 850 images dans une structure que j'ai voulue claire. Cela m'a poussé à réfléchir sur la manière dont on aborde la dermatologie: par localisation, d'après les lésions, selon l'âge ou d'après des critères de physiopathologie ? Chaque image est accessible par la table des matières originale, soit par un module de recherche multicritère. Mon produit est personnalisable grâce à la présence de plusieurs outils. "Le Petit Rouvé", première version, est maintenant disponible pour une phase de test. Dans un second temps, l'atlas sera distribué aux étudiants de 4ème et 6ème année de la Faculté de médecine de Lausanne pour la rentrée de 2004-2005.
Resumo:
La biologie de la conservation est communément associée à la protection de petites populations menacées d?extinction. Pourtant, il peut également être nécessaire de soumettre à gestion des populations surabondantes ou susceptibles d?une trop grande expansion, dans le but de prévenir les effets néfastes de la surpopulation. Du fait des différences tant quantitatives que qualitatives entre protection des petites populations et contrôle des grandes, il est nécessaire de disposer de modèles et de méthodes distinctes. L?objectif de ce travail a été de développer des modèles prédictifs de la dynamique des grandes populations, ainsi que des logiciels permettant de calculer les paramètres de ces modèles et de tester des scénarios de gestion. Le cas du Bouquetin des Alpes (Capra ibex ibex) - en forte expansion en Suisse depuis sa réintroduction au début du XXème siècle - servit d?exemple. Cette tâche fut accomplie en trois étapes : En premier lieu, un modèle de dynamique locale, spécifique au Bouquetin, fut développé : le modèle sous-jacent - structuré en classes d?âge et de sexe - est basé sur une matrice de Leslie à laquelle ont été ajoutées la densité-dépendance, la stochasticité environnementale et la chasse de régulation. Ce modèle fut implémenté dans un logiciel d?aide à la gestion - nommé SIM-Ibex - permettant la maintenance de données de recensements, l?estimation automatisée des paramètres, ainsi que l?ajustement et la simulation de stratégies de régulation. Mais la dynamique d?une population est influencée non seulement par des facteurs démographiques, mais aussi par la dispersion et la colonisation de nouveaux espaces. Il est donc nécessaire de pouvoir modéliser tant la qualité de l?habitat que les obstacles à la dispersion. Une collection de logiciels - nommée Biomapper - fut donc développée. Son module central est basé sur l?Analyse Factorielle de la Niche Ecologique (ENFA) dont le principe est de calculer des facteurs de marginalité et de spécialisation de la niche écologique à partir de prédicteurs environnementaux et de données d?observation de l?espèce. Tous les modules de Biomapper sont liés aux Systèmes d?Information Géographiques (SIG) ; ils couvrent toutes les opérations d?importation des données, préparation des prédicteurs, ENFA et calcul de la carte de qualité d?habitat, validation et traitement des résultats ; un module permet également de cartographier les barrières et les corridors de dispersion. Le domaine d?application de l?ENFA fut exploré par le biais d?une distribution d?espèce virtuelle. La comparaison à une méthode couramment utilisée pour construire des cartes de qualité d?habitat, le Modèle Linéaire Généralisé (GLM), montra qu?elle était particulièrement adaptée pour les espèces cryptiques ou en cours d?expansion. Les informations sur la démographie et le paysage furent finalement fusionnées en un modèle global. Une approche basée sur un automate cellulaire fut choisie, tant pour satisfaire aux contraintes du réalisme de la modélisation du paysage qu?à celles imposées par les grandes populations : la zone d?étude est modélisée par un pavage de cellules hexagonales, chacune caractérisée par des propriétés - une capacité de soutien et six taux d?imperméabilité quantifiant les échanges entre cellules adjacentes - et une variable, la densité de la population. Cette dernière varie en fonction de la reproduction et de la survie locale, ainsi que de la dispersion, sous l?influence de la densité-dépendance et de la stochasticité. Un logiciel - nommé HexaSpace - fut développé pour accomplir deux fonctions : 1° Calibrer l?automate sur la base de modèles de dynamique (par ex. calculés par SIM-Ibex) et d?une carte de qualité d?habitat (par ex. calculée par Biomapper). 2° Faire tourner des simulations. Il permet d?étudier l?expansion d?une espèce envahisseuse dans un paysage complexe composé de zones de qualité diverses et comportant des obstacles à la dispersion. Ce modèle fut appliqué à l?histoire de la réintroduction du Bouquetin dans les Alpes bernoises (Suisse). SIM-Ibex est actuellement utilisé par les gestionnaires de la faune et par les inspecteurs du gouvernement pour préparer et contrôler les plans de tir. Biomapper a été appliqué à plusieurs espèces (tant végétales qu?animales) à travers le Monde. De même, même si HexaSpace fut initialement conçu pour des espèces animales terrestres, il pourrait aisément être étndu à la propagation de plantes ou à la dispersion d?animaux volants. Ces logiciels étant conçus pour, à partir de données brutes, construire un modèle réaliste complexe, et du fait qu?ils sont dotés d?une interface d?utilisation intuitive, ils sont susceptibles de nombreuses applications en biologie de la conservation. En outre, ces approches peuvent également s?appliquer à des questions théoriques dans les domaines de l?écologie des populations et du paysage.<br/><br/>Conservation biology is commonly associated to small and endangered population protection. Nevertheless, large or potentially large populations may also need human management to prevent negative effects of overpopulation. As there are both qualitative and quantitative differences between small population protection and large population controlling, distinct methods and models are needed. The aim of this work was to develop theoretical models to predict large population dynamics, as well as computer tools to assess the parameters of these models and to test management scenarios. The alpine Ibex (Capra ibex ibex) - which experienced a spectacular increase since its reintroduction in Switzerland at the beginning of the 20th century - was used as paradigm species. This task was achieved in three steps: A local population dynamics model was first developed specifically for Ibex: the underlying age- and sex-structured model is based on a Leslie matrix approach with addition of density-dependence, environmental stochasticity and culling. This model was implemented into a management-support software - named SIM-Ibex - allowing census data maintenance, parameter automated assessment and culling strategies tuning and simulating. However population dynamics is driven not only by demographic factors, but also by dispersal and colonisation of new areas. Habitat suitability and obstacles modelling had therefore to be addressed. Thus, a software package - named Biomapper - was developed. Its central module is based on the Ecological Niche Factor Analysis (ENFA) whose principle is to compute niche marginality and specialisation factors from a set of environmental predictors and species presence data. All Biomapper modules are linked to Geographic Information Systems (GIS); they cover all operations of data importation, predictor preparation, ENFA and habitat suitability map computation, results validation and further processing; a module also allows mapping of dispersal barriers and corridors. ENFA application domain was then explored by means of a simulated species distribution. It was compared to a common habitat suitability assessing method, the Generalised Linear Model (GLM), and was proven better suited for spreading or cryptic species. Demography and landscape informations were finally merged into a global model. To cope with landscape realism and technical constraints of large population modelling, a cellular automaton approach was chosen: the study area is modelled by a lattice of hexagonal cells, each one characterised by a few fixed properties - a carrying capacity and six impermeability rates quantifying exchanges between adjacent cells - and one variable, population density. The later varies according to local reproduction/survival and dispersal dynamics, modified by density-dependence and stochasticity. A software - named HexaSpace - was developed, which achieves two functions: 1° Calibrating the automaton on the base of local population dynamics models (e.g., computed by SIM-Ibex) and a habitat suitability map (e.g. computed by Biomapper). 2° Running simulations. It allows studying the spreading of an invading species across a complex landscape made of variously suitable areas and dispersal barriers. This model was applied to the history of Ibex reintroduction in Bernese Alps (Switzerland). SIM-Ibex is now used by governmental wildlife managers to prepare and verify culling plans. Biomapper has been applied to several species (both plants and animals) all around the World. In the same way, whilst HexaSpace was originally designed for terrestrial animal species, it could be easily extended to model plant propagation or flying animals dispersal. As these softwares were designed to proceed from low-level data to build a complex realistic model and as they benefit from an intuitive user-interface, they may have many conservation applications. Moreover, theoretical questions in the fields of population and landscape ecology might also be addressed by these approaches.
Resumo:
In this thesis membrane filtration of paper machnie clear filtrate was studied. The aim of the study was to find membrane processes which are able to produce economically water of sufficient purity from paper machine white water or its saveall clarified fractions for reuse in the paper machnie short circulation. Factors affecting membrane fouling in this application were also studied. The thesis gives an overview af experiments done on a laboratory and a pilot scale with several different membranes and membrane modules. The results were judged by the obtained flux, the fouling tendency and the permeate quality assessed with various chemical analyses. It was shown that membrane modules which used a turbulence promotor of some kind gave the highest fluexes. However, the results showed that the greater the reduction in the concentration polarisation layer caused by increased turbulence in the module, the smaller the reductions in measured substances. Out of the micro-, ultra- and nanofiltration membranes tested, only nanofiltration memebranes produced permeate whose quality was very close to that of the chemically treated raw water used as fresh water in most paper mills today and which should thus be well suited for reuse as shower water both in the wire and press section. It was also shown that a one stage nanofiltration process was more effective than processes in which micro- or ultrafiltration was used as pretreatment for nanofiltration. It was generally observed that acidic pH, high organic matter content, the presence of multivalent ions, hydrophobic membrane material and high membrane cutoff increased the fouling tendency of the membranes.