946 resultados para Mixed Use Development
Resumo:
Syttymistä ja palamisen etenemistä partikkelikerroksessa tutkitaan paloturvallisuuden parantamista sekä kiinteitä polttoaineita käyttävien polttolaitteiden toiminnan tuntemista ja kehittämistä varten. Tässä tutkimuksessa on tavoitteena kerätä yhteen syttymiseen ja liekkirintaman etenemiseen liittyviä kokeellisia ja teoreettisia tutkimustuloksia, jotka auttavat kiinteäkerrospoltto- ja -kaasutus-laitteiden kehittämisessä ja suunnittelussa. Työ on esitutkimus sitä seuraavalle kokeelliselle ja teoreettiselle osalle. Käsittelyssä keskitytään erityisesti puuperäisiin polttoaineisiin. Hiilidioksidipäästöjen vähentämistavoitteet sekä kiinteiden jätteiden energiakäytön lisääminen ja kaatopaikalle viennin vähentäminen aiheuttavat lähitulevaisuudessa kerrospolton lisääntymistä. Kuljetusmatkojen optimoinnin takia joudutaan rakentamaan melko pieniä polttolaitoksia, joissa kerrospolttotekniikka on edullisin vaihtoehto. Syttymispisteellä tarkoitetaan Semenovin määritelmän mukaan tilaa ja ajankohtaa, jolloin polttoaineen ja hapen reaktioissa muodostuva nettoenergia aikayksikössä on yhtäsuuri kuin ympäristöön siirtyvä nettoenergiavirta. Itsesyttyminen tarkoittaa syttymistä ympäristön lämpötilan tai paineen suurenemisen seurauksena. Pakotettu syttyminen tapahtuu, kun syttymispisteen läheisyydessä on esimerkiksi liekki tai hehkuva kiinteä kappale, joka aiheuttaa paikallisen syttymisen ja syttymisrintaman leviämisen muualle polttoaineeseen. Kokeellinen tutkimus on osoittanut tärkeimmiksi syttymiseen ja syttymisrintaman etenemiseen vaikuttaviksi tekijöiksi polttoaineen kosteuden, haihtuvien aineiden pitoisuuden ja lämpöarvon, partikkelikerroksen huokoisuuden, partikkelien koon ja muodon, polttoaineen pinnalle tulevan säteilylämpövirran tiheyden, kaasun virtausnopeuden kerroksessa, hapen osuuden ympäristössä sekä palamisilman esilämmityksen. Kosteuden lisääntyminen suurentaa syttymisenergiaa ja -lämpötilaa sekä pidentää syttymisaikaa. Mitä enemmän polttoaine sisältää haihtuvia aineita sitä pienemmässä lämpötilassa se syttyy. Syttyminen ja syttymisrintaman eteneminen ovat sitä nopeampia mitä suurempi on polttoaineen lämpöarvo. Kerroksen huokoisuuden kasvun on havaittu suurentavan palamisen etenemisnopeutta. Pienet partikkelit syttyvät yleensä nopeammin ja pienemmässä lämpötilassa kuin suuret. Syttymisrintaman eteneminen nopeutuu partikkelien pinta-ala - tilavuussuhteen kasvaessa. Säteilylämpövirran tiheys on useissa polttosovellutuksissa merkittävin lämmönsiirtotekijä, jonka kasvu luonnollisesti nopeuttaa syttymistä. Ilman ja palamiskaasujen virtausnopeus kerroksessa vaikuttaa konvektiiviseen lämmönsiirtoon ja hapen pitoisuuteen syttymisvyöhykkeellä. Ilmavirtaus voi jäähdyttää ja kuumankaasun virtaus lämmittää kerrosta. Hapen osuuden kasvaminen nopeuttaa syttymistä ja liekkirintaman etenemistä kunnes saavutetaan tila, jota suuremmilla virtauksilla ilma jäähdyttää ja laimentaa reaktiovyöhykettä. Palamisilman esilämmitys nopeuttaa syttymisrintaman etenemistä. Syttymistä ja liekkirintaman etenemistä kuvataan yleensä empiirisillä tai säilyvyysyhtälöihin perustuvilla malleilla. Empiiriset mallit perustuvat mittaustuloksista tehtyihin korrelaatioihin sekä joihinkin tunnettuihin fysikaalisiin lainalaisuuksiin. Säilyvyysyhtälöihin perustuvissa malleissa systeemille määritetään massan, energian, liikemäärän ja alkuaineiden säilymisyhtälöt, joiden nopeutta kuvaavien siirtoyhtälöiden muodostamiseen käytetään teoreettisella ja kokeellisella tutkimuksella saatuja yhtälöitä. Nämä mallinnusluokat ovat osittain päällekkäisiä. Pintojen syttymistä kuvataan usein säilyvyysyhtälöihin perustuvilla malleilla. Partikkelikerrosten mallinnuksessa tukeudutaan enimmäkseen empiirisiin yhtälöihin. Partikkelikerroksia kuvaavista malleista Xien ja Liangin hiilipartikkelikerroksen syttymiseen liittyvä tutkimus ja Gortin puun ja jätteen polttoon liittyvä reaktiorintaman etenemistutkimus ovat lähimpänä säilyvyysyhtälöihin perustuvaa mallintamista. Kaikissa malleissa joudutaan kuitenkin yksinkertaistamaan todellista tapausta esimerkiksi vähentämällä dimensioita, reaktioita ja yhdisteitä sekä eliminoimalla vähemmän merkittävät siirtomekanismit. Suoraan kerrospolttoa ja -kaasutusta palvelevia syttymisen ja palamisen etenemisen tutkimuksia on vähän. Muita tarkoituksia varten tehtyjen tutkimusten polttoaineet, kerrokset ja ympäristöolosuhteet poikkeavat yleensä selvästi polttolaitteiden vastaavista olosuhteista. Erikokoisten polttoainepartikkelien ja ominaisuuksiltaan erilaisten polttoaineiden seospolttoa ei ole tutkittu juuri ollenkaan. Polttoainepartikkelien muodon vaikutuksesta on vain vähän tutkimusta.Ilman kanavoitumisen vaikutuksista ei löytynyt tutkimuksia.
Resumo:
This paper reviews the literature on managerially actionable new product development success factors and summarises the field in a classic managerial framework. Because of the varying quality, breadth and scope of the field, the review only contains post-1980 studies of tangible product development that are of a rigorous scientific standard. Success is interpreted as a commercial success. The field has gained insight into a broad set of factors that vary in scope, abstraction and context. Main areas that contribute to NPD success are top management support exhibited through resource allocation and communicating the strategic importance of NPD in the organisation. The right projects need to be selected for investment at the beginning of the process and should be aligned to the organisation's internal competencies and the external environment. The NPD process should use cross-functional teams and a competent project champions. Marketing research competency is crucial, as an understanding of the market, customers and competitors is repeatedly highlighted. Product launch competency was also consistently shown to be important. In terms of controlling the NPD process, strict project gates are required to maintain control.
Resumo:
On selvää, että tänä päivänä maailmankaupan painopiste on hiljalleen siirtymässä Aasiaan ja varsinkin Kiina on ollut huomion keskipisteessä. Erityisesti valmistavien yritysten perspektiivistä muutos on ollut merkittävä ja tämä tosiasia kasvattaa yrityksissä paineita luoda kustannustehokkaita toimitusketjuratkaisuja,joiden vasteaika on mahdollisimman lyhyt. Samaan aikaan kun tarkastellaan kuljetusvirtoja, huomattaan että maanosien välillä on suuri epätasapaino. Tämä on enimmäkseen seurausta suurten globaalisti toimivien yritysten toimitusketjustrategioista. Useimmat näistä toimijoista optimoivat verkostonsa turvautumalla 'paikalliseen hankintaan', jotta he voisivat paremmin hallita toimitusketjujaan ja saada näitä reagointiherkimmiksi. Valmistusyksiköillä onkin monesti Euroopassa pakko käyttää kalliita raaka-aineita ja puolivalmisteita. Kriittisiksi tekijöiksi osoittautuvat kuljetus- ja varastointikustannukset sekä näiden seurauksena hukka-aika, joka aiheutuu viivästyksistä. Voidakseen saavuttaa optimiratkaisun, on tehtävä päätös miten tuotteet varastoidaan: keskitetysti tai hajautetusti ja integroida tämä valinta sopivien kuljetusmuotojen kanssa. Aasiasta Pohjois-Eurooppaan on halpaa käyttää merikuljetusta, mutta operaatio kestää hyvin pitkään - joissain tapauksessa jopa kahdeksan viikkoa. Toisaalta lentokuljetus on sekä kallis että rajoittaa siirrettävien tuotteiden eräkokoa.On olemassa kolmaskin vaihtoehto, josta voisi olla ratkaisuksi: rautatiekuljetus on halvempi kuin lentokuljetus ja vasteajat ovat lyhyemmät kuin merikuljetuksissa. Tässä tutkimuksessa tilannetta selvitetään kyselyllä, joka suunnattiin Suomessa ja Ruotsissa toimiville yrityksille. Tuloksien perusteella teemme johtopäätökset siitä, mitkä kuljetusmuotojen markkinaosuudet tulevat olemaan tulevaisuudessa sekä luomme kuvan kuljetusvirroista Euroopan, Venäjän, Etelä-Korea, Intian, Kiinan ja Japanin välillä. Samalla on tarkoitus ennakoida sitä, miten tarkastelun kohteena olevat yritykset aikovat kehittää kuljetuksiaan ja varastointiaan tulevien vuosien aikana. Tulosten perusteella näyttää siltä, että seuraavan viiden vuoden kuluessa kuljetuskustannukset eivät merkittävissä määrin tule muuttuman ja meri- sekä kumipyöräkuljetukset pysyvät suosituimpina vaihtoehtoina.Kuitenkin lentokuljetusten osuus laskee hiukan, kun taas rautatiekuljetusten painotus kasvaa. Tulokset paljastavat, että Kiinassa ja Venäjällä kuljetettava konttimäärä kasvaa; Intiassa tulos on saman suuntainen, joskaan ei niin voimakas. Analyysimme mukaan kuljetusvirtoihin liittyvä epätasapaino säilyy Venäjän kuljetusten suhteen: yritykset jatkavat tulevaisuudessakin vientiperusteista strategiaansa. Varastoinnin puolella tunnistamme pienemmän muutoksen, jonka mukaan pienikokoisten varastojen määrät todennäköisesti vähenevät tulevaisuudessa ja kiinnostus isoja varastoja kohtaan lisääntyy. Tässä kohtaa on mainittava, että suomalaisilla yrityksillä on enemmän varastoja Keski- ja Itä-Euroopassa verrattuna ruotsalaisiin toimijoihin, jotka keskittyvät selkeämmin Länsi-Euroopan maihin. Varastoja yrityksillä on molemmissa tapaukissa paljolti kotimaassaan. Valitessaan varastojensa sijoituskohteita yritykset painottavat seuraavia kriteereitä: alhaiset jakelukustannukset, kokoamispaikan/valmistustehtaan läheisyys, saapuvan logistiikan integroitavuus ja saatavilla olevat logistiikkapalvelut. Tutkimuksemme lopussa päädymme siihen, että varastojen sijoituspaikat eivät muutu satamien rakenteen ja liikenneyhteyksien takia kovinkaan nopeasti.
Resumo:
Les cellules CD8? T cytolytiques (CTL) sont les principaux effecteurs du système immunitaire adaptatif contre les infections et les tumeurs. La récente identification d?antigènes tumoraux humains reconnus par des cellules T cytolytiques est la base pour le, développement des vaccins antigène spécifiques contre le cancer. Le nombre d?antigènes tumoraux reconnus par des CTL que puisse être utilisé comme cible pour la vaccination des patients atteints du cancer est encore limité. Une nouvelle technique, simple et rapide, vient d?être proposée pour l?identification d?antigènes reconnus par des CTL. Elle se base sur l?utilisation de librairies combinatoriales de peptides arrangées en un format de "scanning" ou balayage par position (PS-SCL). La première partie de cette étude a consisté à valider cette nouvelle technique par une analyse détaillée de la reconnaissance des PS-SCL par différents clones de CTL spécifiques pour des antigènes associés à la tumeur (TAA) connus ainsi que par des clones de spécificité inconnue. Les résultats de ces analyses révèlent que pour tous les clones, la plupart des acides aminés qui composent la séquence du peptide antigénique naturel ont été identifiés par l?utilisation des PS-SCL. Les résultats obtenus ont permis d?identifier des peptides analogues ayant une antigènicité augmentée par rapport au peptide naturel, ainsi que des peptides comportant de multiples modifications de séquence, mais présentant la même réactivité que le peptide naturel. La deuxième partie de cette étude a consisté à effectuer des analyses biométriques des résultats complexes générés par la PS-SCL. Cette approche a permis l?identification des séquences correspondant aux épitopes naturels à partir de bases de données de peptides publiques. Parmi des milliers de peptides, les séquences naturelles se trouvent comprises dans les 30 séquences ayant les scores potentiels de stimulation les plus élevés pour chaque TAA étudié. Mais plus important encore, l?utilisation des PS-SCL avec un clone réactif contre des cellules tumorales mais de spécificité inconnue nous a permis d?identifier I?epitope reconnu par ce clone. Les données présentées ici encouragent l?utilisation des PS-SCL pour l?identification et l?optimisation d?épitopes pour des CTL réactifs anti-tumoraux, ainsi que pour l?étude de la reconnaissance dégénérée d?antigènes par les CTL.<br/><br/>CD8+ cytolytic T lymphocytes (CTL) are the main effector cells of the adaptive immune system against infection and tumors. The recent identification of moleculariy defined human tumor Ags recognized by autologous CTL has opened new opportunities for the development of Ag-specific cancer vaccines. Despite extensive work, however, the number of CTL-defined tumor Ags that are suitable targets for the vaccination of cancer patients is still limited, especially because of the laborious and time consuming nature of the procedures currentiy used for their identification. The use of combinatorial peptide libraries in positionai scanning format (Positional Scanning Synthetic Combinatorial Libraries, PS-SCL)' has recently been proposed as an alternative approach for the identification of these epitopes. To validate this approach, we analyzed in detail the recognition of PS-SCL by tumor-reactive CTL clones specific for multiple well-defined tumor-associated Ags (TAA) as well as by tumor-reactive CTL clones of unknown specificity. The results of these analyses revealed that for all the TAA-specific clones studied most of the amino acids composing the native antigenic peptide sequences could be identified through the use of PS-SCL. Based on the data obtained from the screening of PS-SCL, we could design peptide analogs of increased antigenicity as well as cross-reactive analog peptides containing multiple amino acid substitutions. In addition, the resuits of PS-SCL-screening combined with a recently developed biometric data analysis (PS-SCL-based biometric database analysis) allowed the identification of the native peptides in public protein databases among the 30 most active sequences, and this was the case for all the TAA studied. More importantiy, the screening of PS- SCL with a tumor-reactive CTL clone of unknown specificity resulted in the identification of the actual epitope. Overall, these data encourage the use of PS-SCL not oniy for the identification and optimization of tumor-associated CTL epitopes, but also for the analysis of degeneracy in T lymphocyte receptor (TCR) recognition of tumor Ags.<br/><br/>Les cellules T CD8? cytolytiques font partie des globules blancs du sang et sont les principales responsables de la lutte contre les infections et les tumeurs. Les immunologistes cherchent depuis des années à identifier des molécules exprimées et présentées à la surface des tumeurs qui puissent être reconnues par des cellules T CD8? cytolytiques capables ensuite de tuer ces tumeurs de façon spécifique. Ce type de molécules représente la base pour le développement de vaccins contre le cancer puisqu?elles pourraient être injectées aux patients afin d?induire une réponse anti- tumorale. A présent, il y a très peu de molécules capables de stimuler le système immunitaire contre les tumeurs qui sont connues parce que les techniques développées à ce jour pour leur identification sont complexes et longues. Une nouvelle technique vient d?être proposée pour l?identification de ce type de molécules qui se base sur l?utilisation de librairies de peptides. Ces librairies représentent toutes les combinaisons possibles des composants de base des molécules recherchées. La première partie de cette étude a consisté à valider cette nouvelle technique en utilisant des cellules T CD8? cytolytiques capables de tuer des cellules tumorales en reconnaissant une molécule connue présente à leur surface. On a démontré que l?utilisation des librairies permet d?identifier la plupart des composants de base de la molécule reconnue par les cellules T CD8? cytolytiques utilisées. La deuxième partie de cette étude a consisté à effectuer une recherche des molécules potentiellement actives dans des protéines présentes dans des bases des données en utilisant un programme informatique qui permet de classer les molécules sur la base de leur activité biologique. Parmi des milliers de molécules de la base de données, celles reconnues par nos cellules T CD8? cytolytiques ont été trouvées parmi les plus actives. Plus intéressant encore, la combinaison de ces deux techniques nous a permis d?identifier la molécule reconnue par une population de cellules T CD8? cytolytiques ayant une activité anti-tumorale, mais pour laquelle on ne connaissait pas la spécificité. Nos résultats encouragent l?utilisation des librairies pour trouver et optimiser des molécules reconnues spécifiquement par des cellules T CD8? cytolytiques capables de tuer des tumeurs.
Resumo:
Thanks to the continuous progress made in recent years, medical imaging has become an important tool in the diagnosis of various pathologies. In particular, magnetic resonance imaging (MRI) permits to obtain images with a remarkably high resolution without the use of ionizing radiation and is consequently widely applied for a broad range of conditions in all parts of the body. Contrast agents are used in MRI to improve tissue discrimination. Different categories of contrast agents are clinically available, the most widely used being gadolinium chelates. One can distinguish between extracellular gadolinium chelates such as Gd-DTPA, and hepatobiliary gadolinium chelates such as Gd-BOPTA. The latter are able to enter hepatocytes from where they are partially excreted into the bile to an extent dependent on the contrast agent and animal species. Due to this property, hepatobiliary contrast agents are particularly interesting for the MRI of the liver. Actually, a change in signal intensity can result from a change in transport functions signaling the presence of impaired hepatocytes, e.g. in the case of focal (like cancer) or diffuse (like cirrhosis) liver diseases. Although the excretion mechanism into the bile is well known, the uptake mechanisms of hepatobiliary contrast agents into hepatocytes are still not completely understood and several hypotheses have been proposed. As a good knowledge of these transport mechanisms is required to allow an efficient diagnosis by MRI of the functional state of the liver, more fundamental research is needed and an efficient MRI compatible in vitro model would be an asset. So far, most data concerning these transport mechanisms have been obtained by MRI with in vivo models or by a method of detection other than MRI with cellular or sub-cellular models. Actually, no in vitro model is currently available for the study and quantification of contrast agents by MRI notably because high cellular densities are needed to allow detection, and no metallic devices can be used inside the magnet room, which is incompatible with most tissue or cell cultures that require controlled temperature and oxygenation. The aim of this thesis is thus to develop an MRI compatible in vitro cellular model to study the transport of hepatobiliary contrast agents, in particular Gd-BOPTA, into hepatocytes directly by MRI. A better understanding of this transport and especially of its modification in case of hepatic disorder could permit in a second step to extrapolate this knowledge to humans and to use the kinetics of hepatobiliary contrast agents as a tool for the diagnosis of hepatic diseases.
Resumo:
Un système efficace de sismique tridimensionnelle (3-D) haute-résolution adapté à des cibles lacustres de petite échelle a été développé. Dans le Lac Léman, près de la ville de Lausanne, en Suisse, des investigations récentes en deux dimension (2-D) ont mis en évidence une zone de faille complexe qui a été choisie pour tester notre système. Les structures observées incluent une couche mince (<40 m) de sédiments quaternaires sub-horizontaux, discordants sur des couches tertiaires de molasse pentées vers le sud-est. On observe aussi la zone de faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau de la Molasse Subalpine. Deux campagnes 3-D complètes, d?environ d?un kilomètre carré, ont été réalisées sur ce site de test. La campagne pilote (campagne I), effectuée en 1999 pendant 8 jours, a couvert 80 profils en utilisant une seule flûte. Pendant la campagne II (9 jours en 2001), le nouveau système trois-flûtes, bien paramétrés pour notre objectif, a permis l?acquisition de données de très haute qualité sur 180 lignes CMP. Les améliorations principales incluent un système de navigation et de déclenchement de tirs grâce à un nouveau logiciel. Celui-ci comprend un contrôle qualité de la navigation du bateau en temps réel utilisant un GPS différentiel (dGPS) à bord et une station de référence près du bord du lac. De cette façon, les tirs peuvent être déclenchés tous les 5 mètres avec une erreur maximale non-cumulative de 25 centimètres. Tandis que pour la campagne I la position des récepteurs de la flûte 48-traces a dû être déduite à partir des positions du bateau, pour la campagne II elle ont pu être calculées précisément (erreur <20 cm) grâce aux trois antennes dGPS supplémentaires placées sur des flotteurs attachés à l?extrémité de chaque flûte 24-traces. Il est maintenant possible de déterminer la dérive éventuelle de l?extrémité des flûtes (75 m) causée par des courants latéraux ou de petites variations de trajet du bateau. De plus, la construction de deux bras télescopiques maintenant les trois flûtes à une distance de 7.5 m les uns des autres, qui est la même distance que celle entre les lignes naviguées de la campagne II. En combinaison avec un espacement de récepteurs de 2.5 m, la dimension de chaque «bin» de données 3-D de la campagne II est de 1.25 m en ligne et 3.75 m latéralement. L?espacement plus grand en direction « in-line » par rapport à la direction «cross-line» est justifié par l?orientation structurale de la zone de faille perpendiculaire à la direction «in-line». L?incertitude sur la navigation et le positionnement pendant la campagne I et le «binning» imprécis qui en résulte, se retrouve dans les données sous forme d?une certaine discontinuité des réflecteurs. L?utilisation d?un canon à air à doublechambre (qui permet d?atténuer l?effet bulle) a pu réduire l?aliasing observé dans les sections migrées en 3-D. Celui-ci était dû à la combinaison du contenu relativement haute fréquence (<2000 Hz) du canon à eau (utilisé à 140 bars et à 0.3 m de profondeur) et d?un pas d?échantillonnage latéral insuffisant. Le Mini G.I 15/15 a été utilisé à 80 bars et à 1 m de profondeur, est mieux adapté à la complexité de la cible, une zone faillée ayant des réflecteurs pentés jusqu?à 30°. Bien que ses fréquences ne dépassent pas les 650 Hz, cette source combine une pénétration du signal non-aliasé jusqu?à 300 m dans le sol (par rapport au 145 m pour le canon à eau) pour une résolution verticale maximale de 1.1 m. Tandis que la campagne I a été acquise par groupes de plusieurs lignes de directions alternées, l?optimisation du temps d?acquisition du nouveau système à trois flûtes permet l?acquisition en géométrie parallèle, ce qui est préférable lorsqu?on utilise une configuration asymétrique (une source et un dispositif de récepteurs). Si on ne procède pas ainsi, les stacks sont différents selon la direction. Toutefois, la configuration de flûtes, plus courtes que pour la compagne I, a réduit la couverture nominale, la ramenant de 12 à 6. Une séquence classique de traitement 3-D a été adaptée à l?échantillonnage à haute fréquence et elle a été complétée par deux programmes qui transforment le format non-conventionnel de nos données de navigation en un format standard de l?industrie. Dans l?ordre, le traitement comprend l?incorporation de la géométrie, suivi de l?édition des traces, de l?harmonisation des «bins» (pour compenser l?inhomogénéité de la couverture due à la dérive du bateau et de la flûte), de la correction de la divergence sphérique, du filtrage passe-bande, de l?analyse de vitesse, de la correction DMO en 3-D, du stack et enfin de la migration 3-D en temps. D?analyses de vitesse détaillées ont été effectuées sur les données de couverture 12, une ligne sur deux et tous les 50 CMP, soit un nombre total de 600 spectres de semblance. Selon cette analyse, les vitesses d?intervalles varient de 1450-1650 m/s dans les sédiments non-consolidés et de 1650-3000 m/s dans les sédiments consolidés. Le fait que l?on puisse interpréter plusieurs horizons et surfaces de faille dans le cube, montre le potentiel de cette technique pour une interprétation tectonique et géologique à petite échelle en trois dimensions. On distingue cinq faciès sismiques principaux et leurs géométries 3-D détaillées sur des sections verticales et horizontales: les sédiments lacustres (Holocène), les sédiments glacio-lacustres (Pléistocène), la Molasse du Plateau, la Molasse Subalpine de la zone de faille (chevauchement) et la Molasse Subalpine au sud de cette zone. Les couches de la Molasse du Plateau et de la Molasse Subalpine ont respectivement un pendage de ~8° et ~20°. La zone de faille comprend de nombreuses structures très déformées de pendage d?environ 30°. Des tests préliminaires avec un algorithme de migration 3-D en profondeur avant sommation et à amplitudes préservées démontrent que la qualité excellente des données de la campagne II permet l?application de telles techniques à des campagnes haute-résolution. La méthode de sismique marine 3-D était utilisée jusqu?à présent quasi-exclusivement par l?industrie pétrolière. Son adaptation à une échelle plus petite géographiquement mais aussi financièrement a ouvert la voie d?appliquer cette technique à des objectifs d?environnement et du génie civil.<br/><br/>An efficient high-resolution three-dimensional (3-D) seismic reflection system for small-scale targets in lacustrine settings was developed. In Lake Geneva, near the city of Lausanne, Switzerland, past high-resolution two-dimensional (2-D) investigations revealed a complex fault zone (the Paudèze thrust zone), which was subsequently chosen for testing our system. Observed structures include a thin (<40 m) layer of subhorizontal Quaternary sediments that unconformably overlie southeast-dipping Tertiary Molasse beds and the Paudèze thrust zone, which separates Plateau and Subalpine Molasse units. Two complete 3-D surveys have been conducted over this same test site, covering an area of about 1 km2. In 1999, a pilot survey (Survey I), comprising 80 profiles, was carried out in 8 days with a single-streamer configuration. In 2001, a second survey (Survey II) used a newly developed three-streamer system with optimized design parameters, which provided an exceptionally high-quality data set of 180 common midpoint (CMP) lines in 9 days. The main improvements include a navigation and shot-triggering system with in-house navigation software that automatically fires the gun in combination with real-time control on navigation quality using differential GPS (dGPS) onboard and a reference base near the lake shore. Shots were triggered at 5-m intervals with a maximum non-cumulative error of 25 cm. Whereas the single 48-channel streamer system of Survey I requires extrapolation of receiver positions from the boat position, for Survey II they could be accurately calculated (error <20 cm) with the aid of three additional dGPS antennas mounted on rafts attached to the end of each of the 24- channel streamers. Towed at a distance of 75 m behind the vessel, they allow the determination of feathering due to cross-line currents or small course variations. Furthermore, two retractable booms hold the three streamers at a distance of 7.5 m from each other, which is the same distance as the sail line interval for Survey I. With a receiver spacing of 2.5 m, the bin dimension of the 3-D data of Survey II is 1.25 m in in-line direction and 3.75 m in cross-line direction. The greater cross-line versus in-line spacing is justified by the known structural trend of the fault zone perpendicular to the in-line direction. The data from Survey I showed some reflection discontinuity as a result of insufficiently accurate navigation and positioning and subsequent binning errors. Observed aliasing in the 3-D migration was due to insufficient lateral sampling combined with the relatively high frequency (<2000 Hz) content of the water gun source (operated at 140 bars and 0.3 m depth). These results motivated the use of a double-chamber bubble-canceling air gun for Survey II. A 15 / 15 Mini G.I air gun operated at 80 bars and 1 m depth, proved to be better adapted for imaging the complexly faulted target area, which has reflectors dipping up to 30°. Although its frequencies do not exceed 650 Hz, this air gun combines a penetration of non-aliased signal to depths of 300 m below the water bottom (versus 145 m for the water gun) with a maximum vertical resolution of 1.1 m. While Survey I was shot in patches of alternating directions, the optimized surveying time of the new threestreamer system allowed acquisition in parallel geometry, which is preferable when using an asymmetric configuration (single source and receiver array). Otherwise, resulting stacks are different for the opposite directions. However, the shorter streamer configuration of Survey II reduced the nominal fold from 12 to 6. A 3-D conventional processing flow was adapted to the high sampling rates and was complemented by two computer programs that format the unconventional navigation data to industry standards. Processing included trace editing, geometry assignment, bin harmonization (to compensate for uneven fold due to boat/streamer drift), spherical divergence correction, bandpass filtering, velocity analysis, 3-D DMO correction, stack and 3-D time migration. A detailed semblance velocity analysis was performed on the 12-fold data set for every second in-line and every 50th CMP, i.e. on a total of 600 spectra. According to this velocity analysis, interval velocities range from 1450-1650 m/s for the unconsolidated sediments and from 1650-3000 m/s for the consolidated sediments. Delineation of several horizons and fault surfaces reveal the potential for small-scale geologic and tectonic interpretation in three dimensions. Five major seismic facies and their detailed 3-D geometries can be distinguished in vertical and horizontal sections: lacustrine sediments (Holocene) , glaciolacustrine sediments (Pleistocene), Plateau Molasse, Subalpine Molasse and its thrust fault zone. Dips of beds within Plateau and Subalpine Molasse are ~8° and ~20°, respectively. Within the fault zone, many highly deformed structures with dips around 30° are visible. Preliminary tests with 3-D preserved-amplitude prestack depth migration demonstrate that the excellent data quality of Survey II allows application of such sophisticated techniques even to high-resolution seismic surveys. In general, the adaptation of the 3-D marine seismic reflection method, which to date has almost exclusively been used by the oil exploration industry, to a smaller geographical as well as financial scale has helped pave the way for applying this technique to environmental and engineering purposes.<br/><br/>La sismique réflexion est une méthode d?investigation du sous-sol avec un très grand pouvoir de résolution. Elle consiste à envoyer des vibrations dans le sol et à recueillir les ondes qui se réfléchissent sur les discontinuités géologiques à différentes profondeurs et remontent ensuite à la surface où elles sont enregistrées. Les signaux ainsi recueillis donnent non seulement des informations sur la nature des couches en présence et leur géométrie, mais ils permettent aussi de faire une interprétation géologique du sous-sol. Par exemple, dans le cas de roches sédimentaires, les profils de sismique réflexion permettent de déterminer leur mode de dépôt, leurs éventuelles déformations ou cassures et donc leur histoire tectonique. La sismique réflexion est la méthode principale de l?exploration pétrolière. Pendant longtemps on a réalisé des profils de sismique réflexion le long de profils qui fournissent une image du sous-sol en deux dimensions. Les images ainsi obtenues ne sont que partiellement exactes, puisqu?elles ne tiennent pas compte de l?aspect tridimensionnel des structures géologiques. Depuis quelques dizaines d?années, la sismique en trois dimensions (3-D) a apporté un souffle nouveau à l?étude du sous-sol. Si elle est aujourd?hui parfaitement maîtrisée pour l?imagerie des grandes structures géologiques tant dans le domaine terrestre que le domaine océanique, son adaptation à l?échelle lacustre ou fluviale n?a encore fait l?objet que de rares études. Ce travail de thèse a consisté à développer un système d?acquisition sismique similaire à celui utilisé pour la prospection pétrolière en mer, mais adapté aux lacs. Il est donc de dimension moindre, de mise en oeuvre plus légère et surtout d?une résolution des images finales beaucoup plus élevée. Alors que l?industrie pétrolière se limite souvent à une résolution de l?ordre de la dizaine de mètres, l?instrument qui a été mis au point dans le cadre de ce travail permet de voir des détails de l?ordre du mètre. Le nouveau système repose sur la possibilité d?enregistrer simultanément les réflexions sismiques sur trois câbles sismiques (ou flûtes) de 24 traces chacun. Pour obtenir des données 3-D, il est essentiel de positionner les instruments sur l?eau (source et récepteurs des ondes sismiques) avec une grande précision. Un logiciel a été spécialement développé pour le contrôle de la navigation et le déclenchement des tirs de la source sismique en utilisant des récepteurs GPS différentiel (dGPS) sur le bateau et à l?extrémité de chaque flûte. Ceci permet de positionner les instruments avec une précision de l?ordre de 20 cm. Pour tester notre système, nous avons choisi une zone sur le Lac Léman, près de la ville de Lausanne, où passe la faille de « La Paudèze » qui sépare les unités de la Molasse du Plateau et de la Molasse Subalpine. Deux campagnes de mesures de sismique 3-D y ont été réalisées sur une zone d?environ 1 km2. Les enregistrements sismiques ont ensuite été traités pour les transformer en images interprétables. Nous avons appliqué une séquence de traitement 3-D spécialement adaptée à nos données, notamment en ce qui concerne le positionnement. Après traitement, les données font apparaître différents faciès sismiques principaux correspondant notamment aux sédiments lacustres (Holocène), aux sédiments glacio-lacustres (Pléistocène), à la Molasse du Plateau, à la Molasse Subalpine de la zone de faille et la Molasse Subalpine au sud de cette zone. La géométrie 3-D détaillée des failles est visible sur les sections sismiques verticales et horizontales. L?excellente qualité des données et l?interprétation de plusieurs horizons et surfaces de faille montrent le potentiel de cette technique pour les investigations à petite échelle en trois dimensions ce qui ouvre des voies à son application dans les domaines de l?environnement et du génie civil.
Resumo:
Abstract Imatinib (Glivec~ has transformed the treatment and prognosis of chronic myeloid leukaemia (CML) and of gastrointestinal stromal tumor (GIST). However, the treatment must be taken indefinitely and is not devoid of inconvenience and toxicity. Moreover, resistance or escape from disease control occurs. Considering the large interindividual differences in the function of the enzymatic and transport systems involved in imatinib disposition, exposure to this drug can be expected to vary widely among patients. Among those known systems is a cytochrome P450 (CYI'3A4) that metabolizes imatinib, the multidrug transporter P-glycoprotein (P-gp; product of the MDR1 gene) that expels imatinib out of cells, and al-acid glycoprotein (AGP), a circulating protein binding imatinib in the plasma. The aim of this observational study was to explore the influence of these covariates on imatinib pharmacokinetics (PK), to assess the interindividual variability of the PK parameters of the drug, and to evaluate whether imatinib use would benefit from a therapeutic drug monitoring (TDM) program. A total of 321 plasma concentrations were measured in 59 patients receiving imatinib, using a validated chromatographic method developed for this study (HPLC-LTV). The results were analyzed by non-linear mixed effect modeling (NONMEM). A one-compartment pharmacokinetic model with first-order absorption appropriately described the data, and a large interindividual variability was observed. The MDK> polymorphism 3435C>T and the CYP3A4 activity appeared to modulate the disposition of imatinib, albeit not significantly. A hyperbolic relationship between plasma AGP levels and oral clearance, as well as volume of distribution, was observed. A mechanistic approach was built up, postulating that only the unbound imatinib concentration was able to undergo first-order elimination. This approach allowed determining an average free clearance (CL,~ of 13101/h and a volume of distribution (Vd) of 301 1. By comparison, the total clearance determined was 141/h (i.e. 233 ml/min). Free clearance was affected by body weight and pathology diagnosis. The estimated variability of imatinib disposition (17% for CLu and 66% for Vd) decreased globally about one half with the model incorporating the AGP impact. Moreover, some associations were observed between PK parameters of the free imatinib concentration and its efficacy and toxicity. Finally, the functional influence of P-gp activity has been demonstrated in vitro in cell cultures. These elements are arguments to further investigate the possible usefulness of a TDM program for imatinib. It may help in individualizing the dosing regimen before overt disease progression or development of treatment toxicity, thus improving both the long-term therapeutic effectiveness and tolerability of this drug. Résumé L'imatinib (Glivec ®) a révolutionné le traitement et le pronostic de la leucémie myéloïde chronique (LMC) et des tumeurs stromales d'origine digestive (GIST). Il s'agit toutefois d'un traitement non dénué d'inconvénients et de toxicité, et qui doit être pris indéfiniment. Par ailleurs, une résistance, ou des échappements au traitement, sont également rencontrés. Le devenir de ce médicament dans l'organisme dépend de systèmes enzymatiques et de transport connus pour présenter de grandes différences interindividuelles, et l'on peut s'attendre à ce que l'exposition à ce médicament varie largement d'un patient à l'autre. Parmi ces systèmes, on note un cytochrome P450 (le CYP3A4) métabolisant l'imatinib, la P-glycoprotéine (P-gp ;codée par le gène MDR1), un transporteur d'efflux expulsant le médicament hors des cellules, et l'atglycoprotéine acide (AAG), une protéine circulante sur laquelle se fixe l'imatinib dans le plasma. L'objectif de la présente étude clinique a été de déterminer l'influence de ces covariats sur la pharmacocinétique (PK) de l'imatinib, d'établir la variabilité interindividuelle des paramètres PK du médicament, et d'évaluer dans quelle mesure l'imatinib pouvait bénéficier d'un programme de suivi thérapeutique (TDM). En utilisant une méthode chromatographique développée et validée à cet effet (HPLC-UV), un total de 321 concentrations plasmatiques a été dosé chez 59 patients recevant de l'imatinib. Les résultats ont été analysés par modélisation non linéaire à effets mixtes (NONMEM). Un modèle pharmacocinétique à un compartiment avec absorption de premier ordre a permis de décrire les données, et une grande variabilité interindividuelle a été observée. Le polymorphisme du gène MDK1 3435C>T et l'activité du CYP3A4 ont montré une influence, toutefois non significative, sur le devenir de l'imatinib. Une relation hyperbolique entre les taux plasmatiques d'AAG et la clairance, comme le volume de distribution, a été observée. Une approche mécanistique a donc été élaborée, postulant que seule la concentration libre subissait une élimination du premier ordre. Cette approche a permis de déterminer une clairance libre moyenne (CLlibre) de 13101/h et un volume de distribution (Vd) de 301 l. Par comparaison, la clairance totale était de 141/h (c.à.d. 233 ml/min). La CLlibre est affectée par le poids corporel et le type de pathologie. La variabilité interindividuelle estimée pour le devenir de l'imatinib (17% sur CLlibre et 66% sur Vd) diminuait globalement de moitié avec le modèle incorporant l'impact de l'AAG. De plus, une certaine association entre les paramètres PK de la concentration d'imatinib libre et l'efficacité et la toxicité a été observée. Finalement, l'influence fonctionnelle de l'activité de la P-gp a été démontrée in nitro dans des cultures cellulaires. Ces divers éléments constituent des arguments pour étudier davantage l'utilité potentielle d'un programme de TDM appliqué à l'imatinib. Un tel suivi pourrait aider à l'individualisation des régimes posologiques avant la progression manifeste de la maladie ou l'apparition de toxicité, améliorant tant l'efficacité que la tolérabilité de ce médicament. Résumé large public L'imatinib (un médicament commercialisé sous le nom de Glivec ®) a révolutionné le traitement et le pronostic de deux types de cancers, l'un d'origine sanguine (leucémie) et l'autre d'origine digestive. Il s'agit toutefois d'un traitement non dénué d'inconvénients et de toxicité, et qui doit être pris indéfiniment. De plus, des résistances ou des échappements au traitement sont également rencontrés. Le devenir de ce médicament dans le corps humain (dont l'étude relève de la discipline appelée pharmacocinétique) dépend de systèmes connus pour présenter de grandes différences entre les individus, et l'on peut s'attendre à ce que l'exposition à ce médicament varie largement d'un patient à l'autre. Parmi ces systèmes, l'un est responsable de la dégradation du médicament dans le foie (métabolisme), l'autre de l'expulsion du médicament hors des cellules cibles, alors que le dernier consiste en une protéine (dénommée AAG) qui transporte l'imatinib dans le sang. L'objectif de notre étude a été de déterminer l'influence de ces différents systèmes sur le comportement pharmacocinétique de l'imatinib chez les patients, et d'étudier dans quelle mesure le devenir de ce médicament dans l'organisme variait d'un patient à l'autre. Enfin, cette étude avait pour but d'évaluer à quel point la surveillance des concentrations d'imatinib présentes dans le sang pourrait améliorer le traitement des patients cancéreux. Une telle surveillance permet en fait de connaître l'exposition effective de l'organisme au médicament (concept abrégé par le terme anglais TDM, pour Therapeutic Drag Monitoring. Ce projet de recherche a d'abord nécessité la mise au point d'une méthode d'analyse pour la mesure des quantités (ou concentrations) d'imatinib présentes dans le sang. Cela nous a permis d'effectuer régulièrement des mesures chez 59 patients. Il nous a ainsi été possible de décrire le devenir du médicament dans le corps à l'aide de modèles mathématiques. Nous avons notamment pu déterminer chez ces patients la vitesse à laquelle l'imatinib est éliminé du sang et l'étendue de sa distribution dans l'organisme. Nous avons également observé chez les patients que les concentrations sanguines d'imatinib étaient très variables d'un individu à l'autre pour une même dose de médicament ingérée. Nous avons pu aussi mettre en évidence que les concentrations de la protéine AAG, sur laquelle l'imatinib se lie dans le sang, avait une grande influence sur la vitesse à laquelle le médicament est éliminé de l'organisme. Ensuite, en tenant compte des concentrations sanguines d'imatinib et de cette protéine, nous avons également pu calculer les quantités de médicament non liées à cette protéine (= libres), qui sont seules susceptibles d'avoir une activité anticancéreuse. Enfin, il a été possible d'établir qu'il existait une certaine relation entre ces concentrations, l'effet thérapeutique et la toxicité du traitement. Tous ces éléments constituent des arguments pour approfondir encore l'étude de l'utilité d'un programme de TDM appliqué à l'imatinib. Comme chaque patient est différent, un tel suivi pourrait aider à l'ajustement des doses du médicament avant la progression manifeste de la maladie ou l'apparition de toxicité, améliorant ainsi tant son efficacité que son innocuité.
Resumo:
Woven monofilament, multifilament, and spun yarn filter media have long been the standard media in liquid filtration equipment. While the energy for a solid-liquid separation process is determined by the engineering work, it is the interface between the slurry and the equipment - the filter media - that greatly affects the performance characteristics of the unit operation. Those skilled in the art are well aware that a poorly designed filter medium may endanger the whole operation, whereas well-performing filter media can make the operation smooth and economical. As the mineral and pulp producers seek to produce ever finer and more refined fractions of their products, it is becoming increasingly important to be able to dewater slurries with average particle sizes around 1 ¿m using conventional, high-capacity filtration equipment. Furthermore, the surface properties of the media must not allow sticky and adhesive particles to adhere to the media. The aim of this thesis was to test how the dirt-repellency, electrical resistance and highpressure filtration performance of selected woven filter media can be improved by modifying the fabric or yarn with coating, chemical treatment and calendering. The results achieved by chemical surface treatments clearly show that the woven media surface properties can be modified to achieve lower electrical resistance and improved dirt-repellency. The main challenge with the chemical treatments is the abrasion resistance and, while the experimental results indicate that the treatment is sufficiently permanent to resist standard weathering conditions, they may still prove to be inadequately strong in terms of actual use.From the pressure filtration studies in this work, it seems obvious that the conventional woven multifilament fabrics still perform surprisingly well against the coated media in terms of filtrate clarity and cake build-up. Especially in cases where the feed slurry concentration was low and the pressures moderate, the conventional media seemed to outperform the coated media. In the cases where thefeed slurry concentration was high, the tightly woven media performed well against the monofilament reference fabrics, but seemed to do worse than some of the coated media. This result is somewhat surprising in that the high initial specific resistance of the coated media would suggest that the media will blind more easily than the plain woven media. The results indicate, however, that it is actually the woven media that gradually clogs during the coarse of filtration. In conclusion, it seems obvious that there is a pressure limit above which the woven media looses its capacity to keep the solid particles from penetrating the structure. This finding suggests that for extreme pressures the only foreseeable solution is the coated fabrics supported by a strong enough woven fabric to hold thestructure together. Having said that, the high pressure filtration process seems to follow somewhat different laws than the more conventional processes. Based on the results, it may well be that the role of the cloth is most of all to support the cake, and the main performance-determining factor is a long life time. Measuring the pore size distribution with a commercially available porometer gives a fairly accurate picture of the pore size distribution of a fabric, but failsto give insight into which of the pore sizes is the most important in determining the flow through the fabric. Historically air, and sometimes water, permeability measures have been the standard in evaluating media filtration performance including particle retention. Permeability, however, is a function of a multitudeof variables and does not directly allow the estimation of the effective pore size. In this study a new method for estimating the effective pore size and open pore area in a densely woven multifilament fabric was developed. The method combines a simplified equation of the electrical resistance of fabric with the Hagen-Poiseuille flow equation to estimate the effective pore size of a fabric and the total open area of pores. The results are validated by comparison to the measured values of the largest pore size (Bubble point) and the average pore size. The results show good correlation with measured values. However, the measured and estimated values tend to diverge in high weft density fabrics. This phenomenon is thought to be a result of a more tortuous flow path of denser fabrics, and could most probably be cured by using another value for the tortuosity factor.
Resumo:
In the era of fast product development and customized product requirements, the concept of product platform has proven its power in practice. The product platform approach has enabledcompanies to increase the speed of product introductions while simultaneously benefit from efficiency and effectiveness in the development and production activities. The product platforms are technological bases, which can be used to develop several derivative products, and hence, the differentiation can be pushed closer to the product introduction. The product platform development has some specific features, which differ somewhat from the product development of single products. The time horizon is longer, since the product platform¿slife cycle is longer than individual product's. The long time-horizon also proposes higher market risks and the use of new technologies increases the technological risks involved. The end-customer interface might be far away, but there is not a lack of needs aimed at the product platforms ¿ in fact, the product platform development is very much balancing between the varying needs set to it by thederivative products. This dissertation concentrated on product platform development from the internal product lines' perspective of a singlecase. Altogether six product platform development factors were identified: 'Strategic and business fit of product platform', 'Project communication and deliverables', 'Cooperation with product platform development', 'Innovativeness of product platform architecture and features', 'Reliability and quality of product platform', and 'Promised schedules and final product platform meeting the needs'. From the six factors, three were found to influence quite strongly the overall satisfaction, namely 'Strategic and business fit of product platform', 'Reliability and quality of product platform', and 'Promised schedules and final product platform meeting the needs'. Hence, these three factors might be the ones a new product platform development unit should concentrate first in order to satisfy their closest customers, the product lines. The 'Project communication and deliverables' and 'Innovativeness of product platform architecture and features' were weaker contributors to the overall satisfaction. Overall, the factors explained quite well the satisfaction of the product lines with product platform development. Along the research, several interesting aspects about the very basic nature of the product platform development were found. The long time horizon of the product platform development caused challenges in the area of strategic fIT - a conflict between the short-term requirements and long term needs. The fact that a product platform was used as basis of several derivative products resulted into varying needs, and hence the match with the needs and the strategies. The opinions, that the releases of the larger product lines were given higher priorities, give an interesting contribution to the strategy theory of powerand politics. The varying needs of the product lines, the strengths of them as well as large number of concurrent releases set requirements to prioritization. Hence, the research showed the complicated nature of the product platform development in the case unIT - the very basic nature of the product platform development might be its strength (gaining efficiency and effectiveness in product development and product launches) but also the biggest challenge (developing products to meet several needs). As a single case study, the results of this research are not directly generalizable to all the product platform development activities. Instead, the research serves best as a starting point for additional research as well as gives some insights about the factors and challengesof one product development unit.
Resumo:
Background: In Catalonia (Spain) breast cancer mortality has declined since the beginning of the 1990s. The dissemination of early detection by mammography and the introduction of adjuvant treatments are among the possible causes of this decrease, and both were almost coincident in time. Thus, understanding how these procedures were incorporated into use in the general population and in women diagnosed with breast cancer is very important for assessing their contribution to the reduction in breast cancer mortality. In this work we have modeled the dissemination of periodic mammography and described repeat mammography behavior in Catalonia from 1975 to 2006. Methods: Cross-sectional data from three Catalan Health Surveys for the calendar years 1994, 2002 and 2006 was used. The dissemination of mammography by birth cohort was modeled using a mixed effects model and repeat mammography behavior was described by age and survey year. Results: For women born from 1938 to 1952, mammography clearly had a period effect, meaning that they started to have periodic mammograms at the same calendar years but at different ages. The age at which approximately 50% of the women were receiving periodic mammograms went from 57.8 years of age for women born in 1938–1942 to 37.3 years of age for women born in 1963–1967. Women in all age groups experienced an increase in periodic mammography use over time, although women in the 50–69 age group have experienced the highest increase. Currently, the target population of the Catalan Breast Cancer Screening Program, 50–69 years of age, is the group that self-reports the highest utilization of periodic mammograms, followed by the 40–49 age group. A higher proportion of women of all age groups have annual mammograms rather than biennial or irregular ones. Conclusion: Mammography in Catalonia became more widely implemented during the 1990s. We estimated when cohorts initiated periodic mammograms and how frequently women are receiving them. These two pieces of information will be entered into a cost-effectiveness model of early detection in Catalonia.
Resumo:
Cultivation of black truffle, Tuber melanosporum Vitt., has become an important agricultural alternative in rural Mediterranean regions due to its success in relatively harsh conditions, its high market value and diminishing production in natural areas. In addition, truffle cultivation requires relatively low agricultural inputs, promotes reforestation and economic restoration of rural lands and land-use stability. However, there remain major issues regarding the management practices to ensure successful black truffle production. We therefore conducted an experiment to evaluate 3 levels of irrigation based on monthly water deficit and the effects of currently applied weed control systems and fertilization. Treatment effects were evaluated by examining the mycorrhizal status of out-planted 1-yr-old Quercus ilex L. seedlings and seedling growth parameters after 18 months in 3 distinct experimental truffle plantations located in the foothills of the Spanish Pyrenees. We found that replacing one-half of the water deficit of the driest month (moderate irrigation) promoted the proliferation of T. melanosporum mycorrhizae, while high irrigation reduced fine root production and truffle mycorrhizae. Glyphosate weed control improved seedling survival by up to 16% over control seedlings without jeopardizing truffle mycorrhizae in the first year. Fertilization did not improve seedling growth or influence its mycorrhizal status. We describe the persistent relationship between this ectomycorrhizal fungus and Q. ilex by quantifying old and new mycorrhizae and we discuss the ecological implications of the symbiosis.
Resumo:
This paper describes the main features and present results of MPRO-Spanish, a parser for morphological and syntactic analysis of unrestricted Spanish text developed at the IAI1. This parser makes direct use of X-phrase structure rules to handle a variety of patterns from derivational morphology and syntactic structure. Both analyses, morphological and syntactic, are realised by two subsequent modules. One module analyses and disambiguates the source words at morphological level while the other consists of a series of programs and a deterministic, procedural and explicit grammar. The article explains the main features of MPRO and resumes some of the experiments on some of its applications, some of which still being implemented like the monolingual and bilingual term extraction while others need further work like indexing. The results and applications obtained so far with simple and relatively complex sentences give us grounds to believe in its reliability.
Resumo:
OBJECTIVES: Non-steroidal anti-inflammatory drugs (NSAIDs) may cause kidney damage. This study assessed the impact of prolonged NSAID exposure on renal function in a large rheumatoid arthritis (RA) patient cohort. METHODS: Renal function was prospectively followed between 1996 and 2007 in 4101 RA patients with multilevel mixed models for longitudinal data over a mean period of 3.2 years. Among the 2739 'NSAID users' were 1290 patients treated with cyclooxygenase type 2 selective NSAIDs, while 1362 subjects were 'NSAID naive'. Primary outcome was the estimated glomerular filtration rate according to the Cockroft-Gault formula (eGFRCG), and secondary the Modification of Diet in Renal Disease and Chronic Kidney Disease Epidemiology Collaboration formula equations and serum creatinine concentrations. In sensitivity analyses, NSAID dosing effects were compared for patients with NSAID registration in ≤/>50%, ≤/>80% or ≤/>90% of assessments. FINDINGS: In patients with baseline eGFRCG >30 mL/min, eGFRCG evolved without significant differences over time between 'NSAID users' (mean change in eGFRCG -0.87 mL/min/year, 95% CI -1.15 to -0.59) and 'NSAID naive' (-0.67 mL/min/year, 95% CI -1.26 to -0.09, p=0.63). In a multivariate Cox regression analysis adjusted for significant confounders age, sex, body mass index, arterial hypertension, heart disease and for other insignificant factors, NSAIDs were an independent predictor for accelerated renal function decline only in patients with advanced baseline renal impairment (eGFRCG <30 mL/min). Analyses with secondary outcomes and sensitivity analyses confirmed these results. CONCLUSIONS: NSAIDs had no negative impact on renal function estimates but in patients with advanced renal impairment.
Resumo:
A growing body of evidence has shown the efficacy of brief intervention (BI) for hazardous and harmful alcohol use in primary health care settings. Evidence for efficacy in other settings and effectiveness when implemented at larger scale are disappointing. Indeed, BI comprises varying content; exploring BI content and mechanisms of action may be a promising way to enhance efficacy and effectiveness. Medline and PsychInfo, as well as references of retrieved publications were searched for original research or review on active ingredients (components or mechanisms) of face-to-face BIs [and its subtypes, including brief advice and brief motivational interviewing (BMI)] for alcohol. Overall, BI active ingredients have been scarcely investigated, almost only within BMI, and mostly among patients in the emergency room, young adults, and US college students. This body of research has shown that personalized feedback may be an effective component; specific MI techniques showed mixed findings; decisional balance findings tended to suggest a potential detrimental effect; while change plan exercises, advice to reduce or stop drinking, presenting alternative change options, and moderation strategies are promising but need further study. Client change talk is a potential mediator of BMI effects; change in norm perceptions and enhanced discrepancy between current behavior and broader life goals and values have received preliminary support; readiness to change was only partially supported as a mediator; while enhanced awareness of drinking, perceived risks/benefits of alcohol use, alcohol treatment seeking, and self-efficacy were seldom studied and have as yet found no significant support as such. Research is obviously limited and has provided no clear and consistent evidence on the mechanisms of alcohol BI. How BI achieves the effects seen in randomized trials remains mostly unknown and should be investigated to inform the development of more effective interventions.
Resumo:
The goal of the present study is to examine cross-sectional information on the growth of the humerus based on the analysis of four measurements, namely, diaphyseal length, transversal diameter of the proximal (metaphyseal) end of the shaft, epicondylar breadth and vertical diameter of the head. This analysis was performed in 181 individuals (90 ♂ and 91 ♀) ranging from birth to 25 years of age and belonging to three documented Western European skeletal collections (Coimbra, Lisbon and St. Bride). After testing the homogeneity of the sample, the existence of sexual differences (Student"s t- and Mann-Whitney U-test) and the growth of the variables (polynomial regression) were evaluated. The results showed the presence of sexual differences in epicondylar breadth above 20 years of age and vertical diameter of the head from 15 years of age, thus indicating that these two variables may be of use in determining sex from that age onward. The growth pattern of the variables showed a continuous increase and followed first- and second-degree polynomials. However, growth of the transversal diameter of the proximal end of the shaft followed a fourth-degree polynomial. Strong correlation coefficients were identified between humeral size and age for each of the four metric variables. These results indicate that any of the humeral measurements studied herein is likely to serve as a useful means of estimating sub-adult age in forensic samples.