911 resultados para Tag
Resumo:
Grazie al progresso dell'elettronica, ai giorni nostri, è possibile costruire dispositivi elettronici molto piccoli, che col passare del tempo lo sono sempre più. Questo ci permette di poter imboccare nuove strade nel mondo dell'informatica, sfruttando proprio questo fatto. Le dimensioni ridotte dei dispositivi in commercio, come sensori, attuatori, tag e tanto altro, sono particolarmente adatte a nuovi scenari applicativi. Internet of Things è una visione in cui Internet viene esteso alle cose. Facendo largo uso di dispositivi come sensori e tag è possibile realizzare sistemi intelligenti che possono avere riscontri positivi nella vita di tutti i giorni. Tracciare la posizione degli oggetti, monitorare pazienti da remoto, rilevare dati sull'ambiente per realizzare sistemi automatici (ad esempio regolare automaticamente la luce o la temperatura di una stanza) sono solo alcuni esempi. Internet of Things è la naturale evoluzione di Internet, ed è destinato a cambiare radicalmente la nostra vita futura, poichè la tecnologia sarà sempre più parte integrante della nostra vita, aumentando sempre più il nostro benessere e riducendo sempre più il numero delle azioni quotidiane da compiere. Sempre più sono middleware, le piattaforme e i sistemi operativi che nascono per cercare di eliminare o ridurre le problematiche relative allo sviluppo di sistemi di questo genere, e lo scopo di questa tesi è proprio sottolinearne l'importanza e di analizzare gli aspetti che questi middleware devono affrontare. La tesi è strutturata in questo modo: nel capitolo uno verrà fatta una introduzione a Internet of Things, analizzando alcuni degli innumerevoli scenari applicativi che ne derivano, insieme però alle inevitabili problematiche di tipo tecnologico e sociale. Nel secondo capitolo verranno illustrate le tecnologie abilitanti di Internet of Things, grazie alle quali è possibile realizzare sistemi intelligenti. Nel terzo capitolo verranno analizzati gli aspetti relativi ai middleware, sottolineandone l'importanza e prestando attenzione alle funzioni che devono svolgere, il tutto riportando anche degli esempi di middleware esistenti. Nel quarto capitolo verrà approfondito il middleware Java Embedded di Oracle.
Resumo:
Die qualitative und quantitative Analyse von Biomolekülen hat in den letzten Jahren und Jahrzehnten immer mehr an Bedeutung gewonnen. Durch das Aufkommen und die kontinuierliche Weiterentwicklung neuer Separations- und Detektionsmethoden und deren Verbindung miteinander zu leistungsfähigen Einheiten, erlangte man Schritt für Schritt neue Erkenntnisse bei ihrer Untersuchung. Die Elementmassenspektrometrie als nachweisstarke Detektionsmethode wird von vielen wissenschaftlichen Arbeitsgruppen bei der Trennung und Quantifizierung von Proteinen und Metalloproteinen mittels Detektion der in den Biomolekülen vorkommenden Metalle und Heteroatome angewendet. Heteroatome (z.B. Schwefel, Phosphor) haben im Plasma des ICP-MS (inductively coupled plasma - mass spectrometer) schlechte Ionisationseigenschaften und dementsprechend deutlich höhere Nachweisgrenzen als Metalle. Ein Ansatz, schlecht oder nicht detektierbare Verbindungen (also solche, die keine Metalle oder Heteroatome enthalten) mit dem ICP-MS sichtbar zu machen, ist die Markierung der selbigen mit Metallionen oder -cluster. rnIn dieser Arbeit ist es gelungen, der Analyse ganz unterschiedlicher Substanzklassen, zum einen metallische Nanopartikel und zum anderen Proteine, neue Impulse zu geben und zukünftiges Potential bei der Anwendung gekoppelter Techniken zur Separation und Detektion aufzuzeigen. Durch die Verwendung einer alten, aber neu konzipierten Trenntechnik, der Gelelektrophorese (GE), und deren Kopplung an einen modernen Detektor, dem ICP-MS, kann die für die Proteinanalytik weit verbreitete Gelelektrophorese ihr enormes Potential bei der Trennung verschiedenster Verbindungsklassen mit der exzellenten Nachweisstärke und Elementspezifität des ICP-MS verbinden und dadurch mit deutlich weniger Arbeitsaufwand als bisher qualitative und auch quantitative Ergebnisse produzieren. Bisher war dies nur mit großem präparativem Aufwand unter Verwendung der laser ablation möglich. Bei der Analyse von Nanopartikeln konnte aufgezeigt werden, dass durch die GE-ICP-MS-Kopplung aufgrund der guten Trenneigenschaften der GE vorhandene Spezies bzw. Fraktionen voneinander separiert werden und mit Hilfe des ICP-MS Informationen auf atomarem Niveau gewonnen werden können. Es war möglich, das atomare Verhältnis der Metallatome im Kern und der Schwefelatome in der Ligandenhülle eines Nanopartikels zu bestimmen und damit die Größe des Partikels abzuschätzen. Auch konnte die Anzahl der Goldatome in einem dem Schmid-Cluster ähnlichen Nanopartikel bestimmt werden, was vorher nur mit Hilfe von MALDI-TOF möglich war. Bei der Analyse von Biomolekülen konnte auf einfache Weise der Phosphorylierungsgrad verschiedener Proteine bestimmt werden. Auch bei kleinen Molekülen erzielt die Gelelektrophorese ausgezeichnete Trennergebnisse, wie z. B. bei der Analyse verschiedener Brom- und Iodspezies.rnDie stöchiometrische Kopplung eines Proteins an einen Nanopartikel, ohne eine der beiden Verbindungen in einem größeren Maße zu verändern, stellte jedoch eine Herausforderung dar, die im Rahmen dieser Arbeit nicht vollständig gelöst werden konnte. Verschiedene Ansätze zur Kopplung der beiden Substanzen wurden erprobt, jedoch führte keine zu dem gewünschten Ergebnis einer stöchiometrisch vollständigen und spezifischen Modifikation eines Proteins mit einem Nanopartikel. Durch das Potential der GE-ICP-MS-Kopplung bei der Analyse beider Substanz-klassen und dem Beweis der Praktikabilität und Zuverlässigkeit der Methode ist jedoch der Grundstein für weitere Forschungen auf diesem Gebiet gelegt worden. Ist eine geeignete chemische Kopplung der beiden Substanzklassen gefunden und beherrscht, steht auf analytischer Seite eine leistungsstarke Kombination aus Trennung und Detektion zur Verfügung, um die Quantifizierung von Proteinen entscheidend zu verbessern.rn
Resumo:
Salpetrige Säure (HONO) ist eine wichtige Form von reaktivem Stickstoff, die aufgrund ihrer Photolyse zu Stickstoffmonoxid (NO) und dem Hydroxylradikal (OH), sehr kurzlebig ist. Ein genaues Verständnis der Quellen und Senken von HONO ist eine grundlegende Voraussetzung, um dessen Einfluss auf die Umwelt zu beurteilen. Allerdings wird immer noch nach einer starken HONO-Quelle am Tag gesucht und nächtliche HONO-Deposition auf den Boden wurde bisher stets nur postuliert. Diese Dissertation folgt der Zielsetzung die Prozesse der HONO-Aufnahme und Freisetzung von Böden aufzudecken und die zugrunde liegenden Mechanismen zu verstehen.rnUm die Rolle von HONO-Bodenemissionen zu quantifizieren, wurden 17 Böden in einem dynamischen Kammersystem untersucht. Es konnten HONO-Emissionen derselben Größenordnung wie die bereits gut untersuchten NO-Emissionen festgestellt werden. Unerwarteter Weise wurden die stärksten Emissionen bei Böden mit neutralem pH aus ariden und landwirt¬schaftlichen Gebieten beobachtet. Die Temperaturabhängigkeit der Bodenemissionen von HONO und NO führten zu der Annahme einer mikrobiellen Freisetzung von HONO, welche durch Reinkulturexperimente mit dem ammoniumoxidierenden Bakterium Nitrosomonas europaea bestätigt werden konnte. Ein konzeptionelles Model für die Freisetzung reaktiver Stickstoffverbindungen aus Böden in Abhängigkeit des Bodenwassergehaltes wurde um HONO-Emissionen erweitert.rnDurch Nachweise mittels Reinkultur- und Inhibitionsexperimenten konnten weitere Untersuchungen der bakteriellen Freisetzung von HONO aus Böden zeigen, dass innerhalb der bakteriellen Nitrifikation nur ammoniumoxidierende Bakterien zur Emission von HONO fähig sind. Durch kontrolliert initiierte Zelllyse konnte gezeigt werden, dass intrazellulär akkumuliertes Hydroxylamin (NH2OH) für die HONO-Freisetzung verantwortlich sind. Zum ersten Mal wurde NH2OH in der Gasphase nachgewiesen und dass dieses über den gesamten Bodenfeuchtebereich von ammoniumoxidierenden Bakterien freigesetzt wird. Es wurde gezeigt, dass die heterogene Reaktion von NH2OH mit Wasserdampf auf einer Glasperlenoberfläche HONO bildet. Diese Reaktion erklärt die beobachtete Freisetzung von HONO bei niedrigen Bodenfeuchten, da nur dann die Oberfläche zur Reaktion zur Verfügung steht und nicht von Wasser bedeckt ist.rnEine 15N Isotopenmarkierungsmethode wurde entwickelt um isotopenmarkiertes gasförmiges HONO zu messen, was die Untersuchung der Bildungsprozesse von HONO und dessen Rolle in biogeochemischen Zyklen ermöglicht. Die Anwendung dieser neuen Methode auf eine Bodenprobe die mit 15N Harnstoff angereichert und in einem dynamischen Kammersystem untersucht wurde, bestätigt die obigen Ergebnisse einer starken mikrobiellen Beteiligung von Bodenbakterien zur HONO Freisetzung.rnBidirektionale Flüsse von HONO wurden für sechs untersuchte Bodenproben gefunden. Die Richtung der Flüsse hängt dabei vom Umgebungsmischungsverhältnis von HONO und dem Bodenwassergehalt ab. Eine wichtige Größe, die die bidirektionalen Flüsse von HONO beschreibt, ist das „Ökosystem spezifische Kompensationsmischungsverhältnis von HONO“, χcomp. Dieser neue Begriff wurde definiert und eingeführt, da die verschiedenen in den Bodenaustausch von HONO involvierten Prozesse nicht mit dem klassischen Kompensationspunktkonzept kompatibel sind. Die Untersuchungen bestätigen neueste Feldbeobachtungen, dass HONO, welches bei hohen Umgebungsmischungsverhältnissen vom Boden adsorbiert wird, bei niedrigen Mischungsverhält-nissen wieder vom Boden desorbiert wird. Folglich wird nächtlich akkumuliertes HONO tagsüber in eine Quelle für HONO umgewandelt. Vier Prozesse - Verteilung von HONO zwischen Gas- und Flüssigphase nach Henrys Gesetz, bakterielle HONO Bildung aus NH2OH, Adsorption und Desorption von HONO - und deren Dominanz in speziellen Bodenfeuchtebereichen wurden identifiziert. Dadurch wurde ein konzeptionelles Model für die Prozesse, die in Aufnahme und Freisetzung von HONO aus Böden involviert sind, als Funktion der Bodenfeuchte entwickelt.rnZusammenfassend hat diese Dissertation die entscheidenden Prozesse im Austausch von HONO zwischen Boden und Atmosphäre aufgeklärt und den der bakteriellen HONO Bildung zugrunde liegenden Mechanismus aufgedeckt. Es konnte gezeigt werden, dass Böden sowohl eine wichtige Quelle als auch eine Senke für HONO sind und sollten folglich in zukünftigen Feldmessungen stärker berücksichtigt werden.rn
Resumo:
The marine world is an immense source of biodiversity that provides substances with striking potentials in medicinal chemistry and biotechnology. Sponges (Porifera) are marine animals that represent the most impressive example of organisms possessing the ability to metabolise silica through a family of enzymes known as silicateins. Complex skeletal structures (spicules) made of pure biogenic silica (biosilica) are produced under physiological conditions. Biosilica is a natural material comprising inorganic and organic components with unique mechanical, optical, and physico-chemical properties, including promising potential to be used for development of therapeutic agents in regenerative medicine. Unravelling the intimate physiological mechanisms occurring in sponges during the construction of their siliceous spicules is an on-going project, and several questions have been addressed by the studies proposed by our working group. In this doctoral work, the recombinant DNA technology is exploited for functional and structural characterisation of silicatein. Its precursors are produced as fusion proteins with a chaperone tag (named TF-Ps), and a robust method for the overexpression of native soluble proteins in high concentrations has been developed. In addition, it is observed and proven experimentally that the maturation of silicatein is an autocatalytic event that: (i) can be modulated by rational use of protease inhibitors; (ii) is influenced by the temperature of the environment; (iii) only slightly depends on the pH. In the same experimental framework, observations on the dynamics in the maturation of silicateins allow a better understanding of how the axial filaments form during the early stages of spicule construction. In addition, the definition of new distinct properties of silicatein (termed “structure-guiding” and “structure-forming”) is introduced. By homology models and through comparisons with similar proteins (the cathepsins), domains with significant surface hydrophobicity are identified as potential self-assembly mediators. Moreover, a high-throughput screening showed that TF-Ps could generate crystals under certain conditions, becoming promising for further structural studies. With the goal of optimise the properties of the recombinant silicatein, implementation of new production systems are tried for the first time. Success in the expression of silicatein-type proteins in insect and yeast cells, constitute a promising basis for further development, towards the establishment of an efficient method for the production of a high-value pure and soluble protein.
Resumo:
Atmosphärische Aerosole haben einen starken Einfluss auf das Klima, der bisher nur grundlegend verstanden ist und weiterer Forschung bedarf. Das atmosphärische Verhalten der Aerosolpartikel hängt maßgeblich von ihrer Größe und chemischen Zusammensetzung ab. Durch Reflexion, Absorption und Streuung des Sonnenlichtes verändern sie den Strahlungshaushalt der Erde direkt und durch ihre Einflussnahme auf die Wolkenbildung indirekt. Besonders gealterte, stark oxidierte organische Aerosole mit großem Sauerstoff-zu-Kohlenstoff-Verhältnis wirken als effektive Wolkenkondensationskeime. Neben primären Aerosolpartikeln, die direkt partikelförmig in die Atmosphäre gelangen, spielen sekundäre Aerosolpartikel eine große Rolle, die aus Vorläufergasen in der Atmosphäre entstehen. Aktuelle Forschungsergebnisse legen nahe, dass kurzkettige aliphatische Amine bei Nukleationsprozessen beteiligt sind und somit die Partikelneubildung vielerorts mitsteuern. Um die Rolle von Aminen in der Atmosphäre besser erforschen und industrielle Emissionen kontrollieren zu können, bedarf es einer zuverlässigen Methode zur Echtzeitquantifizierung gasförmiger Amine mit hoher Zeitauflösung und niedriger Nachweisgrenze.rnDas hochauflösende Flugzeit-Aerosolmassenspektrometer (HR-ToF-AMS) bietet die Möglichkeit, atmosphärische Partikel in Echtzeit zu analysieren. Dabei werden Größe, Menge und grundlegende chemische Zusammensetzung erfasst. Anorganische Aerosolbestandteile können eindeutig zugeordnet werden. Es ist jedoch kaum möglich, einzelne organische Verbindungen in den komplizierten Massenspektren atmosphärischer Aerosole zu identifizieren und quantifizieren.rnIn dieser Arbeit wird atmosphärisches Aerosol untersucht, das im Westen Zyperns während der CYPHEX-Kampagne mit einem HR-ToF-AMS gemessen wurde. An diesem Standort ist vor allem stark gealtertes Aerosol vorzufinden, das aus Zentral- und Westeuropa stammt. Lokale Einflüsse spielen fast keine Rolle. Es wurde eine durchschnittliche Massenkonzentration von 10,98 μg/m3 gefunden, zusammengesetzt aus 57 % Sulfat, 30 % organischen Bestandteilen, 12 % Ammonium, < 1 % Nitrat und < 1 % Chlorid, bezogen auf das Gewicht. Der Median des vakuum-aerodynamischen Durchmessers betrug 446,25 nm. Es wurde sehr acides Aerosol gefunden, dessen anorganische Bestandteile weitgehend der Zusammensetzung von Ammoniumhydrogensulfat entsprachen. Tag-Nacht-Schwankungen in der Zusammensetzung wurden beobachtet. Die Sulfatkonzentration und die Acidität zeigten tagsüber Maxima und nachts Minima. Konzentrationsschwankungen an Nitrat und Chlorid zeigten einen weniger ausgeprägten Rhythmus, Maxima fallen aber immer mit Minima der Sulfatkonzentration, Aerosolacidität und Umgebungstemperatur zusammen. Organische Aerosolbestandteile entsprachen stark gealtertem, schwerflüchtigem oxidiertem organischem Aerosol. Es wurde eine interne Mischung der Partikel beobachtet, die ebenfalls meist bei alten Aerosolen auftritt.rnUm mit dem HR-ToF-AMS auch einzelne organische Verbindungen identifizieren und quantifizieren zu können, wurde eine Methode entwickelt, mit der man Amine der Gasphase selektiv in künstlich erzeugte Phosphorsäurepartikel aufnimmt und so für die HR-ToF-AMS-Messung zugänglich macht. Dadurch kombiniert man die Vorteile der Online-Messung des HR-ToF-AMS mit den Vorteilen klassischer Offline-Probenahmen. So können in Echtzeit sehr einfache Massenspektren gemessen werden, in denen störende Komponenten abgetrennt sind, während die Analyten eindeutig identifiziert werden können. Systeme dieser Art wurden GTRAP-AMS (Gaseous compound TRapping in Artificially-generated Particles – Aerosol Mass Spectrometry) genannt. Kalibrierungen für (Mono)Methylamin, Dimethylamin, Trimethylamin, Diethylamin und Triethylamin ergaben Nachweisgrenzen im ppt-Bereich bei einer Zeitauflösung von 3 min. Kammerexperimente zur Aminemission von Pflanzen zeigten eine gute Übereinstimmung des neu entwickelten Systems mit einer Gasdiffusionsabscheider-Offline-Probenahme und anschließender ionenchromatographischer Analyse. Beide Methoden zeigten Reaktionen der Pflanzen auf eine Veränderung der Lichtverhältnisse, während erhöhte Ozonkonzentrationen die Aminemission nicht veränderten. Die GTRAP-AMS-Methode eignet sich bereits für die Messung von Umgebungsluftkonzentrationen an einigen Orten, für die meisten Orte reicht die Nachweisgrenze allerdings noch nicht aus. Die Technik könnte bereits zur Echtzeitkontrolle industrieller Abgasemissionen eingesetzt werden.
Resumo:
Magic Carpet, nato come un middleware orientato a una dimostrazione sullo spatial computing, che inizialmente coinvolgeva solo smart devices ed un tappeto di tag NFC, è il punto di partenza per uno studio sulle tecnologie abilitanti in tale campo. Il prodotto finale è una toolchain per lo sviluppo e la distribuzione, su dispositivi connessi, di applicazioni di spatial computing. Essa comprende un interprete per un DSL basato su un core calculus formalizzato, Field Calculus, e un middleware che supporta l'astrazione curando, a basso livello, le comunicazioni con il vicinato e le percezioni ambientali.
Resumo:
Die Arzneimittelcompliance hat eine hohe Vorhersagekraft für den Ausgang einer Organtransplantation. Allerdings wurden soweit keine Studien zur Arzneimittelcompliance mittels eletronischen Compliancemessung bei Dialyse- und Leberzirrhosepatienten durchgeführt. Das primäre Ziel dieser Studie war die Arzneimittelcompliance dieser beiden Patientenkollektive zu evaluieren und als sekundäres Ziel wurden die Einflussfaktoren von Non-Compliance untersucht. rnLeberzirrhosepatinten, die Propranolol und Dialysepatienten, die Phosphatbinder, jeweils 3 x tgl. einnahmen, konnten in der Studie teilnehmen. Die Arzneimittelcompliance wurde mittels MEMSTM über einen Zeitraum von jeweils 6 Monaten bestimmt. Des Weiteren wurde nach Einflussfaktoren wie die demopraphischen Daten, Depression, Lebensqualität und der Gesundheitszustand, bei den Dialysepatienten zusätzlich die Formulierung der Phosphatbinder und die Anzahl evaluiert. Zwischen den organinsuffizienten Patientenkollektiven war ein signifikanter Unterschied in der Dosing Compliancerate auszumachen (p<0,023). Die mittlere DC Rate war bei 61%±6% für Leberzirrhosepatienten im Vergleich zu 43%±5% in Dialysepatienten. Nur 10 Leberzirrhosepatienten (30%) and 6 Dialysepatienten (17%) konnten als compliant eingestuft werden. Je höher die Phosphatbinderdosen waren, umso niedrigere Dosing Complianceraten wurden erzielt. Bei 1,5-3 Tabletten pro Tag betrug die Compliancerate 55%±8% (n=16), bei 4-6 Tabletten pro Tag nur noch 37%±7% (n=15) und bei mehr als 7 Tabletten lediglich 21%±10% (n=5) (p<0,036). Bei den Dialysepatienten war jedoch auffällig, dass die Dosing Compliancerate in Abhängigkeit von der Anzahl der dokumentierten Erkrankungen inkl. Grunderkrankung stieg (Dosing Compliancerate 34%±9% für ≤1 Grunderkrankung, 42%±6% für 1-4 Komorbiditäten, 83%±3% für ≥5 Komorbiditäten; p<0,036).Das geringe Patientenwissen über die Arzneimittel und die Erkrankung und die niedrige Compliancerate bedürfen weitere Untersuchungen um die Aspekte zu verbessern. Diese Studie zeigte das eine pharmazeutische Betreuung schon vor einer Transplantation benötigt wird. Aber eine pharmazeutische Betreuung ist sehr kosten- und zeitintensiv. Vielleicht müssen neue Modelle der pharmazeutische Betreuung untersucht werden oder non-compliante Patienten müssen noch besser identifiziert werden für eine selektive pharmazeutische Betreuung.
Resumo:
Con questa tesi si mostra come sfruttare i tag nfc con lo smartphone per facilitare l'acquisto di alcuni servizi e di facilitarne l'uso.
Resumo:
Questa tesi ha lo scopo di analizzare e approfondire tutte le caratteristiche del nuovo standard delle comunicazioni a radiofrequenza: NFC. Per meglio comprendere l'argomento trattato ho suddiviso la tesi in 5 capitoli: Nel primo capitolo si effettuerà una panoramica sul mondo delle tecnologie a radiofrequenza: parleremo della tecnologia RFID, di come è nata e di come si è sviluppata dagli anni 60 ad oggi, di come veniva utilizzata un tempo e di come oggi viene usata. Ulteriore tecnologia a radiofrequenza presa in considerazione in questo capitolo è la tecnologia Bluetooth, di cui conosceremo le origini e l’evoluzione che ha subito nel corso degli anni. Nel secondo capitolo si affronterà l’argomento principale di questa tesi ossia la tecnologia NFC. Si analizzerà nel dettaglio, capiremo come è nata e come si è evoluta, vedremo come funziona nello specifico, che tipo di componenti usa e vedremo quali sono stati gli elementi cardine che hanno portato a questa rapida diffusione. Nel terzo capitolo si prenderà in esame un prototipo di applicazione per smartphone Android per meglio capire come effettivamente comunicano tra loro hardware e software. Il progetto prende il nome di WeMoNFC e permetterà di attivare e/o disattivare un particolare interruttore tramite l’accostamento di un tag NFC al telefono. Come richiama il nome, il progetto utilizzerà due componenti principali: il primo, ovviamente, è il modulo NFC inserito di fabbrica all’interno dello smartphone, il secondo invece è un dispositivo dell’azienda americana Belkin: il WeMo Switch. Nel quarto capitolo infine si trarranno le dovute conclusioni su questo argomento, si osserveranno i dati di mercato e si cercherà di ricavare una possibile ipotesi su come questa tecnologia davvero alla portata di tutti diverrà, più o meno, importante in un futuro prossimo.
Resumo:
The Southwest Indian Ridge segment that extends between 10° and 16° E has the slowest spreading rate of any other oceanic ridge (about 8.4 mm/year). In 2013 during the expedition ANTXXIX/8 seismology, geology, microbiology, heat flow analyses were carried out. Here, no hydrothermal plumes or black smoker systems were found but the results of the survey allowed to identify areas with peculiar characteristics: Area 1 with higher heat flux bsf; Area 2 where in 2002 the presence of hydrothermal emissions was hypothesized (Bach et al., 2002); Area 3 with anomalies of methane, ammonium, sulphide and dissolved inorganic carbon in pore water sediment profiles, and recovery of fauna vents. All these aspects suggest the presence of a hydrothermal circulation. Using Illumina 16S gene tag, statistical tools and phylogenetic trees, I provided a biological proof of the presence of hydrothermal circulation in this ridge segment. At Area 3, alpha and beta diversity indexes showed similarities with those described for venting microbial communities and about 40-70% of the dominant microbial community was found phylogenetically related to clones isolated hydrothermal-driven environments. Although the majority of chemosynthetic environment related taxa were not classified like autotrophic prokaryotes, some of them are key taxa in support of the presence of hydrothermal circulation, since they are partners of consortia or mediate specific reaction typically described for hydrothermal and seep environments, or are specialized organisms in exploiting labile organic substrates. Concluding, these results are remarkable because support the importance of ultra slow spreading ridge systems in contributing to global geochemical cycles and larval dispersion of vent fauna.
Resumo:
I Social Network sono una fonte di informazioni di natura spontanea, non guidata, provviste di posizione spaziale e prodotte in tempo reale. Il Social Sensing si basa sull'idea che gruppi di persone possano fornire informazioni, su eventi che accadono nelle loro vicinanze, simili a quelle ottenibili da sensori. La letteratura in merito all’utilizzo dei Social Media per il rilevamento di eventi catastrofici mostra una struttura comune: acquisizione, filtraggio e classificazione dei dati. La piattaforma usata, nella maggior parte dei lavori e da noi, è Twitter. Proponiamo un sistema di rilevamento di eventi per l’Emilia Romagna, tramite l’analisi di tweet geolocalizzati. Per l’acquisizione dei dati abbiamo utilizzato le Twitter API. Abbiamo effettuato due passaggi per il filtraggio dei tweet. Primo, selezione degli account di provenienza dei tweet, se non sono personali è improbabile che siano usati per dare informazioni e non vanno tenuti in considerazione. Secondo, il contenuto dei tweet, vengono scartati se presentano termini scurrili, parole come “buon giorno” e un numero di tag, riferiti ad altri utenti, superiore a quattro. La rilevazione di un valore anomalo rispetto all'insieme delle osservazioni che stiamo considerando (outlier), è il primo indice di un evento eccezionale. Per l’analisi siamo ricorsi all’outlier detection come indice di rilevamento di un evento. Fatta questa prima analisi si controlla che ci sia un effettivo picco di tweet in una zona della regione. Durante il periodo di attività non sono accaduti eventi straordinari, abbiamo quindi simulato un avvenimento per testare l'efficacia del nostro sistema. La maggior difficoltà è che i dati geolocalizzati sono in numero molto esiguo, è quindi difficile l'identificazione dei picchi. Per migliorare il sistema si propone: il passaggio a streaming dei tweet e un aumento della velocità di filtraggio; la automatizzazione dei filtri; l'implementazione di un modulo finale che operi a livello del testo.