989 resultados para scintillatori organici, discriminazione neutroni-raggi gamma,algoritmi digitali
Resumo:
Lo scopo del Progetto Extreme Energy Events (EEE) e` di studiare raggi cosmici di energia estrema, eventi molto rari ma ricchi di informazioni. La grande difficolta` nell'affrontare la fisica dei raggi cosmici di altissima energia risiede nel flusso estremamente basso con cui tali particelle giungono sulla terra. Si utilizzano infatti reti molto estese di rivelatori: le informazioni che si possono ricavare derivano dalla rivelazione delle particelle secondarie prodotte nello sviluppo di sciami estesi di raggi cosmici primari che interagiscono con l'atmosfera terrestre. Il Progetto EEE prevede di dislocare su tutto il territorio italiano un array di telescopi (costituiti da Multi Gap Resistive Plate Chambers) per raggi cosmici secondari. Il lavoro presentato riguarda la simulazione Monte Carlo degli sciami e lo studio delle loro caratteristiche, la simulazione delle prestazioni di griglie di rivelazione differenti ed infine l'analisi dei primi dati raccolti nei telescopi di Bologna, con il conseguente confronto con la simulazione.
Resumo:
Recenti studi hanno evidenziato come il cammino in ambiente acquatico possa portare a notevoli benefici nell’ambito di un processo riabilitativo: il cammino in acqua è infatti oggi considerato una delle principali terapie per pazienti con disturbi nella deambulazione, oltre ad essere impiegato per migliorare il recupero a seguito di interventi ed infortuni. Una caratterizzazione biomeccanica del cammino umano in acqua permetterebbe tuttavia di giungere a una conoscenza più approfondita degli effetti di quest’attività sul processo riabilitativo, e dunque a una sua prescrizione più mirata come parte delle terapie. Nonostante il crescente interesse, uno dei motivi per cui ancora pochi studi sono stati condotti in questo senso risiede nell’inadeguatezza di molti dei tradizionali sistemi di Motion Capture rispetto all’impiego subacqueo. La nuova branca della Markerless Motion Capture potrebbe invece in questo senso rappresentare una soluzione. In particolare, ci si occuperà in questo lavoro di tesi della tecnica markerless basata sulla ricostruzione del visual hull per retroproiezione delle silhouette. Il processo iniziale che permette di ottenere le silhouette dai video delle acquisizioni è detto segmentazione, la quale è anche una fase particolarmente importante per ottenere una buona accuratezza finale nella ricostruzione della cinematica articolare. Si sono pertanto sviluppati e caratterizzati in questo lavoro di tesi sette algoritmi di segmentazione, nati specificamente nell’ottica dell’analisi del cammino in acqua con tecnica markerless. Si mostrerà inoltre come determinate caratteristiche degli algoritmi influenzino la qualità finale della segmentazione, e sarà infine presentato un ulteriore algoritmo di post-processing per il miglioramento della qualità delle immagini segmentate.
Resumo:
La specificità dell'acquisizione di contenuti attraverso le interfacce digitali condanna l'agente epistemico a un'interazione frammentata, insufficiente da un punto di vista computazionale, mnemonico e temporale, rispetto alla mole informazionale oggi accessibile attraverso una qualunque implementazione della relazione uomo-computer, e invalida l'applicabilità del modello standard di conoscenza, come credenza vera e giustificata, sconfessando il concetto di credenza razionalmente fondata, per formare la quale, sarebbe invece richiesto all'agente di poter disporre appunto di risorse concettuali, computazionali e temporali inaccessibili. La conseguenza è che l'agente, vincolato dalle limitazioni ontologiche tipiche dell'interazione con le interfacce culturali, si vede costretto a ripiegare su processi ambigui, arbitrari e spesso più casuali di quanto creda, di selezione e gestione delle informazioni che danno origine a veri e propri ibridi (alla Latour) epistemologici, fatti di sensazioni e output di programmi, credenze non fondate e bit di testimonianze indirette e di tutta una serie di relazioni umano-digitali che danno adito a rifuggire in una dimensione trascendente che trova nel sacro il suo più immediato ambito di attuazione. Tutto ciò premesso, il presente lavoro si occupa di costruire un nuovo paradigma epistemologico di conoscenza proposizionale ottenibile attraverso un'interfaccia digitale di acquisizione di contenuti, fondato sul nuovo concetto di Tracciatura Digitale, definito come un un processo di acquisizione digitale di un insieme di tracce, ossia meta-informazioni di natura testimoniale. Tale dispositivo, una volta riconosciuto come un processo di comunicazione di contenuti, si baserà sulla ricerca e selezione di meta-informazioni, cioè tracce, che consentiranno l'implementazione di approcci derivati dall'analisi decisionale in condizioni di razionalità limitata, approcci che, oltre ad essere quasi mai utilizzati in tale ambito, sono ontologicamente predisposti per una gestione dell'incertezza quale quella riscontrabile nell'istanziazione dell'ibrido informazionale e che, in determinate condizioni, potranno garantire l'agente sulla bontà epistemica del contenuto acquisito.
Resumo:
Wie im Rahmen dieser Arbeit bestätigt werden konnte, eignet sich die Quantifizierung von γ-H2AX-Foci mittels Immunfluoreszenz zur Quantifizierung von DNA-Doppelstrangbrüchen, welche durch ionisierende Strahlung erzeugt werden. Dabei erzeugt ein Gy Strahlung der verwendeten 60Co-Quelle 33,8 ± 2,1 DNA-Doppelstrangbrüche. Durch UV-Strahlung sowie alkylierende Substanzen wie MMS und MNNG werden in CHO-Zellen γ-H2AX-Foci induziert. Die Anzahl der induzierten γ-H2AX-Foci ist Dosis- und replikationsabhängig. Die im Rahmen dieser Arbeit erhobenen Daten sprechen für eine Phosphorylierung von H2AX an Läsionen, welche die DNA-Replikation beeinträchtigen und insbesondere aktive Replikationsgabeln blockieren. Diese Läsionen können zu DNA-Doppelstrangbrüchen an blockierten Replikationsgabeln führen H2AX wird in der unmittelbaren Umgebung von DNA-Doppelstrangbrüchen zu γ-H2AX phosphoryliert und eignet sich damit zur Quantifizierung dieser Läsionen. Ob γ-H2AX ausschließlich an DNA-Doppelstrangbrüchen phosphoryliert wird, oder auch an anderen Läsionen ist in der Literatur umstritten. Die bis dato publizierte Literatur geht mehrheitlich davon aus, dass γ-H2AX einen ausschließlichen Marker von DNA-Doppelstrangbrüchen darstellt (Burma et al., 2001; Fernandez-Capetillo et al., 2004; Foster und Downs, 2005; Furuta et al., 2003; Halicka et al., 2005; Huang et al., 2005; Paull et al., 2000; Redon et al., 2002; Stucki und Jackson, 2006; Takahashi und Ohnishi, 2005; Ward und Chen, 2001). Neuere Arbeiten postulieren jedoch, dass H2AX auch durch andere, bisher nicht genau klassifizierte, Störungen der Chromatinstruktur phosphoryliert wird (Marti et al., 2006; Stojic et al., 2004). Die im Rahmen dieser Arbeit dargestellten Ergebnisse mit UV-Strahlung und den Alkylantien MMS und MNNG lassen sich gut durch die teils direkte, größtenteils jedoch replikationsabhängige Bildung von DNA-Doppelstrangbrüchen an blockierten Replikationsgabeln erklären. Ausschließen lässt sich die Hypothese, dass die beobachteten γ-H2AX-Foci auch aufgrund anderer Läsionen entstehen, auf Grundlage der erhaltenen Daten nicht. Die Quantifizierung von γ-H2AX eignet sich zur Darstellung von durch ionisierende Strahlung, UV-Strahlung sowie Alkylantien erzeugten Effekten. Eine abschließende Klärung, ob durch die hier angewandte Methode selektiv DNA-Doppelstrangbrüche detektiert werden, steht aber weiterhin aus.
Resumo:
Seit Frühjahr 2004 wird der Crystal Ball-Detektor am Photonenstrahl des Mainzer Mikrotrons für Koinzidenzexperimente zur Untersuchung der Struktur der Nukleonen genutzt. Aufbau und Inbetriebnahme des Kalorimeters, insbesondere der neuen Detektorelektronik, bilden einen Schwerpunkt dieser Arbeit. Komponenten wurden neu konstruiert oder auf ihre Verwendbarkeit geprüft und nögenfalls modifiziert. Nach erfolgreichem Abschluss der Aufbauphase wurden Experimente zur Produktion von $pi$- und $eta$-Mesonen am Proton mit mehr als 2500 Stunden Strahlbetrieb durchgeführt. Den zweiten Schwerpunkt der Dissertation bildet die erstmalige Messung der Helizitätsasymmetrie I$^odot$ in der Photoproduktion zweier neutraler Pionen. Zum Verstädnis des Anregungsspektrums der Nukleonen müssen Experimente mit polarisierten Photonen und/oder polarisierten Targets durchgeführt werden. Da Modelle trotz unterschiedlicher Annahmen unpolarisiert gemessene Größen vergleichbar gut reproduzieren, ist die Bestimmung der auf Modellunterschiede empfindlichen Polarisationsobservablen unumgäglich. Im Gegensatz zur Einpionproduktion tritt in der Zweipionproduktion eine Einfachpolarisationsobservable auf, die mit zirkular polarisierten Photonen am unpolarisierten Proton gemessen werden kann. Diese wurde in der Reaktion $gamma$ p $rightarrow$ p $pi^0$ $pi^0$ und in $gamma$ p $rightarrow$ p $pi^+$ $pi^-$ energie- und winkelabhägig bestimmt. Die Ergebnisse weichen stark von den Modellvorhersagen ab.
Resumo:
Negli ultimi 50 anni il mercato alimentare è stato caratterizzato da profondi cambiamenti influenzati soprattutto da evoluzioni sociali e da notevoli mutamenti delle abitudini alimentari (Riquelme et al., 1994). La costante diffusione dei grandi supermarket ed il recente interesse verso la salute e l’ambiente, nonché la modifica dello stile di vita da parte del consumatore, hanno portato le industrie alimentari a sviluppare nuovi metodi di conservazione e di distribuzione e tipologie di prodotti innovative, come i prodotti ortofrutticoli minimamente trasformati. La perdita di qualità dei prodotti ortofrutticoli minimamente trasformati è il risultato di complessi meccanismi chimici e biochimici che si traducono macroscopicamente in modificazioni a carico del colore, delle texture e delle caratteristiche organolettiche (Mencarelli & Massantini, 1994). A fronte dei suddetti fenomeni degradativi, in un contesto di incrementale aumento della domanda dei prodotti freschi, sani, ad elevata convenience e senza additivi chimici (Day, 2002) l’introduzione delle atmosfere protettive per la conservazione degli alimenti è risultata strategica per prolungare la shelf-life ed il mantenimento qualitativo dei prodotti freschi (Jeyas & Jeyamkondan, 2002). Le attuali tecnologie disponibili per le industrie alimentari permettono l’applicazione di condizioni di atmosfera modificata sia in fase di stoccaggio di prodotti ortofrutticoli sia in fase di condizionamento. Il primo obiettivo è generalmente la parziale rimozione dell’O2 e l’aumento dei livelli di CO2 nell’ambiente circostante il prodotto. Oltre ai gas usati tradizionalmente per la realizzazione delle atmosfere modificate, quali N2 e CO2, recentemente è aumentato l’interesse verso i potenziali effetti benefici di nuovi gas, quali argon (Ar) e protossido d’azoto (N2O). Questi ultimi, ora permessi in Europa per uso alimentare, sono risultati efficaci nell’inibizione della crescita microbica e delle reazioni enzimatiche degradative, a carico soprattutto del colore e della consistenza dei vegetali minimamente processati (Spencer, 1995; Kader et al., 1989; Watada et al., 1996). Premesso questo, in tale lavoro di tesi è stata effettuata una ricerca sugli effetti di N2, N2O e Ar e di differenti trattamenti ad immersione, noti come dipping (con acido ascorbico, acido citrico e cloruro di calcio), sul metabolismo di prodotti ortofrutticoli. In particolare, per ciò che concerne la parte sperimentale, gli obiettivi principali sono stati quelli di approfondire le potenzialità di tali gas e dipping nel mantenimento qualitativo (colore, consistenza, metabolismo respiratorio) e di verificare l’efficacia di interventi combinati di dipping e MAP (atmosfera modificata) nel prolungamento della shelf-life del prodotto. Questa sperimentazione è stata effettuata su due varietà di lattuga: una da cespo (Iceberg) e una da taglio (Lattughino).
Resumo:
Le reti di sensori non cablate producono una grande quantità di informazioni sotto forma di flusso continuo di dati, provenienti da una certa area fisica. Individualmente, ogni sensore è autonomo, dotato di batteria limitata e possiede una piccola antenna per la comunicazione; collettivamente, i sensori cooperano su un’ area più o meno vasta per far giungere i dati gene- rati ad un unità centrale. Poiché la sostituzione delle batterie è spesso un operazione troppo costosa o inattuabile, l’efficienza energetica è considerata una metrica prioritaria durante la progettazione delle reti di sensori non cablate. Si richiede non solo di ridurre le richieste energetiche di ogni singolo nodo, ma anche di massimizzare il tempo di vita dell’intera rete, considerando i costi di comunicazione tra sensori. Ciò ha portato allo studio di come rimuo- vere le inefficienze energetiche sotto ogni aspetto: dalla piattaforma hardware, al software di base, ai protocolli di comunicazione al software applicativo. Nella tesi è illustrata una tecnica per il risparmio energetico che consiste nell’applicare memorie fisiche ad alcuni nodi della rete, in modo da accumulare in esse porzioni dei dati ge- nerati; successivamente le informazioni possono essere recuperate dall’unità centrale tramite interrogazioni. Questo permette di ridurre il numero di dati trasmessi, e conseguentemente diminuire l’assorbimento energetico della rete. Scopo della presente tesi è individuare algo- ritmi per determinare la disposizione ottima delle memorie tra i nodi.