992 resultados para NoSQL, SQL, OrientDB, MongoDB, BaseX, prestazioni, interrogazioni


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Cherenkov Telescope Array (CTA) will be the next-generation ground-based observatory to study the universe in the very-high-energy domain. The observatory will rely on a Science Alert Generation (SAG) system to analyze the real-time data from the telescopes and generate science alerts. The SAG system will play a crucial role in the search and follow-up of transients from external alerts, enabling multi-wavelength and multi-messenger collaborations. It will maximize the potential for the detection of the rarest phenomena, such as gamma-ray bursts (GRBs), which are the science case for this study. This study presents an anomaly detection method based on deep learning for detecting gamma-ray burst events in real-time. The performance of the proposed method is evaluated and compared against the Li&Ma standard technique in two use cases of serendipitous discoveries and follow-up observations, using short exposure times. The method shows promising results in detecting GRBs and is flexible enough to allow real-time search for transient events on multiple time scales. The method does not assume background nor source models and doe not require a minimum number of photon counts to perform analysis, making it well-suited for real-time analysis. Future improvements involve further tests, relaxing some of the assumptions made in this study as well as post-trials correction of the detection significance. Moreover, the ability to detect other transient classes in different scenarios must be investigated for completeness. The system can be integrated within the SAG system of CTA and deployed on the onsite computing clusters. This would provide valuable insights into the method's performance in a real-world setting and be another valuable tool for discovering new transient events in real-time. Overall, this study makes a significant contribution to the field of astrophysics by demonstrating the effectiveness of deep learning-based anomaly detection techniques for real-time source detection in gamma-ray astronomy.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In a context of technological innovation, the aim of this thesis is to develop a technology that has gained interest in both scientific and industrial realms. This technology serves as a viable alternative to outdated and energy-consuming industrial systems. Electro-adhesive devices (EADs) leverage electrostatic forces for grasping objects or adhering to surfaces. The advantage of employing electrostatics lies in its adaptability to various materials without compromising the structure or chemistry of the object or surface. These benefits have led the industry to explore this technology as a replacement for costly vacuum systems and suction cups currently used for handling most products. Furthermore, the broad applicability of this technology extends to extreme environments, such as space with ultra-high vacuum conditions. Unfortunately, research in this area has yet to yield practical results for industrially effective gripper prototyping. This is primarily due to the inherent complexity of electro-adhesive technology, which operates on basic capacitive principles that does not find satisfying physical descriptions. This thesis aims to address these challenges through a series of studies, starting with the manufacturing process and testing of an EAD that has become the standard in our laboratory. It then delves into material and electrode geometry studies to enhance system performance, ultimately presenting potential industrial applications of the technology. All the presented results are encouraging, as they have yielded shear force values three times higher than those previously reported in the literature. The various applications have demonstrated the significant effectiveness of EADs as brakes or, more broadly, in exerting shear forces. This opens up the possibility of utilizing cutting-edge technologies to push the boundaries of technology to the fullest.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Anche se l'isteroscopia con la biopsia endometriale è il gold standard nella diagnosi della patologia intracavitaria uterina, l'esperienza dell’isteroscopista è fondamentale per una diagnosi corretta. Il Deep Learning (DL) come metodica di intelligenza artificiale potrebbe essere un aiuto per superare questo limite. Sono disponibili pochi studi con risultati preliminari e mancano ricerche che valutano le prestazioni dei modelli di DL nell'identificazione delle lesioni intrauterine e il possibile aiuto derivato dai fattori clinici. Obiettivo: Sviluppare un modello di DL per identificare e classificare le patologie endocavitarie uterine dalle immagini isteroscopiche. Metodi: È stato eseguito uno studio di coorte retrospettivo osservazionale monocentrico su una serie consecutiva di casi isteroscopici di pazienti con patologia intracavitaria uterina confermata all’esame istologico eseguiti al Policlinico S. Orsola. Le immagini isteroscopiche sono state usate per costruire un modello di DL per la classificazione e l'identificazione delle lesioni intracavitarie con e senza l'aiuto di fattori clinici (età, menopausa, AUB, terapia ormonale e tamoxifene). Come risultati dello studio abbiamo calcolato le metriche diagnostiche del modello di DL nella classificazione e identificazione delle lesioni uterine intracavitarie con e senza l'aiuto dei fattori clinici. Risultati: Abbiamo esaminato 1.500 immagini provenienti da 266 casi: 186 pazienti avevano lesioni focali benigne, 25 lesioni diffuse benigne e 55 lesioni preneoplastiche/neoplastiche. Sia per quanto riguarda la classificazione che l’identificazione, le migliori prestazioni sono state raggiunte con l'aiuto dei fattori clinici, complessivamente con precision dell'80,11%, recall dell'80,11%, specificità del 90,06%, F1 score dell’80,11% e accuratezza dell’86,74% per la classificazione. Per l’identificazione abbiamo ottenuto un rilevamento complessivo dell’85,82%, precision 93,12%, recall del 91,63% ed F1 score del 92,37%. Conclusioni: Il modello DL ha ottenuto una bassa performance nell’identificazione e classificazione delle lesioni intracavitarie uterine dalle immagini isteroscopiche. Anche se la migliore performance diagnostica è stata ottenuta con l’aiuto di fattori clinici specifici, questo miglioramento è stato scarso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il miglioramento dell'assistenza e dei risultati dei pazienti si basano attualmente sullo sviluppo e sulla convalida di nuovi farmaci e tecnologie, soprattutto in campi in rapida evoluzione come la Cardiologia Interventistica. Tuttavia, al giorno d’oggi ancora poca attenzione è rivolta ai professionisti che effettuano tali operazioni, il cui sforzo cognitivo-motorio è essenziale per la riuscita degli interventi. L’ottimizzazione delle prestazioni e dell'organizzazione del lavoro è essenziale in quanto influisce sul carico di lavoro mentale dell'operatore e può determinare l'efficacia dell'intervento e l'impatto sulla prognosi dei pazienti. È stato ampiamente dimostrato che diverse funzioni cognitive, tra cui l'affaticamento mentale comporta alcuni cambiamenti nei segnali elettroencefalografici. Vi sono diversi marcatori dei segnali EEG ciascuno con una determinata ampiezza, frequenza e fase che permettono di comprendere le attività cerebrali. Per questo studio è stato utilizzato un modello di analisi spettrale elettroencefalografica chiamato Alpha Prevalence (AP), che utilizza le tre onde alpha, beta e theta, per mettere in correlazione i processi cognitivi da un lato e le oscillazioni EEG dall’altro. Questo elaborato, condotto insieme all’azienda Vibre, prende in esame il cambiamento dell’AP, all’interno di una popolazione di cardiologi interventisti che effettuano interventi in cath-lab presso l’ospedale universitario di Ferrara, per valutare la condizione di affaticamento mentale o di eccessiva sonnolenza. L’esperimento prevede la registrazione del segnale EEG nei partecipanti volontari durante gli interventi e durante le pause nel corso dell’intero turno di lavoro. Lo scopo sarà quello di rilevare i cambiamenti nella metrica dell’alpha prevalence al variare del carico attentivo: ossia al variare delle risorse attentive richieste dal compito in relazione all’aumentare del tempo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il seguente lavoro ha l’obiettivo di mettere in evidenza le varie metodiche che vengono utilizzate per la diagnosi di tutte le malattie che riguardano l’apparato digerente, esaminando le varie tecnologie, la loro manutenzione e il ruolo che l’ingegnere clinico assume in questa tecnologia. In particolare, ho approfondito la video capsula endoscopica, l’ultima tecnologia all’avanguardia verso la quale si stanno concentrando gli studi. La tematica affrontata riguarda la strumentazione utilizzata nell’Endoscopia Digestiva, che utilizza attualmente endoscopi flessibili per visualizzare il sistema digerente. Gli endoscopi fanno parte dell’area diagnostica per bioimmagini, utilizzano quindi apparecchiature biomediche per catturare immagini delle strutture biologiche, potendo così valutare le diverse patologie o le condizioni degli organi stessi. Grazie agli studi e al progredire della scienza, è oggi possibile catturare immagini dinamiche e radiologiche, non più solo statiche e unicamente anatomiche. Alcune di queste tecnologie, così come gli endoscopi e gli ecografi, oltre alla capacità diagnostica, hanno sviluppato la possibilità di intervenire direttamente durante l’esame endoscopico, aiutando la terapia di alcune patologie. Per quanto riguarda la video capsula endoscopica, la possibilità di eseguire biopsie si sta sviluppando, e sono già presenti modelli concreti per il raggiungimento di questo obiettivo. Col passare del tempo si è ridotta notevolmente anche l’invasività dell’esame, che ha portato ad un aumento del numero di prestazioni, dotazione di endoscopi e di tutte le altre attrezzature ad esso associate. Lo sviluppo di queste tecnologie ha portato benefici anche alla qualità della prevenzione e del trattamento di queste patologie. Attualmente queste tecnologie sono indispensabili all’interno di un complesso ospedaliero, ed è per questo che è diventata necessaria anche una loro manutenzione continua, che comporta fattori organizzativi e gestionali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La struttura di un ospedale è notevolmente complessa nella sua organizzazione e conduzione, ed è per di più sollecitata a continue trasformazioni di carattere tecnologico ed organizzativo. Pertanto è essenziale, in una struttura sanitaria, il ruolo svolto dall’Ingegneria Clinica, che è quello dell’applicazione dei metodi e delle competenze specifiche proprie dell’ingegneria all’organizzazione, alla gestione e all’uso sicuro ed appropriato della strumentazione biomedica. Il seguente elaborato tratta le verifiche di sicurezza delle apparecchiature elettromedicali (EM) con una particolare attenzione agli aspetti normativi che le contraddistinguono e al ruolo dell’ingegnere clinico. Parlare di sicurezza per le tecnologie biomediche, significa garantire l’utilizzo delle stesse in assenza di rischi per l’utilizzatore e per il paziente, perciò il concetto di rischio è analizzato accuratamente. Oltre alla manutenzione correttiva è compito dell’ingegnere clinico programmare strategie di manutenzione preventiva per ottimizzare la durata fisiologica degli apparecchi EM e garantirne la qualità delle prestazioni erogate a lungo termine. L’utilizzo o il semplice invecchiamento di una qualsiasi apparecchiatura ne provoca infatti l’usura dei materiali e la deriva delle caratteristiche, aumentando la probabilità di guasto ed avaria. Pertanto la definizione di procedure di verifica elettrica periodica diventa fondamentale per l’individuazione di gran parte di quelle situazioni di compromissione della sicurezza che sono causa di danni e incidenti. Il loro scopo è quello di accertarsi che un’apparecchiatura abbia mantenuto nel tempo le caratteristiche di sicurezza dichiarate dal produttore e certificate dalla marcatura di conformità CE. Per completare l’iter di verifica di sicurezza e definirne il livello minimo accettabile è essenziale eseguire, oltre alle verifiche elettriche, le verifiche funzionali per valutare l’efficacia delle singole funzioni e prestazioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Oggigiorno l'individuazione diagnostica precoce della SARS-CoV-2 attraverso tamponi molecolari è fondamentale per interrompere la trasmissione del virus. Tuttavia, il monitoraggio della diffusione virale attraverso il test standard di RT-qPCR individuale comporta un elevato costo per ciascun tampone nasofaringeo analizzato e i reagenti chimici per l’estrazione dell’RNA virale sono sempre meno disponibili. Per ovviare a tali ostacoli, è stata ripresa la tecnica di group testing, sviluppata per la prima volta da Dorfman nel 1943 per individuare i soggetti affetti da sifilide prima del loro arruolamento. Questa strategia minimizza il numero di test condotti su un insieme di campioni: se un gruppo di n campioni risulta negativo, allora la condizione di ciascuno di essi è stata determinata mediante un solo test invece che con n test individuali. Negli ultimi due anni sono state sviluppate strategie in grado di migliorare le prestazioni del test di gruppo: per scenari a bassa prevalenza l’algoritmo dell’ipercubo rileva un singolo campione positivo in pool con dimensioni fino a 100 campioni attraverso due o più turni di test; invece, il P-BEST utilizza un solo turno di analisi, ma le dimensioni massime dei pool sono più ridotte. Per scenari ad alta prevalenza (10%) il team italiano dell’Università di Bologna ha progettato un metodo che identifica e rileva i membri infetti con un solo turno di test. Tuttavia, affinché il group testing sia efficace come l’analisi individuale dei tamponi molecolari, è necessario minimizzare l’effetto di diluizione, correlato alla dimensione del pool e causa di insorgenza di falsi negativi, nonché di un calo nella sensibilità nei test. I dati ottenuti da questi studi hanno dimostrato che questa strategia offre grandi potenzialità. Essa è essenziale per le indagini di routine della popolazione e concede vantaggi amplificati soprattutto se vengono testati soggetti quotidianamente in contatto tra loro, come famiglie o colleghi di lavoro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le tecniche di fluidodinamica computazionale vengono utilizzate in numerosi settori dell’ingegneria per risolvere in modo efficiente i problemi di flusso e di termodinamica nei fluidi. Uno di questi settori in cui si è diffuso l’utilizzo delle tecniche CFD (Computational Fluid Dynamics) è il settore dell’ingegneria antincendio. Tra i vari software di simulazione presenti, FDS (Fire Dynamics Simulator) è quello più diffuso nella comunità antincendio e utilizzato all’interno della presente analisi. L’elaborato introduce le basi dell’ingegneria antincendio spiegando le varie fasi attraverso il quale passa la metodologia prestazionale, passando poi ad approfondire le dinamiche d’incendio, in particolare nelle gallerie stradali e le tecniche di modellazione termo fluidodinamica degli incendi. L’analisi tratta il confronto tra delle prove d’incendio in scala reale effettuate all’interno di una galleria e le relative simulazioni fluidodinamiche realizzate al fine di verificare la corrispondenza tra la modellazione con software e l’effettiva evoluzione dell’incendio. Nell’analisi verranno confrontati diversi metodi di modellazione, evidenziando i vantaggi e i limiti incontrati nel corso delle simulazioni, confrontandoli al tempo stesso con i risultati ottenuti dai test in scala reale. I modelli ottenuti hanno permesso di estendere le simulazioni a focolari di potenza maggiore al fine di effettuare un’analisi delle prestazioni antincendio della galleria oggetto di studio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A causa del riscaldamento globale, tutti i settori produttivi sono incentivati ad attuare strategie e tecnologie volte a ridurre le emissioni climalteranti. Per il settore agricolo, una gestione più sostenibile del suolo permetterebbe di rimuovere CO2 dall’atmosfera, stoccandola come C organico nel suolo. Il presente studio si pone l’obiettivo di quantificare gli impatti della produzione dell’uva e del vino imbottigliato dal punto di vista degli aspetti ambientali più rilevanti, approfondendo particolarmente il cambiamento climatico attraverso la metodologia Life Cycle Assessment (LCA). Inoltre, attraverso la determinazione delle dinamiche del C organico nel suolo mediante il modello RothC, lo studio cerca di capire se l'integrazione dei risultati di uno studio LCA con quelli del modello RothC possano fornire informazioni aggiuntive utili a un miglioramento della performance ambientale del prodotto agricolo. Il caso studio riguarda due aziende vitivinicole, situate in Emilia-Romagna che attuano due diverse tipologie di gestione (naturale e convenzionale). La metodologia LCA è stata applicata ad entrambi gli scenari selezionando i parametri metodologici più appropriati a seconda dello scenario in esame, e.g. i confini del sistema e l’unità funzionale, mentre, il modello RothC è stato applicato unicamente alla fase di coltivazione dell’uva. I risultati LCA mostrano le migliori prestazioni per la produzione dell’uva dell’azienda naturale per quasi tutte le categorie d’impatto, incluso il cambiamento climatico. Nella produzione del vino imbottigliato, la fase di coltivazione e quella di imbottigliamento risultano le più impattanti. I risultati di RothC evidenziano invece migliori prestazioni da parte dell’azienda convenzionale. L’integrazione dei risultati LCA con quelli di RothC rappresentano dunque un’operazione cruciale nel determinare quale sia l’effettivo impatto delle aziende agricole sul cambiamento climatico e come migliorarlo in futuro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro è incentrato sulla pianificazione delle acquizioni e scaricamento del satellite PLATiNO. Le operazioni permesse a questo satellite sono vincolate da varie attività tra cui acquisizioni, manovre e scaricamento di dati. L'obiettivo finale è quello di soddisfare più richieste possibili massimizzando le operazioni del satellite senza però violare i vincoli imposti. A questo scopo, è stato sviluppato un modello in formulazione MILP per una versione rilassata del problema. In questa Tesi vengono innanzitutto trattati i principali argomenti di programmazione lineare e intera in modo da poter affrontare il modello matematico inerente al problema di downlink di PLATiNO. Successivamente viene descritto nel dettaglio il problema da modellizzare, con particolare attenzione alla strategia di downlink, che costituisce l'aspetto più problematico nella costruzione del modello. Si opta, infatti, per una formulazione mista rilassando i vincoli inerenti allo scaricamento dei dati. Infine, vengono valutate le prestazioni del modello rilassato confrontandolo con la sua versione esatta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'argomento del lavoro di tesi svolto ha lo scopo di testare le prestazioni di dispositivi riceventi per Global Navigation Satellite System (GNSS) che utilizzano la tecnologia di posizionamento Real-Time Kinematics (RTK) e valutarne le prestazioni rispetto alle tradizionali riceventi GNSS, nello sviluppo di missioni autonome per veicoli di terra di piccole dimensioni. Per questi esperimenti è stato usato un rover di piccole dimensioni alimentato a batteria, su cui è stato installato un autopilota Pixhawk Cube Orange con firmware Ardupilot, nello specifico Ardurover. Attraverso il software Mission Planner è stato richiesto al rover di effettuare completamente in autonomia delle missioni per testare sia le prestazioni dei sistemi GNSS tradizionali sia dei sistemi RTK. Attraverso i dati raccolti durante le sperimentazioni è stato fatto un confronto tra GNSS e RTK. I dati raccolti sono stati utilizzati per valutare le prestazioni in termini di precisione dei sistemi e non sono state rilevate significative differenze durante l'utilizzo del dispositivo RTK per lo svolgimento della missione richiesta al rover, con l'architettura hardware proposta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Presso i laboratori del DICAM dell’Università di Bologna, partner del progetto FIT4REUSE, si studiano materiali adsorbenti innovativi per la rimozione ed il recupero di ammonio e fosfato dalle acque reflue municipali, mediante processo di scambio ionico in continuo su letto fisso, con l’obbiettivo di separare e concentrare l’azoto e il fosforo al fine di ottenere prodotti utilizzabili come fertilizzanti. Nello specifico questo elaborato di tesi riporta lo studio di due geopolimeri per l’adsorbimento di azoto, il geopolimero Na1.2G e il K1.2G, e li confronta con il geopolimero G13 che finora ha mostrato le prestazioni migliori.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ad oggi, misurare grandezze fisiche in maniera pratica, distribuita e sostenibile è di grande importanza al fine di poter attivare strategie di digitalizzazione di qualsiasi applicazione: da quelle industriali con robotica collaborativa, fino alla domotica o tecnologia indossabile. La sfida di oggi consiste nel poter creare dei sensori che possano abilitare questi contesti, risultando efficienti, a basso consumo energetico e sostenibili in termini di materiali e componenti utilizzati. L’obiettivo della tesi è infatti quello di valutare una classe innovativa di sensori con principio di funzionamento capacitivo che risultino facili da progettare, fabbricare ed utilizzare. Nello specifico, due tipologie di sensore sono state sviluppate: uno per la misura di forza, l’altro per la misura angolare. Entrambi i dispositivi sono stati realizzati con materiale elastomerico a base di silicone, accoppiato con elettrodi conformi, in un sistema capacitivo deformabile. All’interno di questi sistemi, sono state ricavate delle camere per il contenimento di un fluido dielettrico al fine di poter monitorare lo spostamento del fluido per la misura capacitiva. La tesi riporta le linee guida principali per la progettazione di sensori che utilizzino componenti elastomerici sia conduttori che dielettrici, in combinazione con un fluido per una misura capacitiva. Successivamente, sono riportati tutti gli step di fabbricazione delle due architetture di sensore realizzate, discutendo i vari passaggi ed elencando i materiali utilizzati. Infine, le performance dei due sensori sono valutate sulla base dei risultati di una campagna sperimentale dedicata, eseguita su due setup di banco prova distinti progettati per testare la forza applicata per il primo sensore, e l’angolo di inclinazione per il secondo. Nelle conclusioni viene riportata la valutazione dell’efficienza di questi due sensori, insieme alle evoluzioni future per rendere questa proposta tecnologica affidabile e ad alte prestazioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il seguente lavoro di tesi ha come obiettivo lo studio delle prestazioni energetiche di una pompa di calore elio-assistita, reversibile e multi-sorgente, la quale combina la tecnologia delle pompe di calore aria-acqua con quella dei collettori solari ibridi termo-fotovoltaici. L’impianto oggetto di studio è situato presso il centro di ricerca ENEA Casaccia ed è stato sviluppato con lo scopo di soddisfare la richiesta di riscaldamento/raffrescamento e produzione di acqua calda di un edificio residenziale o commerciale. In questo elaborato si è analizzato il funzionamento invernale della pompa di calore finalizzato alla produzione di acqua calda sanitaria, confrontando due modalità operative differenti con diverse impostazioni di lavoro della frequenza del compressore e della valvola di laminazione. L’elemento distintivo delle due modalità operative è il componente avente la funzione di evaporatore in quanto in una modalità è stata impiegata una batteria alettata con ventilazione forzata, mentre nell’altra un campo di pannelli termo-fotovoltaici. I risultati ottenuti dalle prove sperimentali hanno evidenziato migliori prestazioni della pompa di calore con i collettori ibridi termo-fotovoltaici, in caso di presenza di elevati valori di irraggiamento solare. Elemento di innovazione dell’impianto sperimentale è l’utilizzo del fluido naturale R744 (CO2) come refrigerante il quale viene sfruttato anche per raffreddare le celle fotovoltaiche comportando in questo modo, un doppio effetto utile all’impianto stesso: miglioramento del rendimento elettrico dei collettori solari e contemporaneamente un incremento della temperatura di evaporazione con conseguente beneficio sulle prestazioni della pompa di calore.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

la gestione ottimale del rischio alluvionale è un ambito di ricerca di grande rilevanza a livello nazionale e internazionale. Con riferimento alle alluvioni, infatti, sono state proposte in letteratura diverse tecniche innovative per la previsione e la mitigazione del rischio alluvionale. Tra di esse spiccano le tecniche speditive di mappatura della pericolosità idraulica ottenute attraverso l'utilizzo di descrittori geomorfici. Detti approcci derivano descrittori morfologici analizzando modelli digitali delle quote del terreno (DEM) ed in base ad essi forniscono una mappatura di pericolosità idraulica da alluvione. Che gioco svolge la risoluzione del DEM di partenza sull'accuratezza dei prodotti finali? La combinazione di DEM a diversa risoluzione migliora le prestazioni dei singoli dataset? Il lavoro di Tesi analizza l'importanza della risoluzione del DEM di partenza sull'accuratezza delle mappature conseguibili, utilizzando come riferimento l'area del bacino del Samoggia con chiusura a Calcara. I risultati ottenuti mostrano come: (a) le caratteristiche dei descrittori geomorfici considerati sembrano essere influenzate significativamente da quelle del DEM utilizzato come dato in ingresso e (b) DEM ad elevata risoluzione portino ad un aumento nell'accuratezza della mappatura di pericolosità.