646 resultados para intelligenza artificiale orario sistemi basati sulla conoscenza
Resumo:
Nella seguente tesi sono stati affrontati differenti protocolli di purificazione di componenti della DNA polimerasi III di Escherichia coli, previamente sovraespressi nel microrganismo. A distanza di oltre 20 anni dall’identificazione della DNA polimerasi III quale enzima responsabile della replicazione del genoma di E. coli, sono stati fatti progressi riguardo la sua conoscenza. Tuttavia molti sono gli aspetti rimasti incogniti riguardo al meccanismo d’azione dell’enzima, così come il ruolo svolto dalle sue subunità e parte della loro struttura. Al fine di migliorare la comprensione di questo enzima, è necessario insistere sulla diffrattometria di raggi X, per la quale è indispensabile l’isolamento di cristalli delle proteine. Si intuisce la necessità di sviluppare metodi appropriati che consentano di ottenere una resa il più possibile elevata dei suoi componenti. Una metodica generale per la sovraespressione del core catalitico e della singola subunità α, deputata all’attività polimerasica a carico di entrambi i filamenti di DNA, era già stata perfezionata presso il laboratorio ospitante. Con il presente lavoro sono stati sperimentati alcuni procedimenti, volti ad aumentare la resa di purificazione, adottando differenti soluzioni. In primo luogo, si è cercato di recuperare le proteine contenute nel flow through eluito da una colonna cromatografica Q-Sepharose, alla quale non erano riuscite a legarsi durante il primo stadio di purificazione. Inoltre, sono stati sperimentati metodi alternativi di lisi cellulare di estrazione delle proteine. In sintesi, il contenuto della tesi potrebbe agevolare la valutazione di diverse strategie per incrementare la resa di purificazione della subunità α e del core polimerasico della DNA Polimerasi III di E. coli.
Resumo:
Testing e Analisi di problemi di usabilità che potrebbero sorgere se due sistemi venissero integrati in un unico nuovo sistema.
Resumo:
La presente ricerca consiste nel validare ed automatizzare metodiche di Adaptive Radiation Therapy (ART), che hanno come obiettivo la personalizzazione continua del piano di trattamento radioterapico in base alle variazioni anatomiche e dosimetriche del paziente. Tali variazioni (casuali e/o sistematiche) sono identificabili mediante l’utilizzo dell’imaging diagnostico. Il lavoro svolto presso la struttura di Fisica Medica dell’Azienda Ospedaliera Universitaria del Policlinico di Modena, si inserisce in un progetto del Ministero della Salute del bando Giovani Ricercatori dal titolo: “Dose warping methods for IGRT and ADAPTIVERT: dose accumulation based on organ motion and anatomical variations of the patients during radiation therapy treatments”. Questa metodica si sta affermando sempre più come nuova opportunità di trattamento e, per tale motivo, nasce l’esigenza di studiare e automatizzare processi realizzabili nella pratica clinica, con un utilizzo limitato di risorse. Si sono sviluppati script che hanno permesso l’automazione delle operazioni di Adaptive e deformazioni, raccogliendo i dati di 51 pazienti sottoposti a terapia mediante Tomotherapy. L’analisi delle co-registrazioni deformabili delle strutture e delle dosi distribuite, ha evidenziato criticità del software che hanno reso necessario lo sviluppo di sistemi di controllo dei risultati, per facilitare l’utente nella revisione quotidiana dei casi clinici. La letteratura riporta un numero piuttosto limitato di esperienze sulla validazione e utilizzo su larga scala di questi tools, per tale motivo, si è condotto un esame approfondito della qualità degli algoritmi elastici e la valutazione clinica in collaborazione di fisici medici e medici radioterapisti. Sono inoltre stati sviluppati principi di strutturazione di reti Bayesiane, che consentono di predirre la qualità delle deformazioni in diversi ambiti clinici (H&N, Prostata, Polmoni) e coordinare il lavoro quotidiano dei professionisti, identificando i pazienti, per i quali sono apprezzabili variazioni morfo-dosimetriche significative. Da notare come tale attività venga sviluppata automaticamente durante le ore notturne, sfruttando l’automation come strumento avanzato e indipendente dall’operatore. Infine, il forte sviluppo, negli ultimi anni della biomeccanica applicata al movimento degli organi (dimostrato dalla numerosa letteratura al riguardo), ha avuto come effetto lo sviluppo, la valutazione e l’introduzione di algoritmi di deformazione efficaci. In questa direzione, nel presente lavoro, si sono analizzate quantitivamente le variazioni e gli spostamenti delle parotidi, rispetto all’inizio del trattamento, gettando le basi per una proficua linea di ricerca in ambito radioterapico.
Resumo:
La ludicizzazione (deriv. Gamification) è l’utilizzo delle dinamiche proprie dei giochi, quali livelli, punti o premi, in contesti che, senza di essa, non avrebbero alcuna caratteristica di tipo ludico. Il suo principale scopo è quello di ridurre la percezione di compiere azioni noiose, routinarie e ripetitive focalizzando l'attenzione sul maggiore coinvolgimento e divertimento degli utenti. Il campo di applicazione della ludicizzazione è potenzialmente sconfinato. Sono numerose le aziende che investono su processi di produzione mirati all'attribuzione di una caratteristica ludica ai propri prodotti, allo scopo di aumentare la soddisfazione e la fedeltà dei clienti finali. In questo senso, anche il settore del turismo ha iniziato ad introdurre strumenti e tecnologie "ludicizzate", in grado di valorizzare maggiormente le risorse monumentali e fornire al turista un'esperienza completamente nuova e rinnovata. Il presente studio analizza in primis gli aspetti fondamentali del processo di ludicizzazione di un generico sistema o prodotto. Nella seconda parte dell'elaborato, invece, viene illustrata l'applicazione di tali principi per la progettazione di un'applicazione Android il cui scopo è fornire una guida interattiva della città di Bologna basata sulla ludicizzazione.
Resumo:
La tesi descrive come si è arrivati dal baratto ai sistemi di monete virtuali, attraverso l'evoluzione dei sistemi bancari e dell'IT. Inoltre viene mostrata l'implementazione del protocollo Bitcoin.
Resumo:
E’ previsto che l’emissione in atmosfera di anidride carbonica (CO2) da parte dell’uomo e la conseguente acidificazione delle acque dei mari provocherà effetti negativi di vasta portata sui processi biologici di diversi ecosistemi marini. L’acidificazione del mare può provocare effetti negativi su tutti gli stadi del ciclo vitale degli organismi marini, influenzandone la fisiologia, morfologia, comportamento ed alcune fasi della riproduzione e del reclutamento. Esistono poche informazioni riguardo gli effetti dell’acidificazione sulla riproduzione sessuale dei coralli. Questo studio ha lo scopo di quantificare la capacità riproduttiva di Astroides calycularis (scleractinia coloniale mediterranea azooxantellata) in colonie trapiantate lungo un gradiente naturale di pH, generato dalle emissioni di CO2 del cratere vulcanico sottomarino di Panarea (Isole Eolie). Le colonie sono state trapiantate in 4 siti, dal centro del cratere, dove si riscontra la condizione più acida (pH 7.40), alla periferia, caratterizzata da condizioni di pH normali (pH 8.07). La popolazione di A. calycularis di Panarea ha mostrato una sessualità mista a livello coloniale (polipi gonocorici in colonie ermafrodite), in contrapposizione alla condizione gonocorica riscontrata nella stessa specie studiata a Palinuro e a Punta de la Mona (Spagna). I risultati preliminari sembrerebbero mostrare un effetto negativo dell’acidificazione sullo sviluppo gonadico femminile della specie. L’ipotesi è che esso sia dovuto ad una riallocazione delle energie sui processi di calcificazione a danno dell’ovogenesi. La spermatogenesi risentirebbe meno degli effetti negativi dell’acidificazione nelle fasi di sviluppo interne all’ individuo, in quanto meno dispendiose da un punto di vista energetico rispetto alle fasi di ovogenesi. Gli spermatozoi potrebbero invece essere influenzati negativamente dall’ ambiente più acido una volta entrati in contatto con esso, con conseguenze sulla riuscita della fecondazione. Questo studio necessita di ulteriori dati e verrà completato con le analisi istologiche in corso.
Resumo:
Il presente lavoro e’ stato svolto nell'ambito della collaborazione NUCLEX, esperimento della Commissione Nazionale 3 dell'INFN per lo studio della dinamica delle reazioni nucleari indotte da ioni pesanti. In particolare l'oggetto della tesi riguarda l'analisi della competizione fra i diversi processi di emissione di particelle cariche leggere da sistemi composti. Piu’ precisamente in questa tesi si studiano e si confrontano le emissioni da sorgenti equilibrate e di pre-equilibrio di particelle alfa e protoni per due diverse reazioni di fusione, 16O +65Cu a 256 MeV e 19F +62Ni a 304 MeV, che portano entrambe alla formazione del nucleo composto 81Rb. I due sistemi sono stati scelti in modo da avere una reazione indotta da un proiettile costituito da un numero intero di particelle alfa (alfa-cluster) (16O) ed una seconda indotta da un proiettile non alfa cluster (19F), con la medesima energia del fascio (16 MeV/n). Lo scopo e’ di cercare evidenze sulla struttura a cluster di alfa dei nuclei con numero di massa A multiplo di 4 ed N=Z. Allo scopo di evidenziare i contributi delle diverse sorgenti di emissione delle particelle si e’ appli- cata la tecnica del Moving Source Fit agli spettri delle particlelle emesse e rivelate con l'apparato GARFIELD in coincidenza con i residui di evaporazione misurati tramite il rivelatore anulare Ring Counter. I risultati sperimentali ottenuti applicando la tecnica del Moving Source Fit ai nostri dati sperimentali sono interessanti e sembrano contraddire la maggiore emissione di particelle alfa da parte del sistema con proiettile a struttura alfa-cluster 16O. Le possibili ipotesi alla base di questo risultato abbastanza sorprendente sono tuttora in fase di discussione e saranno oggetto di ulteriori verifiche tramite lo studio di correlazioni piu’ esclusive e confronto con modelli di pre-equilibrio complessi.
Resumo:
L'elaborato introduce i concetti di Big Data, Cloud Computing e le tipologie di paradigmi basati sul calcolo parallelo. Trasformando questi concetti in pratica tramite un caso di studio sui Big Data. Nell'elaborato si spiega l'architettura proposta per l'elaborazione di report in formato pdf. Analaizando in fine i risultati ottenuti.
Resumo:
Il presente lavoro di tesi si è svolto in collaborazione con il Consiglio Nazionale delle Ricerche - Istituto di Ricerca per la Protezione Idrogeologica di Padova CNR IRPI. Questo elaborato è finalizzato allo studio dei dissesti per frana che coinvolgono le opere d’arte stradali della S.S. 52 Carnica nella zona del Passo della Morte, tra i comuni di Forni di Sotto e Ampezzo, in provincia di Udine. La presenza di un’arteria viaria di primaria importanza, qual è la strada statale 52 Carnica che collega le province di Udine e Belluno, ha reso necessario un accurato studio idrogeologico. Lo studio mira principalmente ad individuare una possibile relazione tra la sorgente sita all’interno della Galleria di S. Lorenzo S.S. 52 e la galleria drenante posta al di sotto di quest’ultima per permettere la progettazione di eventuali ulteriori opere di mitigazione del rischio da frana. Il lavoro è suddiviso in tre parti: la prima, introduttiva, include una caratterizzazione geografica, geologica e morfologica dell’area di studio. La seconda descrive l’opera in esame - la galleria di S. Lorenzo S.S. 52 Carnica - e le criticità derivanti dalla complessità dell’area. Infine, la terza, fondamentale, comprende un studio idrogeologico svolto raccogliendo sul campo i dati indispensabili alle ricerche. La metodologia è caratterizzata da un’analisi statistica basata sulla cross-correlazione tra i dati di precipitazione e quelli di portata in continuo della sorgente e della galleria drenante. Infine, a fronte dei dati ottenuti, si è ricavato un modello concettuale dei complessi fenomeni idrogeologici che si sviluppano nell’area di Passo della Morte.
Resumo:
Quando la probabilità di misurare un particolare valore di una certa quantità varia inversamente come potenza di tale valore, il quantitativo è detto come seguente una power-law, conosciuta anche come legge di Zipf o distribuzione di Pareto. Obiettivo di questa tesi sarà principalmente quello di verificare se il campione esteso di imprese segue la power-law (e se sì, in che limiti). A tale fine si configureranno i dati in un formato di rete monomodale, della quale si studieranno alcune macro-proprietà di struttura a livllo complessivo e con riferimento alle componenti (i singoli subnet distinti) di maggior dimensione. Successivamente si compiranno alcuni approfondimenti sulla struttura fine di alcuni subnet, essenzialmente rivolti ad evidenziare la potenza di unapproccio network-based, anche al fine di rivelare rilevanti proprietà nascoste del sistema economico soggiacente, sempre, ovviamente, nei limiti della modellizzazione adottata. In sintesi, ciò che questo lavoro intende ottenere è lo sviluppo di un approccio alternativo al trattamento dei big data a componente relazionale intrinseca (in questo caso le partecipazioni di capitale), verso la loro conversione in "big knowledge": da un insieme di dati cognitivamente inaccessibili, attraverso la strutturazione dell'informazione in modalità di rete, giungere ad una conoscenza sufficientemente chiara e giustificata.
Resumo:
L'obbiettivo che ci poniamo con questa tesi è quello di esplorare il mondo del Cloud Computing, cercando di capire le principali caratteristiche architetturali e vedere in seguito i componenti fondamentali che si occupano di trasformare una infrastruttura informatica in un'infrastruttura cloud, ovvero i Cloud Operating System.
Resumo:
A causa delle complesse problematiche ambientali e in accordo con gli obiettivi della legislazione internazionale e comunitaria, le aziende sempre più frequentemente adottano sistemi di gestione per miglioramento continuo delle proprie prestazioni ambientali. La tesi si pone come obiettivo l’analisi dell’efficienza energetica di una grande azienda del settore alimentare: sono state valutate le prestazioni in relazione agli impianti di produzione di energia e i consumi di energia dei singoli reparti di lavorazione e impianti; per ogni reparto sono stati inoltre analizzati dati e indicatori di tipo generale e puntuale, sulla base delle indicazioni riportate nella norma CEI EN ISO 50001: 2011. I risultati mostrano che i reparti di produzione energetica operano in assetto di Cogenerazione ad Alto Rendimento e che negli ultimi due anni si è registrata una riduzione delle emissioni di CO2 rispetto ai MWh prodotti; dal 2008 al 2013 si è assistito ad un trend di aumento dei consumi di energia elettrica rispetto ai prodotti realizzati, a differenza dei consumi di energia termica. Infine sulla base delle priorità di intervento individuate, è stato creato un piano d’azione teso al miglioramento delle performance energetiche. Inoltre la tesi si pone l’obiettivo di creare e applicare un metodo per calcolare la significatività degli aspetti ambientali dell’azienda, al fine di valutare gli impatti associati, in modo da permetterne una classificazione e da individuare le priorità di intervento per il miglioramento delle performance ambientali, in accordo con la norma UNI EN ISO 14001: 2004. Il metodo è stato progettato sulla base di dati aziendali e in modo da garantire oggettività, modulabilità e ripetibilità nella maggiore misura possibile; tale metodo è stato applicato ad un reparto di lavorazione e ha permesso di classificare gli aspetti ambientali, individuando le priorità di intervento, quali consumi idrici ed energetici.
Resumo:
Descrizione della metodologia e dei principali calcoli svolti per la valutazione della sicurezza di Palazzo Giolo Golfarelli attuale facoltà di Lettere e Filosofia, via Zamboni 38.
Resumo:
In questa tesi vengono analizzati gli algoritmi DistributedSolvingSet e LazyDistributedSolvingSet e verranno mostrati dei risultati sperimentali relativi al secondo.
Resumo:
Scopo della tesi è la realizzazione di rilievi fitosociologici nel SIC “IT4080008 Balze di Verghereto, Monte Fumaiolo, Ripa della Moia” (provincia di Forlì-Cesena). Il gruppo montuoso del Monte Fumaiolo, posto al confine tra le Vallate del Savio e del Tevere, è stato proposto nel 1995 come Sito di Importanza Comunitaria. E' un'area colonizzata già nell'antichità dall'uomo e comprende una grande estensione di pascoli montani, con rupi calcaree e rilievi comprendenti faggete, abetine artificiali, rimboschimenti e prati pascoli. Nell'ambito di una ricerca sulla distribuzione degli habitat di maggior pregio in questo sito sono stati realizzati campionamenti, basati sul metodo Braun Blanquet, nel periodo tra Lunglio e Settembre 2013. I dati raccolti sono stati successivamente elaborati tramite software Matlab versione 7.10.0.282 creando due dendrogrammi allo scopo di descrivere sia la qualità naturale del SIC, sia dal punto di vista degli habitat. Dalle informazioni raccolte è stata possibile la definizione di due tipologie di vegetazione: le formazioni forestali e gli ambienti aperti. I risultati mostrano 57 rilievi inerenti ai boschi divisi in ulteriori sottogruppi rappresentanti boschi a faggio, situazioni miste con Fagus sylvatica e Abies alba, querceti misti e rimboschimenti a Pinus nigra. I 27 rilievi degli ambienti aperti mostrano invece una predominanza di prati-pascolo e pascoli con situazioni di evoluzione ad arbusteti a Cytisus scoparius e Juniperus communis. Sono state campionate anche le vegetazioni a succulente presenti su affioramenti rocciosi. Le informazioni ottenute ed elaborate possono essere utili per studi futuri e per la creazione di una carta fitosociologica sulla base dei rilievi effettuati e della pregressa carta della vegetazione su base fisionomica (Barlotti 2013).