236 resultados para superalgebre Lie algebre sistemi di radici matrici Cartan diagramma Dynkin gruppo Weyl
Resumo:
This thesis investigates interactive scene reconstruction and understanding using RGB-D data only. Indeed, we believe that depth cameras will still be in the near future a cheap and low-power 3D sensing alternative suitable for mobile devices too. Therefore, our contributions build on top of state-of-the-art approaches to achieve advances in three main challenging scenarios, namely mobile mapping, large scale surface reconstruction and semantic modeling. First, we will describe an effective approach dealing with Simultaneous Localization And Mapping (SLAM) on platforms with limited resources, such as a tablet device. Unlike previous methods, dense reconstruction is achieved by reprojection of RGB-D frames, while local consistency is maintained by deploying relative bundle adjustment principles. We will show quantitative results comparing our technique to the state-of-the-art as well as detailed reconstruction of various environments ranging from rooms to small apartments. Then, we will address large scale surface modeling from depth maps exploiting parallel GPU computing. We will develop a real-time camera tracking method based on the popular KinectFusion system and an online surface alignment technique capable of counteracting drift errors and closing small loops. We will show very high quality meshes outperforming existing methods on publicly available datasets as well as on data recorded with our RGB-D camera even in complete darkness. Finally, we will move to our Semantic Bundle Adjustment framework to effectively combine object detection and SLAM in a unified system. Though the mathematical framework we will describe does not restrict to a particular sensing technology, in the experimental section we will refer, again, only to RGB-D sensing. We will discuss successful implementations of our algorithm showing the benefit of a joint object detection, camera tracking and environment mapping.
Resumo:
Self-organising pervasive ecosystems of devices are set to become a major vehicle for delivering infrastructure and end-user services. The inherent complexity of such systems poses new challenges to those who want to dominate it by applying the principles of engineering. The recent growth in number and distribution of devices with decent computational and communicational abilities, that suddenly accelerated with the massive diffusion of smartphones and tablets, is delivering a world with a much higher density of devices in space. Also, communication technologies seem to be focussing on short-range device-to-device (P2P) interactions, with technologies such as Bluetooth and Near-Field Communication gaining greater adoption. Locality and situatedness become key to providing the best possible experience to users, and the classic model of a centralised, enormously powerful server gathering and processing data becomes less and less efficient with device density. Accomplishing complex global tasks without a centralised controller responsible of aggregating data, however, is a challenging task. In particular, there is a local-to-global issue that makes the application of engineering principles challenging at least: designing device-local programs that, through interaction, guarantee a certain global service level. In this thesis, we first analyse the state of the art in coordination systems, then motivate the work by describing the main issues of pre-existing tools and practices and identifying the improvements that would benefit the design of such complex software ecosystems. The contribution can be divided in three main branches. First, we introduce a novel simulation toolchain for pervasive ecosystems, designed for allowing good expressiveness still retaining high performance. Second, we leverage existing coordination models and patterns in order to create new spatial structures. Third, we introduce a novel language, based on the existing ``Field Calculus'' and integrated with the aforementioned toolchain, designed to be usable for practical aggregate programming.
Resumo:
Information is nowadays a key resource: machine learning and data mining techniques have been developed to extract high-level information from great amounts of data. As most data comes in form of unstructured text in natural languages, research on text mining is currently very active and dealing with practical problems. Among these, text categorization deals with the automatic organization of large quantities of documents in priorly defined taxonomies of topic categories, possibly arranged in large hierarchies. In commonly proposed machine learning approaches, classifiers are automatically trained from pre-labeled documents: they can perform very accurate classification, but often require a consistent training set and notable computational effort. Methods for cross-domain text categorization have been proposed, allowing to leverage a set of labeled documents of one domain to classify those of another one. Most methods use advanced statistical techniques, usually involving tuning of parameters. A first contribution presented here is a method based on nearest centroid classification, where profiles of categories are generated from the known domain and then iteratively adapted to the unknown one. Despite being conceptually simple and having easily tuned parameters, this method achieves state-of-the-art accuracy in most benchmark datasets with fast running times. A second, deeper contribution involves the design of a domain-independent model to distinguish the degree and type of relatedness between arbitrary documents and topics, inferred from the different types of semantic relationships between respective representative words, identified by specific search algorithms. The application of this model is tested on both flat and hierarchical text categorization, where it potentially allows the efficient addition of new categories during classification. Results show that classification accuracy still requires improvements, but models generated from one domain are shown to be effectively able to be reused in a different one.
Resumo:
Il presente studio si concentra sull’analisi degli aspetti traslazionali nella ricerca farmacologica applicata alla Gastroenterologia. La trattazione si articola in due parti: una prima elaborazione teorica, che permette di inquadrare nel contesto della ricerca traslazionale il razionale scientifico ed etico alla base delle attività sperimentali eseguite durante il triennio; una seconda parte, nella quale si riportano i metodi, i risultati e le osservazioni conclusive derivanti dallo studio sperimentale. Nella prima parte vengono analizzate alcune caratteristiche delle procedure, adottate nella ricerca in ambito farmacologico gastrointestinale, che permettono di ottenere un dato verosimile derivabile da modelli diversi rispetto all’organismo umano. Sono inclusi nella trattazione gli aspetti etici dell’utilizzo di alcuni modelli animali di patologie intestinali organiche e funzionali in relazione al loro grado di predittività rispetto alla realtà sperimentale clinica. Nella seconda parte della trattazione, viene presentato uno studio esplorativo tissutale multicentrico sul ruolo del sistema oppioide e cannabinoide nella sindrome dell’intestino irritabile (IBS). Obiettivo dello studio è la valutazione dell’espressione e la localizzazione del recettore oppioide µ (µOR), del suo ligando β endorfina (β-END) e del recettore cannabinoide 2 (CB2) nei pazienti con IBS ad alvo costipato (IBS-C) e diarroico (IBS-D), ed in soggetti sani (HC). I dati ottenuti indicano un’implicazione del sistema oppioide e cannabinoide nella risposta immune alterata riscontrata nei pazienti con IBS ed in particolare nel sottogruppo IBS-C. La presente trattazione suggerisce come la creazione di nuovi sistemi di indagine sempre più validi da un punto di vista traslazionale possa dipendere, almeno in parte, dalla capacità di integrare realtà disciplinari, tecnologie ed esperienze metodologiche diverse nel contesto della ricerca in campo biomedico e farmacologico ed in particolare tramite un mutuo scambio di informazioni tra realtà clinica e ricerca di base
Resumo:
La ricerca svolta ha voluto approfondire le possibilità offerte dai sistemi di allevamento dei vigneti a Doppia Cortina (GDC) e a Cordone Libero nei riguardi della meccanizzazione. La ricerca ha considerato gli interventi di potatura invernale, di gestione della chioma (spollonatura, cimatura, defogliazione e pettinatura della doppia cortina) e di vendemmia. Un’operazione particolarmente seguita è stata la potatura invernale realizzando differenti livelli di meccanizzazione. Tutti gli interventi sono stati eseguiti sia manualmente che meccanicamente, confrontando i tempi d’impiego, la qualità del lavoro svolto e gli impegni di manodopera. I risultati sono stati sintetizzati in una valutazione economica, ipotizzando differenti livelli di costo della manodopera impiegata, per ottenere giudizi di convenienza per i singoli interventi e per costruire una valutazione completa e più organica della linea di lavoro proposta. Nelle due forme d’allevamento la meccanizzazione della potatura invernale e della gestione della chioma hanno rispettato pienamente gli obbiettivi tecnici prefissati, dimostrando di essere un valido mezzo per ridurre tempi e costi di gestione. Per questi interventi l’acquisto delle macchine risulta conveniente anche per vigneti di piccola dimensione. Ancor più evidenti in queste due forme d’allevamento sono i vantaggi economici offerti dalla vendemmia meccanica, realizzata con pochi maltrattamenti e perdite di prodotto. La tendenza a meccanizzare integralmente gli interventi di gestione del ciclo colturale della vite, può essere nei prossimi anni un motivo di interesse e di scelta nella realizzazione di nuovi impianti con queste due forme di allevamento, che hanno dimostrato di essere un’espressione completa di sinergia tra macchina e pianta.
Resumo:
La tesi è organizzata in 4 capitoli: -nel primo vengono brevemente riferite le patologie associate all’infezione da PCV2 con particolare riferimento all’iter diagnostico ed al ruolo rivestito dall’esame istologico e dalla identificazione dell’agente eziologico in situ contestualmente alle lesioni istologiche; -nel secondo viene presentato un iter diagnostico originale da applicare in condizioni di campo, qualora si voglia accertare la presenza del PCV2 nei tessuti dei prodotti di natimortalità/aborto del suino. In specifico si riferisce all’applicazione del protocollo in 2 aziende ed i risultati vengono analizzati per una revisione critica del protocollo impiegato; -nel terzo vengono presentati i risultati di un protocollo di infezione con PCV2 per via genitale tramite seme infetto. Scrofe convenzionali sono state sincronizzate per l’estro e fecondate con un’unica dose di seme PCV2 negativo alla PCR (gruppo controlli) o sperimentalmente esposto al PCV2 (gruppo infette). I risultati vengono analizzati in funzione delle ripercussioni che l’infezione precoce in gravidanza può produrre sulla scrofa (mancata gravidanza, ritorno in calore), sui feti e sugli invogli fetali. Viene stabilito il ruolo protettivo degli anticorpi circolanti al momento dell’infezione, stante l’evenienza che un basso titolo anticorpale si associa a viremia prolungata e maggiore numero di feti positivi al virus; -nel quarto viene presentato un esperimento sovrapponibile a quello riferito nel capitolo 3, però con la presenza anche di un gruppo di soggetti convenzionali vaccinati ed infettati con PCV2 durante la fecondazione artificiale usando seme sperimentalmente esposto al virus. Nella discussione dei risultati vengono enfatizzati 2 aspetti importanti nell’epidemiologia dell’infezione da PCV2: la eliminazione di virus è fortemente ridotta dalla vaccinazione, con conseguenze verosimilmente positive sulla circolazione del virus negli effettivi dell’allevamento; l’esposizione uterina è protetta dalla vaccinazione, stante la bassa percentuale di placente infette nel gruppo dei soggetti vaccinati rispetto a quelli non vaccinati e nei controlli.
Resumo:
L’overespressione dei geni EVI1(3q26) e PRDM16(1p36), è descritta sia in presenza che in assenza di riarrangiamenti 3q26 e 1p36 in specifici sottogruppi citogenetici di LAM, ed è associata ad una prognosi sfavorevole. Lo scopo principale del nostro studio è stato identificare e caratterizzare tramite FISH e RQ-PCR, alterazioni di EVI1 e PRDM16 in pazienti con alterazioni cromosomiche 3q e 1p.Riarrangiamenti di EVI1 si associavano ad alterazioni cromosomiche 3q26, ma, in 6 casi (6/35;17,1%) erano presenti in assenza di coinvolgimenti, in citogenetica convenzionale, della regione 3q26, a causa di meccanismi complessi e/o alterazioni ‘criptiche’. Inoltre, abbiamo identificato quattro nuovi riarrangiamenti di EVI1, tra cui due nuove traslocazioni simili presenti in due fratelli. Riarrangiamenti e/o amplificazioni di PRDM16 erano spesso associate ad alterazioni 1p36 (7/14;50%). L’analisi di EVI1 e PRDM16 è stata estesa ad altri casi con alterazioni -7/7q-, con cariotipo normale, con alterazioni 3q per PRDM16 e con alterazioni 1p per EVI1. L’overespressione di EVI1 era presente solo nel gruppo -7/7q- (10/58;17.2%) ed in un caso si associava ad amplificazione genica, mentre PRDM16 era overespresso in casi di tutti i gruppi analizzati,sia con cariotipi complessi, dove si associava in alcuni casi ad amplificazione genica, sia con cariotipi normali o con singole alterazioni. Il nostro studio dimostra come la FISH permetta di identificare alterazioni dei geni EVI1 e PRDM16, anche in assenza di coinvolgimenti delle regioni 3q26 e 1p36. Riarrangiamenti complessi e/o una scarsa qualità dei preparati citogenetici sono le cause principali per la mancata identificazione di queste alterazioni. La RQ-PCR permette di identificare l’overespressione anche nei casi in cui non sia dovuta ad alterazioni citogenetiche. È importante confermare con FISH e/o RQ-PCR il coinvolgimento di questi due geni, per individuare alla diagnosi pazienti con prognosi sfavorevole e che potranno beneficiare di terapie maggiormente aggressive e/o di trapianto allogenico di cellule staminali.
Resumo:
Recentemente, sempre più attenzione è stata rivolta all' utilizzo di coloranti organici come assorbitori di luce per la preparazione di strati fotoattivi in celle solari organiche (OPV). I coloranti organici presentano un'elevata abilità nella cattura della luce solare grazie all'elevato coefficiente di estinzione molare e buone proprietà fotofisiche. Per questi motivi sono eccellenti candidati per l'incremento della conversione fotoelettrica in OPV. In questa tesi viene descritta una nuova strategia per l'incorporazione di derivati porfirinici in catena laterale a copolimeri tiofenici. Gli studi svolti hanno dimostrato che poli(3-bromoesil)tiofene può essere variamente funzionalizzato con idrossitetrafenilporfirina (TPPOH), per l'ottenimento di copolimeri utilizzabili come materiali p-donatori nella realizzazione di OPV. I copolimeri poli[3-(6-bromoesil)tiofene-co-(3-[5-(4-fenossi)-10,15,20-trifenilporfirinil]esil tiofene] P[T6Br-co-T6TPP] contenenti differenti quantità di porfirina, sono stati sintetizzati sia con metodi non regiospecifici che regiospecifici, con lo scopo di confrontarene le proprietà e di verificare se la strutture macromolecolare che presenta una regiochimica di sostituzione sempre uguale, promuove o meno il trasporto della carica elettrica, migliorando di conseguenza l'efficienza. E' stato inoltre effettuato un ulteriore confronto tra questi derivati e derivati simili P[T6H-co-T6TPP] che non contengono l'atomo di bromo in catena laterale con lo scopo di verificare se l'assenza del gruppo reattivo, migliora o meno la stabilità termica e chimica dei film polimerici, agendo favorevolmete sulle performance dei dispositivi fotovoltaici. Tutti i copolimeri sono stati caratterizzati con differenti tecniche: spettroscopia NMR, FT-IR e UV-Vis, analisi termiche DSC e TGA, e GPC. Le celle solari Bulk Heterojunction, preparate utilizzando PCBM come materiale elettron-accettore e i copolimeri come materilai elettron-donatori, sono state testate utilizzando un multimetro Keithley e il Solar Simulator.
Resumo:
Lo studio è stato condotto su pazienti affetti da carcinoma nasale trattati con radioterapia presso il Centro Oncologico Veterinario (Sasso Marconi, BO). Lo studio, prospettico, randomizzato e in doppio cieco, ha valutato l’efficacia del trattamento radioterapico in combinazione o meno con firocoxib, un inibitore selettivo dell’enzima ciclossigenasi 2 (COX-2). Sono stati inclusi pazienti con diagnosi istologica di carcinoma nasale sottoposti a stadiazione completa. I pazienti sono stati successivamente suddivisi in due gruppi in base alla tipologia di trattamento: radioterapia associata a firocoxib (Gruppo 1) o solo radioterapia (Gruppo 2). Dopo il trattamento, i pazienti sono stati monitorati a intervalli di 3 mesi sia clinicamente che mediante esami collaterali, al fine di valutare condizioni generali del paziente, un’eventuale tossicità dovuta alla somministrazione di firocoxib e la risposta oggettiva al trattamento. Per valutare la qualità di vita dei pazienti durante la terapia, è stato richiesto ai proprietari la compilazione mensile di un questionario. La mediana del tempo libero da progressione (PFI) è stata di 228 giorni (range 73-525) nel gruppo dei pazienti trattati con radioterapia e firocoxib e di 234 giorni (range 50-475) nei pazienti trattati solo con radioterapia. La sopravvivenza mediana (OS) nel Gruppo 1 è stata di 335 giorni (range 74-620) e di 244 giorni (range 85-505) nel Gruppo 2. Non si sono riscontrate differenze significative di PFI e OS tra i due gruppi. La presenza di metastasi ai linfonodi regionali condizionava negativamente PFI e sopravvivenza (P = 0.004). I pazienti trattati con firocoxib hanno mostrato un significativo beneficio in termini di qualità di vita rispetto ai pazienti trattati con sola radioterapia (P=0.008). La radioterapia può essere considerata un’efficace opzione terapeutica per i cani affetti da neoplasie nasali. Firocoxib non sembra migliorare significativamente i tempi di sopravvivenza, ma risulta utile al fine di garantire una migliore qualità di vita.
Resumo:
A livello globale una delle problematiche più urgenti della sanità pubblica umana e veterinaria è rappresentata dal controllo delle infezioni virali. L’emergenza di nuove malattie, la veloce diffusione di patologie finora confinate ad alcune aree geografiche, lo sviluppo di resistenza dei patogeni alle terapie utilizzate e la mancanza di nuove molecole attive, sono gli aspetti che influiscono più negativamente livello socio-economico in tutto il mondo. Misure per limitare la diffusione delle infezioni virali prevedono strategie per prevenire e controllare le infezioni in soggetti a rischio . Lo scopo di questa tesi è stato quello di indagare il possibile utilizzo di prototipi virali utilizzati come modello di virus umani per valutare l’efficacia di due diversi metodi di controllo delle malattie virali: la rimozione mediante filtrazione di substrati liquidi e gli antivirali di sintesi e di origine naturale. Per quanto riguarda la rimozione di agenti virali da substrati liquidi, questa è considerata come requisito essenziale per garantire la sicurezza microbiologica non solo di acqua ad uso alimentare , ma anche dei prodotti utilizzati a scopo farmaceutico e medico. Le Autorità competenti quali WHO ed EMEA hanno redatto delle linee guida molto restrittive su qualità e sicurezza microbiologica dei prodotti biologici per garantire la rimozione di agenti virali che possono essere trasmessi con prodotti utilizzati a scopo terapeutico. Nell'industria biomedicale e farmaceutica c'è l'esigenza di una tecnologia che permetta la rimozione dei virus velocemente, in grande quantità, a costi contenuti, senza alterare le caratteristiche del prodotto finale . La collaborazione con l’azienda GVS (Zola Predosa, Italia) ha avuto come obiettivo lo studio di una tecnologia di filtrazione che permette la rimozione dei virus tramite membrane innovative e/o tessuti-non-tessuti funzionalizzati che sfruttano l’attrazione elettrostatica per ritenere ed asportare i virus contenuti in matrici liquide. Anche gli antivirali possono essere considerati validi mezzi per il controllo delle malattie infettive degli animali e nell’uomo quando la vaccinazione non è realizzabile come ad esempio in caso di scoppio improvviso di un focolaio o di un attacco bioterroristico. La scoperta degli antivirali è relativamente recente ed il loro utilizzo è attualmente limitato alla patologia umana, ma è in costante aumento l’interesse per questo gruppo di farmaci. Negli ultimi decenni si è evidenziata una crescente necessità di mettere a punto farmaci ad azione antivirale in grado di curare malattie ad alta letalità con elevato impatto socio-economico, per le quali non esiste ancora un’efficace profilassi vaccinale. Un interesse sempre maggiore viene rivolto agli animali e alle loro patologie spontanee, come modello di studio di analoghe malattie dell’uomo. L’utilizzo di farmaci ad azione antivirale in medicina veterinaria potrebbe contribuire a ridurre l’impatto economico delle malattie limitando, nel contempo, la disseminazione dei patogeni nell’ambiente e, di conseguenza, il rischio sanitario per altri animali e per l’uomo in caso di zoonosi. Le piante sono sempre state utilizzate dall’industria farmaceutica per l’isolamento dei composti attivi e circa il 40% dei farmaci moderni contengono principi d’origine naturale. Alla luce delle recenti emergenze sanitarie, i fitofarmaci sono stati considerati come una valida per migliorare la salute degli animali e la qualità dei prodotti da essi derivati. L’obiettivo del nostro studio è stato indagare l’attività antivirale in vitro di estratti naturali e di molecole di sintesi nei confronti di virus a RNA usando come prototipo il Canine Distemper Virus, modello di studio per virus a RNA a polarità negativa, filogeneticamente correlato al virus del morbillo umano. La scelta di questo virus è dipesa dal fatto che rispetto ai virus a DNA e ai retrovirus attualmente l’offerta di farmaci capaci di contrastare le infezioni da virus a RNA è molto limitata e legata a molecole datate con alti livelli di tossicità. Tra le infezioni emergenti causate da virus a RNA sono sicuramente da menzionare quelle provocate da arbovirus. Le encefaliti virali da arbovirus rappresentano una emergenza a livello globale ed attualmente non esiste una terapia specifica. Una delle molecole più promettenti in vitro per la terapia delle infezioni da arbovirus è la ribavirina (RBV) che, con il suo meccanismo d’azione pleiotropico, si presta ad essere ulteriormente studiata in vivo per la sua attività antivirale nei confronti delle infezioni da arbovirus. Uno dei fattori limitanti l’utilizzo in vivo di questa molecola è l’incapacità della molecola di oltrepassare la barriera emato-encefalica. Nel nostro studio abbiamo messo a punto una formulazione per la somministrazione endonasale di RBV e ne abbiamo indagato la diffusione dalla cavità nasale all’encefalo attraverso l’identificazione e quantificazione della molecola antivirale nei diversi comparti cerebrali . Infine è stato condotto un esperimento in vivo per valutare l’efficacia di un composto a base di semi di Neem, di cui sono già note le proprietà antimicrobiche, nei confronti dell’infezione da orf virus, una zoonosi a diffusione mondiale, che ha un elevato impatto economico in aree ad alta densità ovi-caprina e può provocare lesioni invalidanti anche nell’uomo.
Resumo:
I moderni sistemi embedded sono equipaggiati con risorse hardware che consentono l’esecuzione di applicazioni molto complesse come il decoding audio e video. La progettazione di simili sistemi deve soddisfare due esigenze opposte. Da un lato è necessario fornire un elevato potenziale computazionale, dall’altro bisogna rispettare dei vincoli stringenti riguardo il consumo di energia. Uno dei trend più diffusi per rispondere a queste esigenze opposte è quello di integrare su uno stesso chip un numero elevato di processori caratterizzati da un design semplificato e da bassi consumi. Tuttavia, per sfruttare effettivamente il potenziale computazionale offerto da una batteria di processoriè necessario rivisitare pesantemente le metodologie di sviluppo delle applicazioni. Con l’avvento dei sistemi multi-processore su singolo chip (MPSoC) il parallel programming si è diffuso largamente anche in ambito embedded. Tuttavia, i progressi nel campo della programmazione parallela non hanno mantenuto il passo con la capacità di integrare hardware parallelo su un singolo chip. Oltre all’introduzione di multipli processori, la necessità di ridurre i consumi degli MPSoC comporta altre soluzioni architetturali che hanno l’effetto diretto di complicare lo sviluppo delle applicazioni. Il design del sottosistema di memoria, in particolare, è un problema critico. Integrare sul chip dei banchi di memoria consente dei tempi d’accesso molto brevi e dei consumi molto contenuti. Sfortunatamente, la quantità di memoria on-chip che può essere integrata in un MPSoC è molto limitata. Per questo motivo è necessario aggiungere dei banchi di memoria off-chip, che hanno una capacità molto maggiore, come maggiori sono i consumi e i tempi d’accesso. La maggior parte degli MPSoC attualmente in commercio destina una parte del budget di area all’implementazione di memorie cache e/o scratchpad. Le scratchpad (SPM) sono spesso preferite alle cache nei sistemi MPSoC embedded, per motivi di maggiore predicibilità, minore occupazione d’area e – soprattutto – minori consumi. Per contro, mentre l’uso delle cache è completamente trasparente al programmatore, le SPM devono essere esplicitamente gestite dall’applicazione. Esporre l’organizzazione della gerarchia di memoria ll’applicazione consente di sfruttarne in maniera efficiente i vantaggi (ridotti tempi d’accesso e consumi). Per contro, per ottenere questi benefici è necessario scrivere le applicazioni in maniera tale che i dati vengano partizionati e allocati sulle varie memorie in maniera opportuna. L’onere di questo compito complesso ricade ovviamente sul programmatore. Questo scenario descrive bene l’esigenza di modelli di programmazione e strumenti di supporto che semplifichino lo sviluppo di applicazioni parallele. In questa tesi viene presentato un framework per lo sviluppo di software per MPSoC embedded basato su OpenMP. OpenMP è uno standard di fatto per la programmazione di multiprocessori con memoria shared, caratterizzato da un semplice approccio alla parallelizzazione tramite annotazioni (direttive per il compilatore). La sua interfaccia di programmazione consente di esprimere in maniera naturale e molto efficiente il parallelismo a livello di loop, molto diffuso tra le applicazioni embedded di tipo signal processing e multimedia. OpenMP costituisce un ottimo punto di partenza per la definizione di un modello di programmazione per MPSoC, soprattutto per la sua semplicità d’uso. D’altra parte, per sfruttare in maniera efficiente il potenziale computazionale di un MPSoC è necessario rivisitare profondamente l’implementazione del supporto OpenMP sia nel compilatore che nell’ambiente di supporto a runtime. Tutti i costrutti per gestire il parallelismo, la suddivisione del lavoro e la sincronizzazione inter-processore comportano un costo in termini di overhead che deve essere minimizzato per non comprometterre i vantaggi della parallelizzazione. Questo può essere ottenuto soltanto tramite una accurata analisi delle caratteristiche hardware e l’individuazione dei potenziali colli di bottiglia nell’architettura. Una implementazione del task management, della sincronizzazione a barriera e della condivisione dei dati che sfrutti efficientemente le risorse hardware consente di ottenere elevate performance e scalabilità. La condivisione dei dati, nel modello OpenMP, merita particolare attenzione. In un modello a memoria condivisa le strutture dati (array, matrici) accedute dal programma sono fisicamente allocate su una unica risorsa di memoria raggiungibile da tutti i processori. Al crescere del numero di processori in un sistema, l’accesso concorrente ad una singola risorsa di memoria costituisce un evidente collo di bottiglia. Per alleviare la pressione sulle memorie e sul sistema di connessione vengono da noi studiate e proposte delle tecniche di partizionamento delle strutture dati. Queste tecniche richiedono che una singola entità di tipo array venga trattata nel programma come l’insieme di tanti sotto-array, ciascuno dei quali può essere fisicamente allocato su una risorsa di memoria differente. Dal punto di vista del programma, indirizzare un array partizionato richiede che ad ogni accesso vengano eseguite delle istruzioni per ri-calcolare l’indirizzo fisico di destinazione. Questo è chiaramente un compito lungo, complesso e soggetto ad errori. Per questo motivo, le nostre tecniche di partizionamento sono state integrate nella l’interfaccia di programmazione di OpenMP, che è stata significativamente estesa. Specificamente, delle nuove direttive e clausole consentono al programmatore di annotare i dati di tipo array che si vuole partizionare e allocare in maniera distribuita sulla gerarchia di memoria. Sono stati inoltre sviluppati degli strumenti di supporto che consentono di raccogliere informazioni di profiling sul pattern di accesso agli array. Queste informazioni vengono sfruttate dal nostro compilatore per allocare le partizioni sulle varie risorse di memoria rispettando una relazione di affinità tra il task e i dati. Più precisamente, i passi di allocazione nel nostro compilatore assegnano una determinata partizione alla memoria scratchpad locale al processore che ospita il task che effettua il numero maggiore di accessi alla stessa.
Resumo:
La demolizione idrolitica delle pareti cellulari delle piante tramite enzimi lignocellulosici è quindi uno degli approcci più studiati della valorizzazione di scarti agricoli per il recupero di fitochimici di valore come secondary chemical building block per la chimica industriale. White rot fungi come il Pleurotus ostreatus producono una vasta gamma di enzimi extracellulari che degradano substrati lignocellulosici complessi in sostanze solubili per essere utilizzati come nutrienti. In questo lavoro abbiamo studiato la produzione di diversi tipi di enzimi lignocellulosici quali cellulase, xilanase, pectinase, laccase, perossidase e arylesterase (caffeoilesterase e feruloilesterase), indotte dalla crescita di Pleurotus ostreatus in fermentazione allo stato solido (SSF) di sottoprodotti agroalimentari (graspi d’uva, vinaccioli, lolla di riso, paglia di grano e crusca di grano) come substrati. Negli ultimi anni, SSF ha ricevuto sempre più interesse da parte dei ricercatori, dal momento che diversi studi per produzioni di enzimi, aromi, coloranti e altre sostanze di interesse per l' industria alimentare hanno dimostrato che SSF può dare rendimenti più elevati o migliorare le caratteristiche del prodotto rispetto alla fermentazione sommersa. L’utilizzo dei sottoprodotti agroalimentari come substrati nei processi SSF, fornisce una via alternativa e di valore, alternativa a questi residui altrimenti sotto/o non utilizzati. L'efficienza del processo di fermentazione è stato ulteriormente studiato attraverso trattamenti meccanici di estrusione del substrato , in grado di promuovere il recupero dell’enzima e di aumentare l'attività prodotta. Le attività enzimatiche prodotte dalla fermentazione sono strettamente dipendente della rimozione periodica degli enzimi prodotti. Le diverse matrici vegetali utilizzate hanno presentato diversi fenomeni induttivi delle specifiche attività enzimatiche. I processi SSF hanno dimostrato una buona capacità di produrre enzimi extracellulari in grado di essere utilizzati successivamente nei processi idrolitici di bioraffinazione per la valorizzazione dei prodotti agroalimentari.