778 resultados para Algebre monounarie, ordine, classificazione


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dopo aver introdotto l'argomento della certificazione energetica attraverso l'analisi delle direttive europee in materia, delle legislazioni nazionali, dei regolamenti regionali e delle procedure di calcolo (ITACA, LEED, etc.) si passa poi allo studio di un caso reale, la Masseria Sant'Agapito. All'inquadramento della masseria e delle attività connesse, segue un focus sull'edificio attualmente adibito a b&b, del quale si esegue la diagnosi sperimentale (termografia all'infrarosso, test di tenuta, etc.) e la certificazione con l'ausilio del software DOCET di ENEA. Si delineano quindi interventi atti alla riqualificazione energetica e alla riduzione dei consumi per tale edificio. In seguito si ipotizza un progetto di recupero funzionale, da attuarsi secondo i criteri della conservazione dell'esistente e della bioedilizia, impiegando materiali naturali e con un ciclo di vita a basso impatto ecologico. Alla progettazione d'involucro, segue la progettazione dell'impianto termico alimentato a biomassa, degli impianti solare termico (autocostruito) e fotovoltaico (inegrato in copertura) e del generatore mini-eolico. Tali tecnologie consentono, attraverso l'impiego di fonti di energia rinnovabile, la totale autosufficienza energetica e l'abbattimento delle emissioni climalteranti riferibili all'esercizio dell'edificio. La certificazione energetica di tale edificio, condotta questa volta con l'ausilio del software TERMUS di ACCA, consente una classificazione nella categoria di consumo "A".

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il medulloblastoma (MB) è il tumore più comune del sistema nervoso centrale. Attualmente si riesce a curare solo il 50-60% dei pazienti che tuttavia presentano gravi effetti collaterali dovuti alle cure molto aggressive. Una recente classificazione molecolare ha ridistribuito le varianti più comuni di MB in quattro distinti gruppi. In particolare, il gruppo SHH e D sono caratterizzati da un’ alta espressione di MYCN ed associati a prognosi sfavorevole. MYCN è coinvolto nella regolazione della proliferazione cellulare, differenziazione, apoptosi, angiogenesi e metastasi. L’obiettivo di questo lavoro è la valutazione dell’attività antitumorale di oligonucleotidi diretti contro MYCN, sia in vitro su diverse linee cellulari di MB che in vivo in modelli murini xenograft ortotopici di MB. I risultati hanno dimostrato un’ottima inibizione della crescita in linee cellulari di MB, accompagnata da una riduzione della trascrizione genica e dei livelli proteici di MYCN. Inoltre, sono stati confermati tramite RT-PCR alcuni dei geni trovati significativamente variati nell’esperimento di microarray , dopo il trattamento. Molto interessanti sono stati geni quali BIRC5, che risulta down regolato mentre il gene p21 risulta up regolato in tutte le linee cellulari di MB utilizzate. Inoltre, sono stati generati modelli murini di MB utilizzando cellule precedentemente trasfettate per esprimere il gene della luciferasi e valutarne così la crescita tumorale tramite imaging bioluminescente in vivo (BLI), al fine di poter testare l’attività antitumorale data dagli oligonucleotidi. I risultati hanno dimostrato una buona risposta al trattamento come rilevato dalla tecnica di BLI. I dati preliminari prodotti, dimostrano che MYCN potrebbe esser un buon target per la terapia del MB nei casi in cui è overespresso. In particolare, una sua inibizione potrebbe presentare effetti indesiderati moderati in quanto è poco espresso dopo la nascita.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il citofluorimetro è uno strumento impiegato in biologia genetica per analizzare dei campioni cellulari: esso, analizza individualmente le cellule contenute in un campione ed estrae, per ciascuna cellula, una serie di proprietà fisiche, feature, che la descrivono. L’obiettivo di questo lavoro è mettere a punto una metodologia integrata che utilizzi tali informazioni modellando, automatizzando ed estendendo alcune procedure che vengono eseguite oggi manualmente dagli esperti del dominio nell’analisi di alcuni parametri dell’eiaculato. Questo richiede lo sviluppo di tecniche biochimiche per la marcatura delle cellule e tecniche informatiche per analizzare il dato. Il primo passo prevede la realizzazione di un classificatore che, sulla base delle feature delle cellule, classifichi e quindi consenta di isolare le cellule di interesse per un particolare esame. Il secondo prevede l'analisi delle cellule di interesse, estraendo delle feature aggregate che possono essere indicatrici di certe patologie. Il requisito è la generazione di un report esplicativo che illustri, nella maniera più opportuna, le conclusioni raggiunte e che possa fungere da sistema di supporto alle decisioni del medico/biologo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il termine cloud ha origine dal mondo delle telecomunicazioni quando i provider iniziarono ad utilizzare servizi basati su reti virtuali private (VPN) per la comunicazione dei dati. Il cloud computing ha a che fare con la computazione, il software, l’accesso ai dati e servizi di memorizzazione in modo tale che l’utente finale non abbia idea della posizione fisica dei dati e la configurazione del sistema in cui risiedono. Il cloud computing è un recente trend nel mondo IT che muove la computazione e i dati lontano dai desktop e dai pc portatili portandoli in larghi data centers. La definizione di cloud computing data dal NIST dice che il cloud computing è un modello che permette accesso di rete on-demand a un pool condiviso di risorse computazionali che può essere rapidamente utilizzato e rilasciato con sforzo di gestione ed interazione con il provider del servizio minimi. Con la proliferazione a larga scala di Internet nel mondo le applicazioni ora possono essere distribuite come servizi tramite Internet; come risultato, i costi complessivi di questi servizi vengono abbattuti. L’obbiettivo principale del cloud computing è utilizzare meglio risorse distribuite, combinarle assieme per raggiungere un throughput più elevato e risolvere problemi di computazione su larga scala. Le aziende che si appoggiano ai servizi cloud risparmiano su costi di infrastruttura e mantenimento di risorse computazionali poichè trasferiscono questo aspetto al provider; in questo modo le aziende si possono occupare esclusivamente del business di loro interesse. Mano a mano che il cloud computing diventa più popolare, vengono esposte preoccupazioni riguardo i problemi di sicurezza introdotti con l’utilizzo di questo nuovo modello. Le caratteristiche di questo nuovo modello di deployment differiscono ampiamente da quelle delle architetture tradizionali, e i meccanismi di sicurezza tradizionali risultano inefficienti o inutili. Il cloud computing offre molti benefici ma è anche più vulnerabile a minacce. Ci sono molte sfide e rischi nel cloud computing che aumentano la minaccia della compromissione dei dati. Queste preoccupazioni rendono le aziende restie dall’adoperare soluzioni di cloud computing, rallentandone la diffusione. Negli anni recenti molti sforzi sono andati nella ricerca sulla sicurezza degli ambienti cloud, sulla classificazione delle minacce e sull’analisi di rischio; purtroppo i problemi del cloud sono di vario livello e non esiste una soluzione univoca. Dopo aver presentato una breve introduzione sul cloud computing in generale, l’obiettivo di questo elaborato è quello di fornire una panoramica sulle vulnerabilità principali del modello cloud in base alle sue caratteristiche, per poi effettuare una analisi di rischio dal punto di vista del cliente riguardo l’utilizzo del cloud. In questo modo valutando i rischi e le opportunità un cliente deve decidere se adottare una soluzione di tipo cloud. Alla fine verrà presentato un framework che mira a risolvere un particolare problema, quello del traffico malevolo sulla rete cloud. L’elaborato è strutturato nel modo seguente: nel primo capitolo verrà data una panoramica del cloud computing, evidenziandone caratteristiche, architettura, modelli di servizio, modelli di deployment ed eventuali problemi riguardo il cloud. Nel secondo capitolo verrà data una introduzione alla sicurezza in ambito informatico per poi passare nello specifico alla sicurezza nel modello di cloud computing. Verranno considerate le vulnerabilità derivanti dalle tecnologie e dalle caratteristiche che enucleano il cloud, per poi passare ad una analisi dei rischi. I rischi sono di diversa natura, da quelli prettamente tecnologici a quelli derivanti da questioni legali o amministrative, fino a quelli non specifici al cloud ma che lo riguardano comunque. Per ogni rischio verranno elencati i beni afflitti in caso di attacco e verrà espresso un livello di rischio che va dal basso fino al molto alto. Ogni rischio dovrà essere messo in conto con le opportunità che l’aspetto da cui quel rischio nasce offre. Nell’ultimo capitolo verrà illustrato un framework per la protezione della rete interna del cloud, installando un Intrusion Detection System con pattern recognition e anomaly detection.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro di ricerca prende le mosse da una premessa di ordine economico. Il fenomeno delle reti di impresa, infatti, nasce dalla realtà economica dei mercati. In tale contesto non può prescindere dal delineare un quadro della situazione- anche di crisi- congiunturale che ha visto coinvolte specialmente le imprese italiane. In tale prospettiva, si è reso necessario indagare il fenomeno della globalizzazione, con riferimento alle sue origini,caratteristiche e conseguenze. Ci si sofferma poi sulla ricostruzione dogmatica del fenomeno. Si parte dalla ricostruzione dello stesso in termini di contratto plurilaterale- sia esso con comunione di scopo oppure plurilaterale di scambio- per criticare tale impostazione, non del tutto soddisfacente, in quanto ritenuto remissiva di fronte alla attuale vis espansiva del contratto plurilaterale. Più convincente appare lo schema del collegamento contrattuale, che ha il pregio di preservare l’autonomia e l’indipendenza degli imprenditori aderenti, pur inseriti nel contesto di un’operazione economica unitaria, volta a perseguire uno scopo comune, l’“interesse di rete”, considerato meritevole di tutela secondo l’ordinamento giuridico ex art. 1322 2.co. c.c. In effetti il contratto ben si presta a disegnare modelli di rete sia con distribuzione simmetrica del potere decisionale, sia con distribuzione asimmetrica, vale a dire con un elevato livello di gerarchia interna. Non può d’altra parte non ravvisarsi un’affinità con le ipotesi di collegamento contrattuale in fase di produzione, consistente nel delegare ad un terzo parte della produzione, e nella fase distributiva, per cui la distribuzione avviene attraverso reti di contratti. Si affronta la materia della responsabilità della rete, impostando il problema sotto due profili: la responsabilità interna ed esterna. La prima viene risolta sulla base dell’affidamento reciproco maturato da ogni imprenditore. La seconda viene distinta in responsabilità extracontrattuale, ricondotta nella fattispecie all’art. 2050 c.c., e contrattuale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le patologie di pertinenza odontostomatologica in pazienti adulti istituzionalizzati affetti da disabilità neuropsichiatrica presentano un’alta prevalenza; scopo del presente lavoro è stato la valutazione della prevalenza di carie (DMFT, SIC) e lo stato di igiene orale (OHI-S) in un gruppo di 103 (72 maschi, 31 femmine, età media 51) pazienti degli Istituti del P.O. Corberi e della RSD Beato Papa Giovanni XIII di Limbiate (MB). E’ stato valutata la collaborazione alla visita con la scala di Frankl, si è definito lo stato funzionale del paziente, in base alla Classificazione Internazionale del Funzionamento, della Disabilità e della Salute (ICF) e si è valutata con un questionario la motivazione degli operatori sanitari a stili di salute orale. Lo studio ha evidenziato un DMFT medio pari a 16,14 e SIC pari a 23,8, valori non correlabili con l'età del soggetto. L’OHI-S medio è pari a 3,46, dato che si presenza correlato con il tempo intercorso dall’ultima visita odontoiatrica. Dal confronto con un gruppo di soggetti sani della stessa età risultano significativamente più elevati i valori della componente (M) e (F) del DMFT e di tutte le componenti dell’OHI-S. Il campione è stato diviso in due gruppi a seconda della loro pregressa collaborazione al trattamento odontoiatrico e sono stati confrontati i dati ricavati dalla checklist ICF. Il gruppo collaborante ha mostrato livelli di funzionalità superiori per quanto riguarda le capacità di osservare, parlare e l’assistenza personale. Dalle risposte del personale socio-sanitario ermerge scarsa informazione sulle tecniche di igiene orale domiciliare quotidiana del paziente assistito. I risultati di questo studio confermano l'alta prevalenza di carie e scarsa igiene orale in soggetti istituzionalizzati con disabilità neuropsichiatrica. L'ICF si è dimostrata una utile guida per la valutazione dell�approccio comportamentale più idoneo in fase di trattamento. Infine, si evidenzia l’importanza di una formazione continua degli operatori socio-sanitari.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La studio dell’efficienza di un indice azionario ha accresciuto la propria importanza nell’industria dell’asset management a seguito della diffusione dell’utilizzo di benchmark e investimenti indicizzati. Il presente lavoro valuta il livello di efficienza dei principali indici del mercato azionario statunitense, dell’Area Euro e italiano. Lo studio empirico ricorre a quattro misure di efficienza: il GRS, un test small-sample multivariato fondato sul CAPM; il test large sample di Wald, implementato tramite una simulazione bootstrap; il test GMM, che è stato applicato in una cornice non-gaussiana attraverso una simulazione block bootstrap; la misura di efficienza relativa di Kandel e Stambaugh. I risultati empirici forniscono una prova evidente della superiore efficienza degli indici equiponderati. Questa conclusione è interpretata sulla base della letteratura scientifica esistente, analizzando le diverse cause di ordine teorico ed empirico che sono state proposte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I linfomi primitivi cutanei riconosciuti nella classificazione della WHO/EORTC si presentano come “entità cliniche distinte” su base clinica, morfologica, immunofenotipica e molecolare. Il fenotipo linfocitario T helper CD4+ caratterizza i CTCL, ma alcune entità a prognosi aggressiva presentano un immunofenotipo citotossico CD8+. Numerosi studi di citogenetica (CGH) e gene-expression profiling (GEP) sono stati condotti negli ultimi anni sui CTCL e sono state riscontrate numerose aberrazioni cromosomiche correlate ai meccanismi di controllo del ciclo cellulare. Scopo del nostro studio è la valutazione delle alterazioni genomiche coinvolte nella tumorigenesi di alcuni CTCL aggressivi: il linfoma extranodale NK/T nasal-type, il linfoma primitivo cutaneo aggressivo epidermotropo (AECTCL) e il gruppo dei PTCL/NOS pleomorfo CD8+. Il materiale bioptico dei pazienti è stato sottoposto alla metodica dell’array-CGH per identificare le anomalie cromosomiche; in alcuni casi di AECTCL è stata applicata la GEP, che evidenzia il profilo di espressione genica delle cellule neoplastiche. I dati ottenuti sono stati valutati in modo statistico, evidenziando le alterazioni cromosomiche comuni significative di ogni entità. In CGH, sono state evidenziate alcune aberrazioni comuni fra le entità studiate, la delezione di 9p21.3, l’amplificazione di 17q, 19p13, 19q13.11-q13.32 , 12q13 e 16p13.3, che determinano la delezione dei geni CDKN2A e CDKN2B e l’attivazione del JAK/STAT signaling pathway. Altre alterazioni definiscono l’amplificazione di c-MYC (8q24) e CCND1/CDK4-6 (11q13). In particolare, sono state evidenziate numerose anomalie genomiche comuni in casi di AECTCL e PTCL/NOS pleomorfo. L’applicazione della GEP in 5 casi di AECTCL ha confermato l’alterata espressione dei geni CDKN2A, JAK3 e STAT6, che potrebbero avere un ruolo diretto nella linfomagenesi. Lo studio di un numero maggiore di casi in GEP e l’introduzione delle nuove indagini molecolari come l’analisi dei miRNA, della whole-exome e whole genome sequences consentiranno di evidenziare alterazioni molecolari correlate con la prognosi, definendo anche nuovi target terapeutici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’attività di ricerca contenuta in questa tesi si è concentrata nello sviluppo e nell’implementazione di tecniche per la co-simulazione e il co-progetto non lineare/elettromagnetico di sistemi wireless non convenzionali. Questo lavoro presenta un metodo rigoroso per considerare le interazioni tra due sistemi posti sia in condizioni di campo vicino che in condizioni di campo lontano. In sostanza, gli effetti del sistema trasmittente sono rappresentati da un generatore equivalente di Norton posto in parallelo all’antenna del sistema ricevente, calcolato per mezzo del teorema di reciprocità e del teorema di equivalenza. La correttezza del metodo è stata verificata per mezzo di simulazioni e misure, concordi tra loro. La stessa teoria, ampliata con l’introduzione degli effetti di scattering, è stata usata per valutare una condizione analoga, dove l’elemento trasmittente coincide con quello ricevente (DIE) contenuto all’interno di una struttura metallica (package). I risultati sono stati confrontati con i medesimi ottenibili tramite tecniche FEM e FDTD/FIT, che richiedono tempi di simulazione maggiori di un ordine di grandezza. Grazie ai metodi di co-simulazione non lineari/EM sopra esposti, è stato progettato e verificato un sistema di localizzazione e identificazione di oggetti taggati posti in ambiente indoor. Questo è stato ottenuto dotando il sistema di lettura, denominato RID (Remotely Identify and Detect), di funzioni di scansione angolare e della tecnica di RADAR mono-pulse. Il sistema sperimentale, creato con dispositivi low cost, opera a 2.5 GHz ed ha le dimensioni paragonabili ad un normale PDA. E’ stato sperimentata la capacità del RID di localizzare, in scenari indoor, oggetti statici e in movimento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"I computer del nuovo millennio saranno sempre più invisibili, o meglio embedded, incorporati agli oggetti, ai mobili, anche al nostro corpo. L'intelligenza elettronica sviluppata su silicio diventerà sempre più diffusa e ubiqua. Sarà come un'orchestra di oggetti interattivi, non invasivi e dalla presenza discreta, ovunque". [Mark Weiser, 1991] La visione dell'ubiquitous computing, prevista da Weiser, è ormai molto vicina alla realtà e anticipa una rivoluzione tecnologica nella quale l'elaborazione di dati ha assunto un ruolo sempre più dominante nella nostra vita quotidiana. La rivoluzione porta non solo a vedere l'elaborazione di dati come un'operazione che si può compiere attraverso un computer desktop, legato quindi ad una postazione fissa, ma soprattutto a considerare l'uso della tecnologia come qualcosa di necessario in ogni occasione, in ogni luogo e la diffusione della miniaturizzazione dei dispositivi elettronici e delle tecnologie di comunicazione wireless ha contribuito notevolmente alla realizzazione di questo scenario. La possibilità di avere a disposizione nei luoghi più impensabili sistemi elettronici di piccole dimensioni e autoalimentati ha contribuito allo sviluppo di nuove applicazioni, tra le quali troviamo le WSN (Wireless Sensor Network), ovvero reti formate da dispositivi in grado di monitorare qualsiasi grandezza naturale misurabile e inviare i dati verso sistemi in grado di elaborare e immagazzinare le informazioni raccolte. La novità introdotta dalle reti WSN è rappresentata dalla possibilità di effettuare monitoraggi con continuità delle più diverse grandezze fisiche, il che ha consentito a questa nuova tecnologia l'accesso ad un mercato che prevede una vastità di scenari indefinita. Osservazioni estese sia nello spazio che nel tempo possono essere inoltre utili per poter ricavare informazioni sull'andamento di fenomeni naturali che, se monitorati saltuariamente, non fornirebbero alcuna informazione interessante. Tra i casi d'interesse più rilevanti si possono evidenziare: - segnalazione di emergenze (terremoti, inondazioni) - monitoraggio di parametri difficilmente accessibili all'uomo (frane, ghiacciai) - smart cities (analisi e controllo di illuminazione pubblica, traffico, inquinamento, contatori gas e luce) - monitoraggio di parametri utili al miglioramento di attività produttive (agricoltura intelligente, monitoraggio consumi) - sorveglianza (controllo accessi ad aree riservate, rilevamento della presenza dell'uomo) Il vantaggio rappresentato da un basso consumo energetico, e di conseguenza un tempo di vita della rete elevato, ha come controparte il non elevato range di copertura wireless, valutato nell'ordine delle decine di metri secondo lo standard IEEE 802.15.4. Il monitoraggio di un'area di grandi dimensioni richiede quindi la disposizione di nodi intermedi aventi le funzioni di un router, il cui compito sarà quello di inoltrare i dati ricevuti verso il coordinatore della rete. Il tempo di vita dei nodi intermedi è di notevole importanza perché, in caso di spegnimento, parte delle informazioni raccolte non raggiungerebbero il coordinatore e quindi non verrebbero immagazzinate e analizzate dall'uomo o dai sistemi di controllo. Lo scopo di questa trattazione è la creazione di un protocollo di comunicazione che preveda meccanismi di routing orientati alla ricerca del massimo tempo di vita della rete. Nel capitolo 1 vengono introdotte le WSN descrivendo caratteristiche generali, applicazioni, struttura della rete e architettura hardware richiesta. Nel capitolo 2 viene illustrato l'ambiente di sviluppo del progetto, analizzando le piattaforme hardware, firmware e software sulle quali ci appoggeremo per realizzare il progetto. Verranno descritti anche alcuni strumenti utili per effettuare la programmazione e il debug della rete. Nel capitolo 3 si descrivono i requisiti di progetto e si realizza una mappatura dell'architettura finale. Nel capitolo 4 si sviluppa il protocollo di routing, analizzando i consumi e motivando le scelte progettuali. Nel capitolo 5 vengono presentate le interfacce grafiche utilizzate utili per l'analisi dei dati. Nel capitolo 6 vengono esposti i risultati sperimentali dell'implementazione fissando come obiettivo il massimo lifetime della rete.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi di Marco Perez intitolata “Luis Arana e i veterani di Euzkeldun Batzokija: la corrente ortodossa del nazionalismo basco”, può essere considerata come la biografia politica di uno dei personaggi più importanti del nazionalismo basco. Il lavoro di ricerca si centra fondamentalmente sull'ispiratore del nazionalismo euskaldun (e cofondatore del Partido Nacionalista Vasco) e della corrente che ne accompagnò e sostenne l'azione politica. Euzkeldun Batzokija fu il nome dato al primo circolo del PNV, fondato da Luis e Sabino Arana nel 1894. Successivamente, gli statuti del circolo e i suoi membri veterani furono presi come modello del nazionalismo primordiale (che si pretendeva definire sull'esempio dell'Ordine gesuita). Sul piano organizzativo la tesi si divide in sette capitoli che ricostruiscono il percorso politico di Luis Arana, dai primi documenti del 1879 fino alle ultime lettere inviate negli anni quaranta. Si tratta di un lungo periodo, che comprende momenti diversi della storia spagnola (dalle guerre carliste alla Guerra Civile spagnola) e del movimento aranista. In questo senso, sulla base di una generale e comparata riflessione sul nazionalismo, si analizza il movimento basco nei suoi rapporti con la modernità. Una realazione costruita attraverso concetti “diacronicamente” legati a un passato mitico e leggendario e comunque subalterna ai rapporti di forza tra le correnti del PNV. La corrente ortodossa fece sempre riferimento al nazionalismo “originario” (definito dai fratelli Arana nei primi anni del movimento) che fu un'espressione regionale del nazionalcattolicesimo spagnolo. Fu proprio Luis Arana a ricordare la finalità religiosa ed etnica del nazionalismo basco, respingendo qualsiasi aggiornamento teorico e organizzativo del PNV, intesi come una grave violazione dell'ortodossia aranista.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Scopo del lavoro della presente tesi è stato quello di valutare la prevalenza di Chlamydiaceae, ed in particolare Chlamydia psittaci, in una popolazione aviare con caratteristiche sinantropiche quale il colombo di città (Columba livia var. domestica) dell’areale veneziano. Per evidenziare il patogeno sono state utilizzate metodiche sierologiche, d’isolamento e biomolecolari tradizionali. Contestualmente, mediante tecnologie molecolari innovative, quali microarray ed MLVA (Multilocus VNTR Assay) sono stati valutati i genotipi di C. psittaci e le eventuali altre specie di Chlamydia presenti in tale popolazione. Inoltre, si è proceduto ad una classificazione delle lesioni anatomo-patologiche ed ad una loro correlazione con la presenza del patogeno. I risultati dimostrano che la prevalenza di C. psittaci nella popolazione oggetto dello studio è del 10%. Durante tale studio è stata dimostrata la presenza di un ceppo di C. psittaci atipico, in quanto non classificabile con le attuali tecniche a disposizione. La genotipizzazione dei ceppi di C. psittaci conferma la presenza nel colombo di città del genotipo B, E ed E/B, che solitamente risultano essere coinvolti con minore frequenza in episodi di infezione umana. Inoltre sono stati dimostrati alcuni ceppi classificati come Chlamydia spp., in quanto le metodologie applicate e le conoscenze attuali non permettono ulteriori distinzioni, prospettando la possibilità di un nuovo ceppo. Infine, attraverso l’analisi dei dati raccolti durante la prima fase di campionamenti e successivamente confermati durante la seconda fase, siamo riusciti a strutturare un sistema di selezione, basato su caratteristiche funzionali ed anatomopatologiche, che permette di selezionare in sede necroscopica i colombi molto probabilmente infetti, permettendo conseguentemente una migliore organizzazione e gestione dei campioni di interesse contenendo nel contempo i costi ma mantenendo elevati gli standards diagnostici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il tumore del polmone rappresenta la prima causa di morte nei paesi industrializzati. Le possibilità di trapianto ed intervento chirurgico risultano molto limitate pertanto lo standard di cura risulta essere la radioterapia, a volte abbinata alla chemioterapia. Sebbene trattando radioterapicamente il tumore si ottengano ottimi risultati, attualmente non esistono solide linee guida per la personalizzazione del trattamento al paziente. Il poter eseguire in laboratorio test radioterapici su un elevato numero di campioni risulterebbe un valido approccio sperimentale d’indagine, ma la carenza di materiale su cui poter condurre gli esperimenti limita questa possibilità. Tipicamente, per ovviare al problema vengono utilizzati sferoidi multicellulari tridimensionali creati in laboratorio partendo da singole cellule del tumore in esame. In particolare, l’efficacia del trattamento viene tipicamente correlata alla riduzione volumetrica media stimata utilizzando un set di sferoidi teoricamente identici. In questo studio vengono messe in discussione la validità delle affermazioni tipicamente sostenute attraverso l’analisi di volumi medi. Abbiamo utilizzando un set di circa 100 sferoidi creati in laboratorio partendo da singole cellule di carcinoma epidermoidale polmonare e trattati secondo sette differenti modalità di trattamento radioterapico (variando intensità di radiazione e numero di frazioni). In una prima fase abbiamo analizzato le singole immagini, acquisite al microscopio ottico circa ogni 48 ore, per identificare features morfometriche significative da affiancare all’analisi volumetrica. Sulla base dell’andamento temporale di queste features abbiamo suddiviso gli sferoidi in sottoclassi con evoluzioni completamente differenti che fanno supporre un differente “stato” biologico. Attraverso algoritmi di estrazione di features e classificazione e analizzando riduzione volumetrica, grado di frastagliatura del bordo e quantità di cellule liberate nel terreno di coltura abbiamo definito un protocollo per identificare in maniera automatica le sottopopolazioni di sferoidi. Infine, abbiamo ricercato con successo alcune features morfometriche in grado di predire, semplicemente analizzando immagini acquisite nei giorni seguenti all’ultimo trattamento, lo “stato di salute” del tumore a medio/lungo periodo. Gli algoritmi realizzati e le features identificate se opportunamente validate potrebbero risultare un importante strumento non invasivo di ausilio per il radioterapista per valutare nel breve periodo gli effetti a lungo periodo del trattamento e quindi poter modificare parametri di cura al fine di raggiungere uno stato desiderato del tumore.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il tema dei prodotti agroalimentari di qualità ha ormai assunto un ruolo rilevante all’interno del dibattito riguardante l’agricoltura e l’economia agroalimentare, ponendosi al centro dell’interesse delle politiche europee (PAC post 2013, Pacchetto Qualità). La crescente attenzione verso le produzioni con marchio Dop\Igp mette però in luce la sostanziale carenza di informazioni dettagliate relativamente alle aziende che operano in questo comparto. Da questo punto di vista il VI° Censimento generale dell’agricoltura costituisce una preziosa fonte di informazioni statistiche. L’obiettivo di questo lavoro è quello di utilizzare i dati, ancora provvisori, del censimento per analizzare la struttura delle aziende con produzioni di qualità, ponendola in confronto con quella delle aziende convenzionali. Inoltre è stata fatta una classificazione delle aziende con prodotti Dop\Igp, in base alla rilevanza di queste produzioni sul reddito lordo aziendale. Le aziende sono quindi state classificate come “Specializzate” e “Miste”, con un’ulteriore distinzione di queste ultime tra quelle “Prevalentemente Dop\Igp” e quelle “Prevalentemente non Dop\Igp”. Tale ripartizione ha consentito una definizione dettagliata degli orientamenti produttivi delle aziende analizzate.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ricerca è dedicata allo studio propedeutico ad una nuova edizione critica del primo dei Libri medicinales di Aezio Amideno, medico vissuto nel VI secolo e attivo alla corte di Costantinopoli. Sono stati oggetto principale di studio 35 manoscritti contenenti, in parte o integralmente, il primo libro di Aezio; la collazione ha permesso di individuare numerosi codices descripti e soprattutto di procedere ad una nuova classificazione dei codici. Riguardo alla modalità di utilizzo delle fonti da parte di Aezio si è potuto non solo accertare l’uso indiretto del testo galenico ed escludere la mediazione di Oribasio, ma sono state individuate nuove fonti, oltre a quelle tradizionalmente conosciute. Per la prima volta sono stati presi in esame sia il commento di Cristobal de Horozco ai sedici libri di Aezio che la traduzione latina di Giovanbattista Montano. Presente è infine un saggio di edizione dei capitoli 1-10 e 124 dell’edizione Olivieri, il testo proposto presenta significative differenze rispetto a quello edito nel CMG.