1000 resultados para gruppi di Carnot


Relevância:

30.00% 30.00%

Publicador:

Resumo:

“Perdita di fase tra il gruppo riempimento polvere/cronoidi con LVDT ed il gruppo piattello durante la fase di arresto a causa della mancanza imprevista di corrente elettrica”. La perdita della fase tra differenti gruppi può avvenire per due ragioni: 1) a causa della cedevolezza di alcuni elementi della catena cinematica 2) per problemi relativi al software che comanda gli assi elettronici e che è responsabile del movimento coordinato dei vari gruppi. La prima ipotesi è molto improbabile in macchine come l’ADAPTA, dove non sono presenti elementi cinematici con elevata cedevolezza (come ad esempio delle cinghie) essendo i movimenti guidati da camme scanalate (che, contrariamente, sono molto rigide) e/o da camme elettriche (motori Brushless). Il secondo caso invece avviene ogni volta che viene a mancare la corrente elettrica in maniera accidentale (ad esempio a causa di un black-out). La mancanza di energia elettrica impedisce al computer a bordo macchina di continuare a monitorare e controllare il funzionamento dei vari assi elettronici della macchina, che sono comandati da motori brushless, che quindi continuano per inerzia il loro moto fino a fermarsi. Siccome ogni gruppo ha un’inerzia e una velocità/accelerazione istantanea diversa e variabile in funzione della posizione assunta all’interno del proprio ciclo nel momento della mancanza di corrente elettrica, i tempi di arresto risultano differenti, e questo causa la perdita di fase. I gruppi riempimento polvere/cronoidi e spingitori fondelli presentano interferenza meccanica col gruppo piattello per una certa durata del suo ciclo; in questa fase gli elementi entrano nelle boccole porta fondelli delle slitte mobili del piattello. È l’unico caso in tutta la macchina in cui parti meccaniche di gruppi diversi, vanno a “intersecare” i propri spostamenti. La progettazione di macchine che presentano interferenze di questo genere è generalmente sconsigliabile poiché si potrebbe presentare il rischio di uno scontro nel caso avvenga una perdita di fase tra i gruppi. Si sono cercate diverse soluzioni mirate a evitare un urto, derivato dall’interferenza meccanica, in caso di black-out oppure di ridurre il più possibile i danni che questa casualità può portare alla macchina. Il gruppo piattello è definito master rispetto a tutti gli altri gruppi; ha un’inerzia molto piccola e questo fa si che, in caso di black-out, il suo arresto avvenga praticamente istantaneamente, al contrario di ciò che avviene per tutti gli altri gruppi slave dotati di inerzia maggiore. Siccome l’arresto del piattello è istantaneo, il pericolo per tastatori e punzoni sollevatori di urto può avvenire solamente per compenetrazione: se gli elementi sono già all’interno della boccola, e restando fermo il piattello, l’inerzia del gruppo che fa proseguire il moto per alcuni istanti non farebbe altro che portarli fuori dalla boccola, non provocando alcun danno. Non vi è perciò il pericolo di “taglio” di questi elementi da parte del piattello. Perciò l’unica possibilità è che il black-out avvenga in un istante del ciclo dove gli elementi si stanno muovendo per entrare nelle boccole mentre anche il piattello è in rotazione.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente lavoro nasce dall’obiettivo di individuare strumenti statistici per indagare, sotto diversi aspetti, il flusso di lavoro di un Laboratorio di Anatomia Patologica. Il punto di partenza dello studio è l’ambiente di lavoro di ATHENA, software gestionale utilizzato nell’Anatomia Patologica, sviluppato dalla NoemaLife S.p.A., azienda specializzata nell’informatica per la sanità. A partire da tale applicativo è stato innanzitutto formalizzato il workflow del laboratorio (Capitolo 2), nelle sue caratteristiche e nelle sue possibili varianti, identificando le operazioni principali attraverso una serie di “fasi”. Proprio le fasi, unitamente alle informazioni addizionali ad esse associate, saranno per tutta la trattazione e sotto diversi punti di vista al centro dello studio. L’analisi che presentiamo è stata per completezza sviluppata in due scenari che tengono conto di diversi aspetti delle informazioni in possesso. Il primo scenario tiene conto delle sequenze di fasi, che si presentano nel loro ordine cronologico, comprensive di eventuali ripetizioni o cicli di fasi precedenti alla conclusione. Attraverso l’elaborazione dei dati secondo specifici formati è stata svolta un’iniziale indagine grafica di Workflow Mining (Capitolo 3) grazie all’ausilio di EMiT, un software che attraverso un set di log di processo restituisce graficamente il flusso di lavoro che li rappresenta. Questa indagine consente già di valutare la completezza dell’utilizzo di un applicativo rispetto alle sue potenzialità. Successivamente, le stesse fasi sono state elaborate attraverso uno specifico adattamento di un comune algoritmo di allineamento globale, l’algoritmo Needleman-Wunsch (Capitolo 4). L’utilizzo delle tecniche di allineamento applicate a sequenze di processo è in grado di individuare, nell’ambito di una specifica codifica delle fasi, le similarità tra casi clinici. L’algoritmo di Needleman-Wunsch individua le identità e le discordanze tra due stringhe di caratteri, assegnando relativi punteggi che portano a valutarne la similarità. Tale algoritmo è stato opportunamente modificato affinché possa riconoscere e penalizzare differentemente cicli e ripetizioni, piuttosto che fasi mancanti. Sempre in ottica di allineamento sarà utilizzato l’algoritmo euristico Clustal, che a partire da un confronto pairwise tra sequenze costruisce un dendrogramma rappresentante graficamente l’aggregazione dei casi in funzione della loro similarità. Proprio il dendrogramma, per la sua struttura grafica ad albero, è in grado di mostrare intuitivamente l’andamento evolutivo della similarità di un pattern di casi. Il secondo scenario (Capitolo 5) aggiunge alle sequenze l’informazione temporale in termini di istante di esecuzione di ogni fase. Da un dominio basato su sequenze di fasi, si passa dunque ad uno scenario di serie temporali. I tempi rappresentano infatti un dato essenziale per valutare la performance di un laboratorio e per individuare la conformità agli standard richiesti. Il confronto tra i casi è stato effettuato con diverse modalità, in modo da stabilire la distanza tra tutte le coppie sotto diversi aspetti: le sequenze, rappresentate in uno specifico sistema di riferimento, sono state confrontate in base alla Distanza Euclidea ed alla Dynamic Time Warping, in grado di esprimerne le discordanze rispettivamente temporali, di forma e, dunque, di processo. Alla luce dei risultati e del loro confronto, saranno presentate già in questa fase le prime valutazioni sulla pertinenza delle distanze e sulle informazioni deducibili da esse. Il Capitolo 6 rappresenta la ricerca delle correlazioni tra elementi caratteristici del processo e la performance dello stesso. Svariati fattori come le procedure utilizzate, gli utenti coinvolti ed ulteriori specificità determinano direttamente o indirettamente la qualità del servizio erogato. Le distanze precedentemente calcolate vengono dunque sottoposte a clustering, una tecnica che a partire da un insieme eterogeneo di elementi individua famiglie o gruppi simili. L’algoritmo utilizzato sarà l’UPGMA, comunemente applicato nel clustering in quanto, utilizzando, una logica di medie pesate, porta a clusterizzazioni pertinenti anche in ambiti diversi, dal campo biologico a quello industriale. L’ottenimento dei cluster potrà dunque essere finalmente sottoposto ad un’attività di ricerca di correlazioni utili, che saranno individuate ed interpretate relativamente all’attività gestionale del laboratorio. La presente trattazione propone quindi modelli sperimentali adattati al caso in esame ma idealmente estendibili, interamente o in parte, a tutti i processi che presentano caratteristiche analoghe.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Obiettivo del presente lavoro è approntare un’analisi interpretativa dell’operatività dalle Finanziarie regionali, valutarne gli investimenti in capitale di rischio e, in particolare, l’attività di private equity, evidenziando le tendenze in atto, i possibili percorsi evolutivi e le eventuali criticità. La metodologia adottata ha previsto un’articolazione del lavoro lungo due principali direttive: un’analisi di tipo quantitativo sui bilanci di sette esercizi (dal 2002 al 2008), con la finalità di indagare nel dettaglio gli aspetti economici, finanziari e patrimoniali delle Finanziarie regionali attive sul territorio italiano; un’analisi qualitativa basata su un’approfondita rassegna della letteratura internazionale e su interviste mirate ad un campione ampiamente rappresentativo della popolazione osservata. I risultati raggiunti fanno ragionevolmente supporre che sia in atto una profonda ristrutturazione dell’intero sistema delle Finanziarie, che ha visto innanzitutto aumentare il controllo pubblico nella compagine sociale. L’indagine contabile ha permesso di identificare la presenza di due modelli di business ben differenziati: alcune Finanziarie sono orientate ad attività con forte contenuto di intermediazione finanziaria; altre invece sono focalizzate sull’attività di erogazione di servizi sia finanziari di consulenza che reali. L’investimento in capitale di rischio costituisce un attività centrale per le Finanziarie regionali; l’analisi dedicata a tali impieghi ha permesso di individuare, tra esse, alcune realtà tipiche del merchant banking, e più di frequente, del modello di holding. Complessivamente le Finanziarie campionate detengono oltre 400 partecipazioni per un valore che supera 1,7 miliardi di euro; prevalentemente concentrati su una ristretta cerchia di realtà spesso con impatto strategico sul territorio, ovvero strumentali. Segnatamente all’attività di private equity, è stato possibile rilevare come la politica d’investimento delle Finanziarie regionali sia complementare rispetto a quella mediamente espressa dal mercato domestico, anche se restano critici, anche per le Finanziarie, gli investimenti su imprese target con fatturato compreso tra 2 e 10 milioni di euro. Le evidenze circa la struttura dei contratti segnalano una parziale conformità alla best practice individuata dalla letteratura internazionale. In particolare l’uso limitato dello stage financing, la bassa partecipazione alla gestione sono le principali criticità individuate. Infine, della fase di riorganizzazione che pare interessare il sistema delle Finanziarie, si trova conferma nella percezione dei suoi operatori. Interpellati sul futuro dell’attività di investimento in capitale di rischio, hanno fornito indicazioni che consentono di concludere l’esistenza di una polarizzazione delle Finanziarie su due gruppi: da un lato quelle che implementeranno, più o meno, l’attività di private equity, dall’altro quelle che, viceversa, abbandoneranno tale strumento. La normativa sulle società a partecipazione pubblica regionale e la scarsa autonomia nella gestione delle misure affidate sono ritenute, dalle Finanziarie “interessate”, il principale fattore di freno alla loro crescita nel mercato del private equity.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questo lavoro di tesi rientra nel progetto europeo SaveMe, al quale partecipa il gruppo di ricerca del dipartimento di chimica organica nel quale ho svolto l’attività di tirocinio. Obiettivo finale di tale progetto è la sintesi di nanoparticelle a base di PLGA (acido poli(D,L-lattico-co-glicolico)) superficialmente funzionalizzate con biomolecole, per l’impiego nel trattamento e nella diagnosi del cancro al pancreas. L’obiettivo da raggiungere nel primo anno di ricerca per il mio gruppo era la sintesi delle nanoparticelle centrali (core nanosystems). Nel presente lavoro sono quindi riportati i metodi di sintesi di polimeri derivati da PLGA e suoi copolimeri con PEG (polietilenglicole) aventi vari gruppi funzionali terminali: acidi idrossamici, amminici e acidi carbossilici. I polimeri sintetizzati sono stati caratterizzati tramite test colorimetrici qualitativi, 1H-NMR, 13C-NMR, spettrometria IR e TGA. Sono state sintetizzate nanoparticelle polimeriche (PNPs), con le tecniche Oil/Water (O/W) e nanoprecipitazione (NP), basate sui polimeri ottenuti, aventi quindi funzioni acide, idrossamiche ed amminiche sulla superficie. Su queste PNPs è stato effettuata una decorazione superficiale con nanoparticelle metalliche di maghemite (CAN-Maghemite). Le nanoparticelle polimeriche sono state caratterizzate tramite DLS e delle PNPs decorate sono state ottenute immagini TEM. Sono riportati inoltre i test di viabilità cellulare delle nanoparticelle ottenute.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’attuale condizione che caratterizza il settore energetico richiede un necessario processo di riconversione che, oltre a favorire il risparmio energetico, riduca la dipendenza dai combustibili fossili ed accresca l’impiego di fonti energetiche rinnovabili, dando un contributo fondamentale alla riduzione delle emissioni di gas serra come diversi accordi internazionali richiedono. Si rende pertanto necessario accelerare i processi che da alcuni anni stanno favorendo l’utilizzo di energia da fonti rinnovabili. Tra queste, le fonti legate ai processi di trattamento biologico dei reflui stanno avendo un interessante sviluppo. Esistono numerosi processi biologici che consentono la produzione di energia in maniera indiretta, quali ad esempio i processi di digestione anaerobica finalizzati alla produzione di biogas e/o produzione biologica di idrogeno. In tale contesto si inserisce la tecnologia delle Microbial Fuel Cell, che consente la produzione diretta di energia elettrica, finalizzata al recupero energetico inteso al miglioramento dell’efficienza energetica e alla riduzione dei costi d’esercizio di impianti di trattamento biologico dei reflui. Il presente lavoro di Tesi di Dottorato sperimentale, svoltosi in collaborazione al laboratorio PROT.-IDR. della sede ENEA di Bologna, riporta i risultati dell’attività di ricerca condotta su una MFC (Microbial Fuel Cell) a doppio stadio biologico per il trattamento di reflui ad elevato carico organico e produzione continua di energia elettrica. E’ stata provata l’applicabilità della MFC con entrambi i comparti biotici utilizzando elettrodi di grafite non trattata ottenendo, con un carico organico in ingresso di circa 9 gd-1, valori di potenza massima prodotta che si attestano su 74 mWm-2, corrente elettrica massima generata di 175 mAm-2 ad una tensione di 421 mV, ed una conversione di COD in elettricità pari a 1,2 gCODm-2d-1. I risultati sono stati molto positivi per quanto riguarda le prestazioni depurative ottenute dalla MFC. L’efficienza di depurazione misurata ha raggiunto un valore massimo del 98% di rimozione del COD in ingresso, mentre e la concentrazione di azoto ammoniacale nell’effluente raccolto all’uscita del sedimentatore è sempre stata inferiore a 1 mgN-NH4+l-1. Tra gli obiettivi posti all’inizio della sperimentazione si è rivelata di notevole interesse la valutazione del possibile utilizzo della MFC come sistema per il monitoraggio on-line del COD e degli acidi grassi volatili (VFA) prodotti all’interno di un digestore anaerobico, attraverso la definizione di una correlazione tra i dati elettrici registrati in continuo e le concentrazioni di CODanaer e VFA misurate in diversi periodi della sperimentazione. L’analisi DGGE della biomassa catodica ha fornito uno strumento analitico utile allo studio della diversità della comunità microbica sospesa ed adesa al catodo e ha confermato la forte similarità delle specie batteriche riconosciute nei campioni analizzati. In particolare, le bande di sequenziamento ottenute sono affiliate ai gruppi batterici Firmicutes, -Proteobacteria,  -Proteobacteria, -Proteobacteria e Bacteroidetes. Da quanto emerso dalla sperimentazione condotta si può pertanto concludere che ad oggi le MFC sono in fase di evoluzione rispetto ai primi prototipi utilizzati per lo studio delle comunità microbiali e per la comprensione dei meccanismi di trasferimento elettronico. Sfruttarne la potenza prodotta in maniera commerciale diviene una grande sfida per il futuro, ed è opinione comune che le prime applicazioni pratiche delle MFC saranno come fonte di recupero energetico per i dispositivi utilizzati per il monitoraggio dell’ambiente e per il trattamento delle acque reflue.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La Piastinopenia Immune (PTI) è una patologia autoimmune ad eziologia ignota caratterizzata da piastrinopenia. I linfociti T regolatori (Tregs) sono coinvolti nei meccanismi di tolleranza immunologica e agiscono regolando l’attività delle cellule T autoreattive e delle cellule dendritiche (DCs). Viceversa, le DCs, che esprimono Indoleamine 2,3-dioxygenase (IDO), partecipano al mantenimento della tolleranza agli auto-antigeni attraverso l’espansione dei Tregs. Inoltre, recenti studi hanno dimostrato che i linfociti T helper 17 (Th17) sono coinvolti nell’autoimmunità e che l’espressione di Interleuchina (IL)-17 è associata a numerose patologie autoimmuni. Il ruolo dell’interazione fra DCs e Tregs ed il ruolo dei Th17 nella patogenesi della PTI non sono mai stati studiati in maniera approfondita. Gli obiettivi principali di questa tesi sono stati: a) caratterizzare fenotipicamente e funzionalmente i linfociti Tregs e DCs; b) valutare il ruolo patogenetico dell’interazione tra Tregs e DCs; c) quantificare i Th17 circolanti. I risultati dimostrano che: 1) il numero dei Tregs circolanti dei pazienti, identificati tramite i marcatori Foxp3 e CD127, è significativamente ridotto rispetto alla controparte normale; 2) la conversione in vitro delle cellule CD4+CD25- in linfociti Tregs (CD4+CD25+Foxp3+) dopo stimolazione con DCs mature è significativamente ridotta nei pazienti rispetto ai controlli; 3) sia l’espressione dell’enzima IDO nelle DCs mature (mRNA) che i livelli di chinurenine prodotte (indice di attività enzimatica) sono risultati significativamente ridotti nei pazienti rispetto alla controparte normale. Questi risultati suggeriscono quindi che il ridotto numero dei Tregs circolanti nei pazienti con PTI può essere, almeno in parte, attribuito alla scarsa capacità di conversione delle DCs, in quanto tali cellule esprimono meno IDO. I risultati dimostrano inoltre che: 1) i Tregs dei pazienti con PTI hanno una capacità soppressoria che è significativamente inferiore rispetto ai soggetti normali; tale dato è stato confermato dal dosaggio di IFN- nel surnatante della coltura; 2) i Tregs di pazienti con PTI non sono in grado di inibire la maturazione delle DCs, a differenza di quanto avviene nei soggetti sani: infatti, l’espressione delle molecole costimolatorie CD80 e CD86 sulle DCs è risultata invariata in seguito a cocoltura con DCs immature; 3) il dosaggio delle citochine nel surnatante delle cocolture dimostra che la concentrazione di IL-10 e IL-6 è significativamente ridotta nei pazienti rispetto ai controlli. La scarsa abilità dei Tregs di inibire la maturazione delle DCs e l’alterato pattern di secrezione di citochine potrebbero quindi contribuire all’ insorgenza del fenotipo più maturo delle DCs nei pazienti con PTI. I linfociti Th17 circolanti di pazienti e controlli sono stati identificati in citofluorimetria come cellule CD4+CD161+CD196+. Da tale analisi è emerso che la frequenza dei Th17 circolanti non è significativamente diversa nei due gruppi. Questi dati dimostrano quindi che nella PTI l’interazione bidirezionale tra Tregs e DCs risulta alterata e svolge un ruolo patogenetico, in quanto, da un lato, ci sono Tregs con un deficit numerico e funzionale e, dall’altro, DCs con maggiore capacità immunogenica. Il numero dei Th17 non risulta invece alterato.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’argomento scelto riguarda l’adozione di standard privati da parte di imprese agro-alimentari e le loro conseguenze sulla gestione globale dell’azienda. In particolare, lo scopo di questo lavoro è quello di valutare le implicazioni dovute all’adozione del BRC Global Standard for Food Safety da parte delle imprese agro-alimentari italiane. La valutazione di tale impatto è basata sulle percezioni dei responsabili aziendali in merito ad aspetti economici, gestionali, commerciali, qualitativi, organizzativi. La ricerca ha seguito due passaggi fondamentali: innanzitutto sono state condotte 7 interviste in profondità con i Responsabili Qualità (RQ) di aziende agro-alimentari italiane certificate BRC Food. Le variabili estrapolate dall’analisi qualitativa del contenuto delle interviste sono state inserite, insieme a quelle rilevate in letteratura, nel questionario creato per la successiva survey. Il questionario è stato inviato tramite e-mail e con supporto telefonico ad un campione di aziende selezionato tramite campionamento random. Dopo un periodo di rilevazione prestabilito, sono stati compilati 192 questionari. L’analisi descrittiva dei dati mostra che i RQ sono in buona parte d’accordo con le affermazioni riguardanti gli elementi d’impatto. Le affermazioni maggiormente condivise riguardano: efficienza del sistema HACCP, efficienza del sistema di rintracciabilità, procedure di controllo, formazione del personale, miglior gestione delle urgenze e non conformità, miglior implementazione e comprensione di altri sistemi di gestione certificati. Attraverso l’analisi ANOVA fra variabili qualitative e quantitative e relativo test F emerge che alcune caratteristiche delle aziende, come l’area geografica, la dimensione aziendale, la categoria di appartenenza e il tipo di situazione nei confronti della ISO 9001 possono influenzare differentemente le opinioni degli intervistati. Successivamente attraverso un’analisi fattoriale sono stati estratti 8 fattori partendo da un numero iniziale di 28 variabili. Sulla base dei fattori è stata applicata la cluster analysis di tipo gerarchico che ha portato alla segmentazione del campione in 5 gruppi diversi. Ogni gruppo è stato interpretato sulla base di un profilo determinato dal posizionamento nei confronti dei vari fattori. I risultati oltre ad essere stati validati attraverso focus group effettuati con ricercatori ed operatori del settore, sono stati supportati anche da una successiva indagine qualitativa condotta presso 4 grandi retailer inglesi. Lo scopo di questa successiva indagine è stato quello di valutare l’esistenza di opinioni divergenti nei confronti dei fornitori che andasse quindi a sostenere l’ipotesi di un problema di asimmetria informativa che nonostante la presenza di standard privati ancora sussiste nelle principali relazioni contrattuali. Ulteriori percorsi di ricerca potrebbero stimare se la valutazione dell’impatto del BRC può aiutare le aziende di trasformazione nell’implementazione di altri standard di qualità e valutare quali variabili possono influenzare invece le percezioni in termini di costi dell’adozione dello standard.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La scarsità di informazioni sulle reazioni che intervengono nel processo di stiratura semipermanente dei capelli e la necessità di trovare prodotti alternativi all’uso della formaldeide ha portato a intraprendere questo lavoro di tesi. Esso si è svolto seguendo due linee principali: l’indagine sui possibili meccanismi di reazione che intervengono fra composti aventi gruppi aldeidici, quali formaldeide o acido gliossilico (particolarmente efficaci nel processo di stiratura), e alcuni amminoacidi presenti nei capelli da un lato, e uno studio sulle modificazioni che intervengono nella fibra attraverso spettroscopia Raman e ATR-FT-IR e microscopia elettronica a scansione (SEM) dall’altro. Partendo dall’ipotesi più plausibile di una addizione sull’atomo di carbonio carbonilico da parte di nucleofili presenti su alcuni residui amminoacidici della catena polipeptidica, sono stati presi in considerazioni tre gruppi funzionali presenti sugli amminoacidi che possono dar luogo ad addizione reversibile al carbonio carbonilico: il gruppo tiolico che comportandosi come nucleofilo allo zolfo potrebbe dare formazione di semitioacetali, il gruppo ossidrilico di amminoacidi come serina e treonina che potrebbe dare semiacetali, ed il gruppo amminico di amminoacidi basici che agendo da nucleofilo all’azoto potrebbe generare immine. Dopo aver indagato sulla reazione fra aldeide formica (o acido gliossilico) con cisteina e derivati, l’indagine è proseguita utilizzando come amminoacido basico modello N-acetil-L-lisina, dove il gruppo amminico in posizione alfa al carbossile è protetto per cercare di mimare la situazione nel polipeptide. Alcune prove sono state condotte facendo reagire questo substrato sia con una serie di aldeidi aromatiche in diverse condizioni sperimentali che con acido gliossilico. In seguito sono state svolte analisi mediante spettroscopia Raman e ATR-FT-IR su ciocche di pelo di yak nelle diverse fasi del trattamento più comunemente utilizzato nella stiratura semipermanente. Questo ha permesso di ottenere indicazioni sia sulle modificazioni della struttura secondaria subite dalla fibra che sul verificarsi di reazioni fra agente lisciante e residui amminoacidici presenti su di essa. Infine è stata svolta un’indagine SEM sia su fibre di yak che su capelli umani ricci per osservare le variazioni superficiali nei diversi stadi del trattamento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La mia attività di tesi è stata svolta presso CEFLA Dental Group di Imola (BO). Essa ha trattato lo studio e il re-engineering del sistema attuale di imballaggio dei riuniti odontoiatrici ( vedi CAP 2 ),ponendo particolare attenzione all’utilizzo di materiali ecosostenibili e alla riduzione di tempi e costi. Il mio lavoro è stato suddiviso in quattro fasi ben distinte: la prima, all’interno dell’area produttiva, è servita per analizzare in dettaglio le varie fasi di montaggio dei gruppi e sottogruppi di alcuni modelli di riuniti dentali scelti come riferimento. A seguire, affiancato a operatori specializzati, ho assistito alle operazioni di imballaggio, stoccaggio in magazzino e carico. Nella seconda fase, ho raccolto anche una serie di informazioni utili all’analisi, tra cui i costi dei vari elementi dell’imballo, i tempi necessari all’operatore e infine lo storico dei reclami degli ultimi anni. Ho poi selezionato gli aspetti critici più ricorrenti. Durante la terza fase, ho eseguito la vera e propria analisi, proponendo alcune soluzioni di miglioramento. Infine nell’ultima fase ho valutato economicamente le varie soluzioni ipotizzate, focalizzandomi inoltre sui tempi di manodopera.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il termine extravergine, per un olio di alta qualità, rappresenta solo un pre-requisito: la categoria merceologica, intesa come conformità ad una serie di analisi chimico-sensoriali previste dalla normativa Europea, non è sufficiente ad esaltare il valore aggiunto che un olio può avere in termini di attributi di qualità sensoriale e salutistica. Questi ultimi sono fortemente influenzati dalla presenza di alcuni composti minori, come le molecole volatili e quelle a struttura fenolica (biofenoli). I composti volatili sono i principali responsabili dell'aroma di un olio extravergine d’oliva, mentre i biofenoli lo sono per gli attributi positivi, di amaro e piccante, già normati dal legislatore. Lo studio ha riguardato le relazioni esistenti tra le sostanze volatili e biofenoliche e le percezioni sensoriali ad esse associate. Tra gli oli extravergini di oliva partecipanti all’International Olive Oil Award di Zurigo 2012, sono stati selezionati 28 campioni monovarietali di diversa provenienza geografica (principalmente Italia, Spagna e Grecia). La valutazione sensoriale è stata eseguita dal panel dell’Institute of Food and Beverage Innovation di Zurigo con l’impiego di una scheda di profilo più descrittiva di quella ufficiale (Reg. CE 640/2008), contenente numerosi attributi positivi secondari valutati su scala discreta a 4 punti, oltre ad armonia e persistenza, su scala continua di 10 cm. I campioni sono stati sottoposti alla caratterizzazione della frazione biofenolica (indice di amaro, contenuto in fenoli totali ed analisi delle principali molecole fenoliche mediante HPLC-DAD/MSD) e dei composti volatili (SPME/GC-MSD). I dati ottenuti sono stati elaborati con l’ausilio di tecniche di analisi multivariata nel tentativo di valutare le correlazioni esistenti tra le variabili e di individuare gruppi omogenei di oli. La finalità di questo lavoro è stata quella di suggerire attributi discriminanti la qualità sensoriale di oli di pregio, che possano essere impiegati come leve di promozione dei prodotti, così come indicatori addizionali di autenticità.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il medulloblastoma (MB) è il tumore più comune del sistema nervoso centrale. Attualmente si riesce a curare solo il 50-60% dei pazienti che tuttavia presentano gravi effetti collaterali dovuti alle cure molto aggressive. Una recente classificazione molecolare ha ridistribuito le varianti più comuni di MB in quattro distinti gruppi. In particolare, il gruppo SHH e D sono caratterizzati da un’ alta espressione di MYCN ed associati a prognosi sfavorevole. MYCN è coinvolto nella regolazione della proliferazione cellulare, differenziazione, apoptosi, angiogenesi e metastasi. L’obiettivo di questo lavoro è la valutazione dell’attività antitumorale di oligonucleotidi diretti contro MYCN, sia in vitro su diverse linee cellulari di MB che in vivo in modelli murini xenograft ortotopici di MB. I risultati hanno dimostrato un’ottima inibizione della crescita in linee cellulari di MB, accompagnata da una riduzione della trascrizione genica e dei livelli proteici di MYCN. Inoltre, sono stati confermati tramite RT-PCR alcuni dei geni trovati significativamente variati nell’esperimento di microarray , dopo il trattamento. Molto interessanti sono stati geni quali BIRC5, che risulta down regolato mentre il gene p21 risulta up regolato in tutte le linee cellulari di MB utilizzate. Inoltre, sono stati generati modelli murini di MB utilizzando cellule precedentemente trasfettate per esprimere il gene della luciferasi e valutarne così la crescita tumorale tramite imaging bioluminescente in vivo (BLI), al fine di poter testare l’attività antitumorale data dagli oligonucleotidi. I risultati hanno dimostrato una buona risposta al trattamento come rilevato dalla tecnica di BLI. I dati preliminari prodotti, dimostrano che MYCN potrebbe esser un buon target per la terapia del MB nei casi in cui è overespresso. In particolare, una sua inibizione potrebbe presentare effetti indesiderati moderati in quanto è poco espresso dopo la nascita.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Gli impianti di riscaldamento sono costituiti dalle seguenti parti: sistema di produzione (pompa di calore, caldaia, pannelli solari, gruppi frigoriferi, ecc), sistema di distribuzione (tubazioni necessarie a trasportare il fluido vettore ai terminali di utilizzo), sistema di erogazione (i radiatori, oppure i ventilconvettori, i pannelli radianti a pavimento, a parete, a soffitto, etc.), sistema di regolazione, sistema di accumulo. L’impianto da inserire deve bilanciare le dispersioni termiche dell’edificio, che dipendono essenzialmente dalla temperatura interna desiderata di 20°C, dalla temperatura esterna, dall’isolamento e dal volume da riscaldare. L’obiettivo della tesi è analizzare il risultato raggiunto dal punto di vista del benessere ambientale e del consumo energetico trascurando l’aspetto della fattibilità dell’impianto e del costo che quest’ultimo può avere.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’ossido di grafene (GO) è un materiale stratificato prodotto dall'ossidazione di cristalli di grafite con una miscela di acido solforico, nitrato di sodio e permanganato di potassio. A differenza del grafene, l'ossido di grafene è fortemente ossigenato, reca gruppi funzionali ossidrilici ed epossidici sui piani basali, che sono dei punti di attacco ottimali per la funzionalizzazione e la compatibilizzazione del grafene con la matrice polimerica, oltre a gruppi carbonilici e carbossilici situati ai bordi dei piani. Una delle applicazioni più promettenti di questo materiale è nei nanocompositi polimerici, ovvero materiali a matrice polimerica che incorporano materiali riempitivi nanodimensionali. Grazie alle dimensioni estremamente ridotte della carica e della sua elevata area superficiale, che garantisce una elevata interazione interfacciale polimero/riempitivo, basse quantità di nanocariche sono in grado di modificare pesantemente le proprietà della matrice migliorandone notevolmente le performance, così da ottenere notevoli incrementi prestazionali nel polimero. In questo lavoro di tesi, si è studiata la possibilità di aggiungere il GO in matrice poliuretanica al fine di migliorarne le proprietà. Il lavoro di tesi ha dimostrato su scala di laboratorio una produttività compatibile con le esigenze industriali. Potrebbero così essere preparati materiali più leggeri ed estremamente performanti con applicazioni nel campo automobilistico, aerospaziale, aeronautico e dei materiali in generale. L’incremento delle proprietà meccaniche ottenute con l’aggiunta di piccolissime quantità di GO, può essere sfruttato nella costruzione di manufatti che debbano sopportare carichi elevati senza modificare le altre proprietà del materiale (prodotto ad elevato valore aggiunto).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le tecniche di polimerizzazione radicalica vivente hanno acquisito negli ultimi anni grande risonanza presso la comunità scientifica, grazie alla loro versatilità sia in termini di monomeri utilizzabili, che di condizioni operative. Oltre a ciò, esse permettono un buon controllo del peso molecolare e della struttura chimica del polimero e prevedono anche la possibilità di funzionalizzare facilmente i gruppi terminali delle catene. Tra queste tecniche, la Reversible Addition–Fragmentation chain Transfer polymerization (RAFT) risulta essere una delle più conosciute ed utilizzate, in quanto permette di ottenere materiali funzionalizzati con architetture molecolari particolarmente sofisticate e/o strutture in grado di autoorganizzarsi spazialmente. In questo contesto, sono stati sintetizzati mediante RAFT dei copolimeri anfifilici contenenti cromofori azobenzenici, in grado di autoassemblarsi in micelle sensibili a stimoli esterni, quali variazioni di temperatura e irraggiamento luminoso ad una adeguata lunghezza d’onda.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il task del data mining si pone come obiettivo l'estrazione automatica di schemi significativi da grandi quantità di dati. Un esempio di schemi che possono essere cercati sono raggruppamenti significativi dei dati, si parla in questo caso di clustering. Gli algoritmi di clustering tradizionali mostrano grossi limiti in caso di dataset ad alta dimensionalità, composti cioè da oggetti descritti da un numero consistente di attributi. Di fronte a queste tipologie di dataset è necessario quindi adottare una diversa metodologia di analisi: il subspace clustering. Il subspace clustering consiste nella visita del reticolo di tutti i possibili sottospazi alla ricerca di gruppi signicativi (cluster). Una ricerca di questo tipo è un'operazione particolarmente costosa dal punto di vista computazionale. Diverse ottimizzazioni sono state proposte al fine di rendere gli algoritmi di subspace clustering più efficienti. In questo lavoro di tesi si è affrontato il problema da un punto di vista diverso: l'utilizzo della parallelizzazione al fine di ridurre il costo computazionale di un algoritmo di subspace clustering.