1000 resultados para gruppi di permutazioni azioni di gruppi
Resumo:
La tesi si pone come obiettivo quello di indagare le mostre di moda contemporanee come macchine testuali. Se consideriamo l’attuale panorama del fashion design come caratterizzato da una complessità costitutiva e da rapidi mutamenti che lo attraversano, e se partiamo dal presupposto che lo spettro di significati che uno stile di abbigliamento e i singoli capi possono assumere è estremamente sfuggente, probabilmente risulta più produttivo interrogarsi su come funziona la moda, su quali sono i suoi meccanismi di produzione di significato. L’analisi delle fashion exhibition si rivela quindi un modo utile per affrontare la questione, dato che gli allestimenti discorsivizzano questi meccanismi e rappresentano delle riflessioni tridimensionali attorno a temi specifici. La mostra di moda mette in scena delle eccezionalità che magnificano aspetti tipici del funzionamento del fashion system, sia se ci rivolgiamo alla moda dal punto di vista della produzione, sia se la consideriamo dal punto di vista della fruizione. L’indagine ha rintracciato nelle mostre curate da Diana Vreeland al Costume Institute del Metropolitan Museum di New York il modello di riferimento per le mostre di moda contemporanee. Vreeland, che dal 1936 al 1971 è stata prima fashion editor e poi editor-in-chief rispettivamente di “Harper’s Bazaar” e di “Vogue USA”, ha segnato un passaggio fondamentale quando nel 1972 ha deciso di accettare il ruolo di Special Consultant al Costume Institute. È ormai opinione diffusa fra critici e studiosi di moda che le mostre da lei organizzate nel corso di più di un decennio abbiano cambiato il modo di mettere in scena i vestiti nei musei. Al lavoro di Vreeland abbiamo poi accostato una recente mostra di moda che ha fatto molto parlare di sé: Spectres. When Fashion Turns Back, a cura di Judith Clark (2004). Nell’indagare i rapporti fra il fashion design contemporaneo e la storia della moda questa mostra ha utilizzato macchine allestitive abitate dai vestiti, per “costruire idee spaziali” e mettere in scena delle connessioni non immediate fra passato e presente. Questa mostra ci è sembrata centrale per evidenziare lo sguardo semiotico del curatore nel suo interrogarsi sul progetto complessivo dell’exhibition design e non semplicemente sullo studio degli abiti in mostra. In questo modo abbiamo delineato due posizioni: una rappresentata da un approccio object-based all’analisi del vestito, che si lega direttamente alla tradizione dei conservatori museali; l’altra rappresentata da quella che ormai si può considerare una disciplina, il fashion curation, che attribuisce molta importanza a tutti gli aspetti che concorrono a formare il progetto allestitivo di una mostra. Un lavoro comparativo fra alcune delle più importanti mostre di moda recentemente organizzate ci ha permesso di individuare elementi ricorrenti e specificità di questi dispositivi testuali. Utilizzando il contributo di Manar Hammad (2006) abbiamo preso in considerazione i diversi livelli di una mostra di moda: gli abiti e il loro rapporto con i manichini; l’exhibition design e lo spazio della mostra; il percorso e la sequenza, sia dal punto di vista della strategia di costruzione e dispiegamento testuale, sia dal punto di vista del fruitore modello. Abbiamo così individuato quattro gruppi di mostre di moda: mostre museali-archivistiche; retrospettive monografiche; mostre legate alla figura di un curatore; forme miste che si posizionano trasversalmente rispetto a questi primi tre modelli. Questa sistematizzazione ha evidenziato che una delle dimensione centrali per le mostre di moda contemporanee è proprio la questione della curatorship, che possiamo leggere in termini di autorialità ed enunciazione. Si sono ulteriormente chiariti anche gli orizzonti valoriali di riferimento: alla dimensione dell’accuratezza storica è associata una mostra che predilige il livello degli oggetti (gli abiti) e un coinvolgimento del visitatore puramente visivo; alla dimensione del piacere visivo possiamo invece associare un modello di mostra che assegna all’exhibition design un ruolo centrale e “chiede” al visitatore di giocare un ruolo pienamente interattivo. L’approccio curatoriale più compiuto ci sembra essere quello che cerca di conciliare queste due dimensioni.
Resumo:
“Perdita di fase tra il gruppo riempimento polvere/cronoidi con LVDT ed il gruppo piattello durante la fase di arresto a causa della mancanza imprevista di corrente elettrica”. La perdita della fase tra differenti gruppi può avvenire per due ragioni: 1) a causa della cedevolezza di alcuni elementi della catena cinematica 2) per problemi relativi al software che comanda gli assi elettronici e che è responsabile del movimento coordinato dei vari gruppi. La prima ipotesi è molto improbabile in macchine come l’ADAPTA, dove non sono presenti elementi cinematici con elevata cedevolezza (come ad esempio delle cinghie) essendo i movimenti guidati da camme scanalate (che, contrariamente, sono molto rigide) e/o da camme elettriche (motori Brushless). Il secondo caso invece avviene ogni volta che viene a mancare la corrente elettrica in maniera accidentale (ad esempio a causa di un black-out). La mancanza di energia elettrica impedisce al computer a bordo macchina di continuare a monitorare e controllare il funzionamento dei vari assi elettronici della macchina, che sono comandati da motori brushless, che quindi continuano per inerzia il loro moto fino a fermarsi. Siccome ogni gruppo ha un’inerzia e una velocità/accelerazione istantanea diversa e variabile in funzione della posizione assunta all’interno del proprio ciclo nel momento della mancanza di corrente elettrica, i tempi di arresto risultano differenti, e questo causa la perdita di fase. I gruppi riempimento polvere/cronoidi e spingitori fondelli presentano interferenza meccanica col gruppo piattello per una certa durata del suo ciclo; in questa fase gli elementi entrano nelle boccole porta fondelli delle slitte mobili del piattello. È l’unico caso in tutta la macchina in cui parti meccaniche di gruppi diversi, vanno a “intersecare” i propri spostamenti. La progettazione di macchine che presentano interferenze di questo genere è generalmente sconsigliabile poiché si potrebbe presentare il rischio di uno scontro nel caso avvenga una perdita di fase tra i gruppi. Si sono cercate diverse soluzioni mirate a evitare un urto, derivato dall’interferenza meccanica, in caso di black-out oppure di ridurre il più possibile i danni che questa casualità può portare alla macchina. Il gruppo piattello è definito master rispetto a tutti gli altri gruppi; ha un’inerzia molto piccola e questo fa si che, in caso di black-out, il suo arresto avvenga praticamente istantaneamente, al contrario di ciò che avviene per tutti gli altri gruppi slave dotati di inerzia maggiore. Siccome l’arresto del piattello è istantaneo, il pericolo per tastatori e punzoni sollevatori di urto può avvenire solamente per compenetrazione: se gli elementi sono già all’interno della boccola, e restando fermo il piattello, l’inerzia del gruppo che fa proseguire il moto per alcuni istanti non farebbe altro che portarli fuori dalla boccola, non provocando alcun danno. Non vi è perciò il pericolo di “taglio” di questi elementi da parte del piattello. Perciò l’unica possibilità è che il black-out avvenga in un istante del ciclo dove gli elementi si stanno muovendo per entrare nelle boccole mentre anche il piattello è in rotazione.
Resumo:
Il presente lavoro nasce dall’obiettivo di individuare strumenti statistici per indagare, sotto diversi aspetti, il flusso di lavoro di un Laboratorio di Anatomia Patologica. Il punto di partenza dello studio è l’ambiente di lavoro di ATHENA, software gestionale utilizzato nell’Anatomia Patologica, sviluppato dalla NoemaLife S.p.A., azienda specializzata nell’informatica per la sanità. A partire da tale applicativo è stato innanzitutto formalizzato il workflow del laboratorio (Capitolo 2), nelle sue caratteristiche e nelle sue possibili varianti, identificando le operazioni principali attraverso una serie di “fasi”. Proprio le fasi, unitamente alle informazioni addizionali ad esse associate, saranno per tutta la trattazione e sotto diversi punti di vista al centro dello studio. L’analisi che presentiamo è stata per completezza sviluppata in due scenari che tengono conto di diversi aspetti delle informazioni in possesso. Il primo scenario tiene conto delle sequenze di fasi, che si presentano nel loro ordine cronologico, comprensive di eventuali ripetizioni o cicli di fasi precedenti alla conclusione. Attraverso l’elaborazione dei dati secondo specifici formati è stata svolta un’iniziale indagine grafica di Workflow Mining (Capitolo 3) grazie all’ausilio di EMiT, un software che attraverso un set di log di processo restituisce graficamente il flusso di lavoro che li rappresenta. Questa indagine consente già di valutare la completezza dell’utilizzo di un applicativo rispetto alle sue potenzialità. Successivamente, le stesse fasi sono state elaborate attraverso uno specifico adattamento di un comune algoritmo di allineamento globale, l’algoritmo Needleman-Wunsch (Capitolo 4). L’utilizzo delle tecniche di allineamento applicate a sequenze di processo è in grado di individuare, nell’ambito di una specifica codifica delle fasi, le similarità tra casi clinici. L’algoritmo di Needleman-Wunsch individua le identità e le discordanze tra due stringhe di caratteri, assegnando relativi punteggi che portano a valutarne la similarità. Tale algoritmo è stato opportunamente modificato affinché possa riconoscere e penalizzare differentemente cicli e ripetizioni, piuttosto che fasi mancanti. Sempre in ottica di allineamento sarà utilizzato l’algoritmo euristico Clustal, che a partire da un confronto pairwise tra sequenze costruisce un dendrogramma rappresentante graficamente l’aggregazione dei casi in funzione della loro similarità. Proprio il dendrogramma, per la sua struttura grafica ad albero, è in grado di mostrare intuitivamente l’andamento evolutivo della similarità di un pattern di casi. Il secondo scenario (Capitolo 5) aggiunge alle sequenze l’informazione temporale in termini di istante di esecuzione di ogni fase. Da un dominio basato su sequenze di fasi, si passa dunque ad uno scenario di serie temporali. I tempi rappresentano infatti un dato essenziale per valutare la performance di un laboratorio e per individuare la conformità agli standard richiesti. Il confronto tra i casi è stato effettuato con diverse modalità, in modo da stabilire la distanza tra tutte le coppie sotto diversi aspetti: le sequenze, rappresentate in uno specifico sistema di riferimento, sono state confrontate in base alla Distanza Euclidea ed alla Dynamic Time Warping, in grado di esprimerne le discordanze rispettivamente temporali, di forma e, dunque, di processo. Alla luce dei risultati e del loro confronto, saranno presentate già in questa fase le prime valutazioni sulla pertinenza delle distanze e sulle informazioni deducibili da esse. Il Capitolo 6 rappresenta la ricerca delle correlazioni tra elementi caratteristici del processo e la performance dello stesso. Svariati fattori come le procedure utilizzate, gli utenti coinvolti ed ulteriori specificità determinano direttamente o indirettamente la qualità del servizio erogato. Le distanze precedentemente calcolate vengono dunque sottoposte a clustering, una tecnica che a partire da un insieme eterogeneo di elementi individua famiglie o gruppi simili. L’algoritmo utilizzato sarà l’UPGMA, comunemente applicato nel clustering in quanto, utilizzando, una logica di medie pesate, porta a clusterizzazioni pertinenti anche in ambiti diversi, dal campo biologico a quello industriale. L’ottenimento dei cluster potrà dunque essere finalmente sottoposto ad un’attività di ricerca di correlazioni utili, che saranno individuate ed interpretate relativamente all’attività gestionale del laboratorio. La presente trattazione propone quindi modelli sperimentali adattati al caso in esame ma idealmente estendibili, interamente o in parte, a tutti i processi che presentano caratteristiche analoghe.
Resumo:
Obiettivo del presente lavoro è approntare un’analisi interpretativa dell’operatività dalle Finanziarie regionali, valutarne gli investimenti in capitale di rischio e, in particolare, l’attività di private equity, evidenziando le tendenze in atto, i possibili percorsi evolutivi e le eventuali criticità. La metodologia adottata ha previsto un’articolazione del lavoro lungo due principali direttive: un’analisi di tipo quantitativo sui bilanci di sette esercizi (dal 2002 al 2008), con la finalità di indagare nel dettaglio gli aspetti economici, finanziari e patrimoniali delle Finanziarie regionali attive sul territorio italiano; un’analisi qualitativa basata su un’approfondita rassegna della letteratura internazionale e su interviste mirate ad un campione ampiamente rappresentativo della popolazione osservata. I risultati raggiunti fanno ragionevolmente supporre che sia in atto una profonda ristrutturazione dell’intero sistema delle Finanziarie, che ha visto innanzitutto aumentare il controllo pubblico nella compagine sociale. L’indagine contabile ha permesso di identificare la presenza di due modelli di business ben differenziati: alcune Finanziarie sono orientate ad attività con forte contenuto di intermediazione finanziaria; altre invece sono focalizzate sull’attività di erogazione di servizi sia finanziari di consulenza che reali. L’investimento in capitale di rischio costituisce un attività centrale per le Finanziarie regionali; l’analisi dedicata a tali impieghi ha permesso di individuare, tra esse, alcune realtà tipiche del merchant banking, e più di frequente, del modello di holding. Complessivamente le Finanziarie campionate detengono oltre 400 partecipazioni per un valore che supera 1,7 miliardi di euro; prevalentemente concentrati su una ristretta cerchia di realtà spesso con impatto strategico sul territorio, ovvero strumentali. Segnatamente all’attività di private equity, è stato possibile rilevare come la politica d’investimento delle Finanziarie regionali sia complementare rispetto a quella mediamente espressa dal mercato domestico, anche se restano critici, anche per le Finanziarie, gli investimenti su imprese target con fatturato compreso tra 2 e 10 milioni di euro. Le evidenze circa la struttura dei contratti segnalano una parziale conformità alla best practice individuata dalla letteratura internazionale. In particolare l’uso limitato dello stage financing, la bassa partecipazione alla gestione sono le principali criticità individuate. Infine, della fase di riorganizzazione che pare interessare il sistema delle Finanziarie, si trova conferma nella percezione dei suoi operatori. Interpellati sul futuro dell’attività di investimento in capitale di rischio, hanno fornito indicazioni che consentono di concludere l’esistenza di una polarizzazione delle Finanziarie su due gruppi: da un lato quelle che implementeranno, più o meno, l’attività di private equity, dall’altro quelle che, viceversa, abbandoneranno tale strumento. La normativa sulle società a partecipazione pubblica regionale e la scarsa autonomia nella gestione delle misure affidate sono ritenute, dalle Finanziarie “interessate”, il principale fattore di freno alla loro crescita nel mercato del private equity.
Resumo:
Questo lavoro di tesi rientra nel progetto europeo SaveMe, al quale partecipa il gruppo di ricerca del dipartimento di chimica organica nel quale ho svolto l’attività di tirocinio. Obiettivo finale di tale progetto è la sintesi di nanoparticelle a base di PLGA (acido poli(D,L-lattico-co-glicolico)) superficialmente funzionalizzate con biomolecole, per l’impiego nel trattamento e nella diagnosi del cancro al pancreas. L’obiettivo da raggiungere nel primo anno di ricerca per il mio gruppo era la sintesi delle nanoparticelle centrali (core nanosystems). Nel presente lavoro sono quindi riportati i metodi di sintesi di polimeri derivati da PLGA e suoi copolimeri con PEG (polietilenglicole) aventi vari gruppi funzionali terminali: acidi idrossamici, amminici e acidi carbossilici. I polimeri sintetizzati sono stati caratterizzati tramite test colorimetrici qualitativi, 1H-NMR, 13C-NMR, spettrometria IR e TGA. Sono state sintetizzate nanoparticelle polimeriche (PNPs), con le tecniche Oil/Water (O/W) e nanoprecipitazione (NP), basate sui polimeri ottenuti, aventi quindi funzioni acide, idrossamiche ed amminiche sulla superficie. Su queste PNPs è stato effettuata una decorazione superficiale con nanoparticelle metalliche di maghemite (CAN-Maghemite). Le nanoparticelle polimeriche sono state caratterizzate tramite DLS e delle PNPs decorate sono state ottenute immagini TEM. Sono riportati inoltre i test di viabilità cellulare delle nanoparticelle ottenute.
Resumo:
L’attuale condizione che caratterizza il settore energetico richiede un necessario processo di riconversione che, oltre a favorire il risparmio energetico, riduca la dipendenza dai combustibili fossili ed accresca l’impiego di fonti energetiche rinnovabili, dando un contributo fondamentale alla riduzione delle emissioni di gas serra come diversi accordi internazionali richiedono. Si rende pertanto necessario accelerare i processi che da alcuni anni stanno favorendo l’utilizzo di energia da fonti rinnovabili. Tra queste, le fonti legate ai processi di trattamento biologico dei reflui stanno avendo un interessante sviluppo. Esistono numerosi processi biologici che consentono la produzione di energia in maniera indiretta, quali ad esempio i processi di digestione anaerobica finalizzati alla produzione di biogas e/o produzione biologica di idrogeno. In tale contesto si inserisce la tecnologia delle Microbial Fuel Cell, che consente la produzione diretta di energia elettrica, finalizzata al recupero energetico inteso al miglioramento dell’efficienza energetica e alla riduzione dei costi d’esercizio di impianti di trattamento biologico dei reflui. Il presente lavoro di Tesi di Dottorato sperimentale, svoltosi in collaborazione al laboratorio PROT.-IDR. della sede ENEA di Bologna, riporta i risultati dell’attività di ricerca condotta su una MFC (Microbial Fuel Cell) a doppio stadio biologico per il trattamento di reflui ad elevato carico organico e produzione continua di energia elettrica. E’ stata provata l’applicabilità della MFC con entrambi i comparti biotici utilizzando elettrodi di grafite non trattata ottenendo, con un carico organico in ingresso di circa 9 gd-1, valori di potenza massima prodotta che si attestano su 74 mWm-2, corrente elettrica massima generata di 175 mAm-2 ad una tensione di 421 mV, ed una conversione di COD in elettricità pari a 1,2 gCODm-2d-1. I risultati sono stati molto positivi per quanto riguarda le prestazioni depurative ottenute dalla MFC. L’efficienza di depurazione misurata ha raggiunto un valore massimo del 98% di rimozione del COD in ingresso, mentre e la concentrazione di azoto ammoniacale nell’effluente raccolto all’uscita del sedimentatore è sempre stata inferiore a 1 mgN-NH4+l-1. Tra gli obiettivi posti all’inizio della sperimentazione si è rivelata di notevole interesse la valutazione del possibile utilizzo della MFC come sistema per il monitoraggio on-line del COD e degli acidi grassi volatili (VFA) prodotti all’interno di un digestore anaerobico, attraverso la definizione di una correlazione tra i dati elettrici registrati in continuo e le concentrazioni di CODanaer e VFA misurate in diversi periodi della sperimentazione. L’analisi DGGE della biomassa catodica ha fornito uno strumento analitico utile allo studio della diversità della comunità microbica sospesa ed adesa al catodo e ha confermato la forte similarità delle specie batteriche riconosciute nei campioni analizzati. In particolare, le bande di sequenziamento ottenute sono affiliate ai gruppi batterici Firmicutes, -Proteobacteria, -Proteobacteria, -Proteobacteria e Bacteroidetes. Da quanto emerso dalla sperimentazione condotta si può pertanto concludere che ad oggi le MFC sono in fase di evoluzione rispetto ai primi prototipi utilizzati per lo studio delle comunità microbiali e per la comprensione dei meccanismi di trasferimento elettronico. Sfruttarne la potenza prodotta in maniera commerciale diviene una grande sfida per il futuro, ed è opinione comune che le prime applicazioni pratiche delle MFC saranno come fonte di recupero energetico per i dispositivi utilizzati per il monitoraggio dell’ambiente e per il trattamento delle acque reflue.
Resumo:
Le moderne tecniche di imaging e i recenti sviluppi nel campo della visione computazionale consentono sempre più diffusamente l'utilizzo di metodi di image analysis, specialmente in ambito medico e biologico, permettendo un maggiore supporto sia alla diagnosi, sia alla ricerca. Il lavoro svolto in questa tesi si pone in un contesto di ricerca di carattere interdisciplinare, e riguarda il progetto e la realizzazione di un‘interfaccia grafica per l'analisi di colture batteriche geneticamente modificate, marcate con proteine fluorescenti (GFP), acquisite tramite un microscopio ad epifluorescenza. Nota la funzione di risposta del sistema di acquisizione delle immagini, l'analisi quantitativa delle colture batteriche è effettuata mediante la misurazione di proprietà legate all'intensità della risposta al marcatore fluorescente. L'interfaccia consente un'analisi sia globale dei batteri individuati nell'immagine, sia di singoli gruppi di batteri selezionati dall'utente, fornendo utili informazioni statistiche, sia in forma grafica che numerica. Per la realizzazione dell'interfaccia sono state adottate tecniche di ingegneria del software, con particolare enfasi alla interazione uomo-macchina e seguendo criteri di usability, al fine di consentire un corretto utilizzo dello strumento anche da parte di personale senza conoscenza in campo informatico.
Resumo:
La Piastinopenia Immune (PTI) è una patologia autoimmune ad eziologia ignota caratterizzata da piastrinopenia. I linfociti T regolatori (Tregs) sono coinvolti nei meccanismi di tolleranza immunologica e agiscono regolando l’attività delle cellule T autoreattive e delle cellule dendritiche (DCs). Viceversa, le DCs, che esprimono Indoleamine 2,3-dioxygenase (IDO), partecipano al mantenimento della tolleranza agli auto-antigeni attraverso l’espansione dei Tregs. Inoltre, recenti studi hanno dimostrato che i linfociti T helper 17 (Th17) sono coinvolti nell’autoimmunità e che l’espressione di Interleuchina (IL)-17 è associata a numerose patologie autoimmuni. Il ruolo dell’interazione fra DCs e Tregs ed il ruolo dei Th17 nella patogenesi della PTI non sono mai stati studiati in maniera approfondita. Gli obiettivi principali di questa tesi sono stati: a) caratterizzare fenotipicamente e funzionalmente i linfociti Tregs e DCs; b) valutare il ruolo patogenetico dell’interazione tra Tregs e DCs; c) quantificare i Th17 circolanti. I risultati dimostrano che: 1) il numero dei Tregs circolanti dei pazienti, identificati tramite i marcatori Foxp3 e CD127, è significativamente ridotto rispetto alla controparte normale; 2) la conversione in vitro delle cellule CD4+CD25- in linfociti Tregs (CD4+CD25+Foxp3+) dopo stimolazione con DCs mature è significativamente ridotta nei pazienti rispetto ai controlli; 3) sia l’espressione dell’enzima IDO nelle DCs mature (mRNA) che i livelli di chinurenine prodotte (indice di attività enzimatica) sono risultati significativamente ridotti nei pazienti rispetto alla controparte normale. Questi risultati suggeriscono quindi che il ridotto numero dei Tregs circolanti nei pazienti con PTI può essere, almeno in parte, attribuito alla scarsa capacità di conversione delle DCs, in quanto tali cellule esprimono meno IDO. I risultati dimostrano inoltre che: 1) i Tregs dei pazienti con PTI hanno una capacità soppressoria che è significativamente inferiore rispetto ai soggetti normali; tale dato è stato confermato dal dosaggio di IFN- nel surnatante della coltura; 2) i Tregs di pazienti con PTI non sono in grado di inibire la maturazione delle DCs, a differenza di quanto avviene nei soggetti sani: infatti, l’espressione delle molecole costimolatorie CD80 e CD86 sulle DCs è risultata invariata in seguito a cocoltura con DCs immature; 3) il dosaggio delle citochine nel surnatante delle cocolture dimostra che la concentrazione di IL-10 e IL-6 è significativamente ridotta nei pazienti rispetto ai controlli. La scarsa abilità dei Tregs di inibire la maturazione delle DCs e l’alterato pattern di secrezione di citochine potrebbero quindi contribuire all’ insorgenza del fenotipo più maturo delle DCs nei pazienti con PTI. I linfociti Th17 circolanti di pazienti e controlli sono stati identificati in citofluorimetria come cellule CD4+CD161+CD196+. Da tale analisi è emerso che la frequenza dei Th17 circolanti non è significativamente diversa nei due gruppi. Questi dati dimostrano quindi che nella PTI l’interazione bidirezionale tra Tregs e DCs risulta alterata e svolge un ruolo patogenetico, in quanto, da un lato, ci sono Tregs con un deficit numerico e funzionale e, dall’altro, DCs con maggiore capacità immunogenica. Il numero dei Th17 non risulta invece alterato.
Resumo:
L’argomento scelto riguarda l’adozione di standard privati da parte di imprese agro-alimentari e le loro conseguenze sulla gestione globale dell’azienda. In particolare, lo scopo di questo lavoro è quello di valutare le implicazioni dovute all’adozione del BRC Global Standard for Food Safety da parte delle imprese agro-alimentari italiane. La valutazione di tale impatto è basata sulle percezioni dei responsabili aziendali in merito ad aspetti economici, gestionali, commerciali, qualitativi, organizzativi. La ricerca ha seguito due passaggi fondamentali: innanzitutto sono state condotte 7 interviste in profondità con i Responsabili Qualità (RQ) di aziende agro-alimentari italiane certificate BRC Food. Le variabili estrapolate dall’analisi qualitativa del contenuto delle interviste sono state inserite, insieme a quelle rilevate in letteratura, nel questionario creato per la successiva survey. Il questionario è stato inviato tramite e-mail e con supporto telefonico ad un campione di aziende selezionato tramite campionamento random. Dopo un periodo di rilevazione prestabilito, sono stati compilati 192 questionari. L’analisi descrittiva dei dati mostra che i RQ sono in buona parte d’accordo con le affermazioni riguardanti gli elementi d’impatto. Le affermazioni maggiormente condivise riguardano: efficienza del sistema HACCP, efficienza del sistema di rintracciabilità, procedure di controllo, formazione del personale, miglior gestione delle urgenze e non conformità, miglior implementazione e comprensione di altri sistemi di gestione certificati. Attraverso l’analisi ANOVA fra variabili qualitative e quantitative e relativo test F emerge che alcune caratteristiche delle aziende, come l’area geografica, la dimensione aziendale, la categoria di appartenenza e il tipo di situazione nei confronti della ISO 9001 possono influenzare differentemente le opinioni degli intervistati. Successivamente attraverso un’analisi fattoriale sono stati estratti 8 fattori partendo da un numero iniziale di 28 variabili. Sulla base dei fattori è stata applicata la cluster analysis di tipo gerarchico che ha portato alla segmentazione del campione in 5 gruppi diversi. Ogni gruppo è stato interpretato sulla base di un profilo determinato dal posizionamento nei confronti dei vari fattori. I risultati oltre ad essere stati validati attraverso focus group effettuati con ricercatori ed operatori del settore, sono stati supportati anche da una successiva indagine qualitativa condotta presso 4 grandi retailer inglesi. Lo scopo di questa successiva indagine è stato quello di valutare l’esistenza di opinioni divergenti nei confronti dei fornitori che andasse quindi a sostenere l’ipotesi di un problema di asimmetria informativa che nonostante la presenza di standard privati ancora sussiste nelle principali relazioni contrattuali. Ulteriori percorsi di ricerca potrebbero stimare se la valutazione dell’impatto del BRC può aiutare le aziende di trasformazione nell’implementazione di altri standard di qualità e valutare quali variabili possono influenzare invece le percezioni in termini di costi dell’adozione dello standard.
Resumo:
Il lavoro eseguito comprende 3 differenti studi inerenti l’approfondimento di diversi aspetti della fisiopatologia della prostata, in particolare l’aspetto clinico, biochimico ed ormonale. Per quanto riguarda l’aspetto clinico è stato eseguito uno studio ecografico sull’accrescimento e sviluppo della ghiandola, a partire dai 4 giorni di vita all’anno di età del cane. L’aspetto biochimico dell’organo è stato indagato nel secondo studio, analizzando l’eventuali differenze nel profilo proteico e nel profilo dello zinco, valutato con spettrofotometria ad assorbimento atomico, su campioni di plasma seminale di cani sani o cani affetti da iperplasia prostatica benigna sintomatica od asintomatica. Lo studio è stato eseguito allo scopo di valutare se l’approccio biochimico ai problemi prostatici possa essere d’aiuto nella diagnosi della più comune patologia della prostata, l’iperplasia prostatica benigna. Il terzo studio inerente l’aspetto ormonale della prostata, completa lo studio precedente, analizzando le eventuali differenze ormonali (Testosterone, Estrogeni e Progesterone) riscontrabili fra due gruppi di cani: i cani sani e quelli affetti da iperplasia prostatica benigna.
Resumo:
La tesi è un'introduzione classica alla teoria dei Gruppi di Lie, con esempi tratti dall'algebra lineare elementare (fondamentalmente di gruppi matriciali). Dopo alcuni esempi concreti in dimensione tre, si passano a definire varietà topologiche e differenziali, e quindi gruppi di Lie astratti (assieme alle loro Algebre di Lie). Nel terzo capitolo si dimostra come alcuni sottogruppi del Gruppo Generale Lineare siano effettivamente Gruppi di Lie.
Resumo:
La scarsità di informazioni sulle reazioni che intervengono nel processo di stiratura semipermanente dei capelli e la necessità di trovare prodotti alternativi all’uso della formaldeide ha portato a intraprendere questo lavoro di tesi. Esso si è svolto seguendo due linee principali: l’indagine sui possibili meccanismi di reazione che intervengono fra composti aventi gruppi aldeidici, quali formaldeide o acido gliossilico (particolarmente efficaci nel processo di stiratura), e alcuni amminoacidi presenti nei capelli da un lato, e uno studio sulle modificazioni che intervengono nella fibra attraverso spettroscopia Raman e ATR-FT-IR e microscopia elettronica a scansione (SEM) dall’altro. Partendo dall’ipotesi più plausibile di una addizione sull’atomo di carbonio carbonilico da parte di nucleofili presenti su alcuni residui amminoacidici della catena polipeptidica, sono stati presi in considerazioni tre gruppi funzionali presenti sugli amminoacidi che possono dar luogo ad addizione reversibile al carbonio carbonilico: il gruppo tiolico che comportandosi come nucleofilo allo zolfo potrebbe dare formazione di semitioacetali, il gruppo ossidrilico di amminoacidi come serina e treonina che potrebbe dare semiacetali, ed il gruppo amminico di amminoacidi basici che agendo da nucleofilo all’azoto potrebbe generare immine. Dopo aver indagato sulla reazione fra aldeide formica (o acido gliossilico) con cisteina e derivati, l’indagine è proseguita utilizzando come amminoacido basico modello N-acetil-L-lisina, dove il gruppo amminico in posizione alfa al carbossile è protetto per cercare di mimare la situazione nel polipeptide. Alcune prove sono state condotte facendo reagire questo substrato sia con una serie di aldeidi aromatiche in diverse condizioni sperimentali che con acido gliossilico. In seguito sono state svolte analisi mediante spettroscopia Raman e ATR-FT-IR su ciocche di pelo di yak nelle diverse fasi del trattamento più comunemente utilizzato nella stiratura semipermanente. Questo ha permesso di ottenere indicazioni sia sulle modificazioni della struttura secondaria subite dalla fibra che sul verificarsi di reazioni fra agente lisciante e residui amminoacidici presenti su di essa. Infine è stata svolta un’indagine SEM sia su fibre di yak che su capelli umani ricci per osservare le variazioni superficiali nei diversi stadi del trattamento.