464 resultados para teoria di Galois estensioni radicali estensioni risolubili gruppi risolubili
Resumo:
Trent’anni or sono il concetto di ottimalità venne formulato in senso teorico da Lévy, ma solo un decennio dopo Lamping riesce a darne elegante implementazione algoritmica. Realizza un sistema di riduzione su grafi che si scoprirà poi avere interessanti analogie con la logica lineare presentata nello stesso periodo da Girard. Ma l’ottimalità è davvero ottimale? In altre parole, l’implementazione ottimale del λ calcolo realizzata attraverso i grafi di condivisione, è davvero la migliore strategia di riduzione, in termini di complessità? Dopo anni di infondati dubbi e di immeritato oblìo, alla conferenza LICS del 2007, Baillot, Coppola e Dal Lago, danno una prima risposta positiva, seppur parziale. Considerano infatti il caso particolare delle logiche affini elementare e leggera, che possiedono interessanti proprietà a livello di complessità intrinseca e semplificano l’arduo problema. La prima parte di questa tesi presenta, in sintesi, la teoria dell’ottimalità e la sua implementazione condivisa. La seconda parte affronta il tema della sua complessità, a cominciare da una panoramica dei più importanti risultati ad essa legati. La successiva introduzione alle logiche affini, e alle relative caratteristiche, costituisce la necessaria premessa ai due capitoli successivi, che presentano una dimostrazione alternativa ed originale degli ultimi risultati basati appunto su EAL e LAL. Nel primo dei due capitoli viene definito un sistema intermedio fra le reti di prova delle logiche e la riduzione dei grafi, nel secondo sono dimostrate correttezza ed ottimalità dell’implementazione condivisa per mezzo di una simulazione. Lungo la trattazione sono offerti alcuni spunti di riflessione sulla dinamica interna della β riduzione riduzione e sui suoi legami con le reti di prova della logica lineare.
Resumo:
“Perdita di fase tra il gruppo riempimento polvere/cronoidi con LVDT ed il gruppo piattello durante la fase di arresto a causa della mancanza imprevista di corrente elettrica”. La perdita della fase tra differenti gruppi può avvenire per due ragioni: 1) a causa della cedevolezza di alcuni elementi della catena cinematica 2) per problemi relativi al software che comanda gli assi elettronici e che è responsabile del movimento coordinato dei vari gruppi. La prima ipotesi è molto improbabile in macchine come l’ADAPTA, dove non sono presenti elementi cinematici con elevata cedevolezza (come ad esempio delle cinghie) essendo i movimenti guidati da camme scanalate (che, contrariamente, sono molto rigide) e/o da camme elettriche (motori Brushless). Il secondo caso invece avviene ogni volta che viene a mancare la corrente elettrica in maniera accidentale (ad esempio a causa di un black-out). La mancanza di energia elettrica impedisce al computer a bordo macchina di continuare a monitorare e controllare il funzionamento dei vari assi elettronici della macchina, che sono comandati da motori brushless, che quindi continuano per inerzia il loro moto fino a fermarsi. Siccome ogni gruppo ha un’inerzia e una velocità/accelerazione istantanea diversa e variabile in funzione della posizione assunta all’interno del proprio ciclo nel momento della mancanza di corrente elettrica, i tempi di arresto risultano differenti, e questo causa la perdita di fase. I gruppi riempimento polvere/cronoidi e spingitori fondelli presentano interferenza meccanica col gruppo piattello per una certa durata del suo ciclo; in questa fase gli elementi entrano nelle boccole porta fondelli delle slitte mobili del piattello. È l’unico caso in tutta la macchina in cui parti meccaniche di gruppi diversi, vanno a “intersecare” i propri spostamenti. La progettazione di macchine che presentano interferenze di questo genere è generalmente sconsigliabile poiché si potrebbe presentare il rischio di uno scontro nel caso avvenga una perdita di fase tra i gruppi. Si sono cercate diverse soluzioni mirate a evitare un urto, derivato dall’interferenza meccanica, in caso di black-out oppure di ridurre il più possibile i danni che questa casualità può portare alla macchina. Il gruppo piattello è definito master rispetto a tutti gli altri gruppi; ha un’inerzia molto piccola e questo fa si che, in caso di black-out, il suo arresto avvenga praticamente istantaneamente, al contrario di ciò che avviene per tutti gli altri gruppi slave dotati di inerzia maggiore. Siccome l’arresto del piattello è istantaneo, il pericolo per tastatori e punzoni sollevatori di urto può avvenire solamente per compenetrazione: se gli elementi sono già all’interno della boccola, e restando fermo il piattello, l’inerzia del gruppo che fa proseguire il moto per alcuni istanti non farebbe altro che portarli fuori dalla boccola, non provocando alcun danno. Non vi è perciò il pericolo di “taglio” di questi elementi da parte del piattello. Perciò l’unica possibilità è che il black-out avvenga in un istante del ciclo dove gli elementi si stanno muovendo per entrare nelle boccole mentre anche il piattello è in rotazione.
Resumo:
Il presente lavoro nasce dall’obiettivo di individuare strumenti statistici per indagare, sotto diversi aspetti, il flusso di lavoro di un Laboratorio di Anatomia Patologica. Il punto di partenza dello studio è l’ambiente di lavoro di ATHENA, software gestionale utilizzato nell’Anatomia Patologica, sviluppato dalla NoemaLife S.p.A., azienda specializzata nell’informatica per la sanità. A partire da tale applicativo è stato innanzitutto formalizzato il workflow del laboratorio (Capitolo 2), nelle sue caratteristiche e nelle sue possibili varianti, identificando le operazioni principali attraverso una serie di “fasi”. Proprio le fasi, unitamente alle informazioni addizionali ad esse associate, saranno per tutta la trattazione e sotto diversi punti di vista al centro dello studio. L’analisi che presentiamo è stata per completezza sviluppata in due scenari che tengono conto di diversi aspetti delle informazioni in possesso. Il primo scenario tiene conto delle sequenze di fasi, che si presentano nel loro ordine cronologico, comprensive di eventuali ripetizioni o cicli di fasi precedenti alla conclusione. Attraverso l’elaborazione dei dati secondo specifici formati è stata svolta un’iniziale indagine grafica di Workflow Mining (Capitolo 3) grazie all’ausilio di EMiT, un software che attraverso un set di log di processo restituisce graficamente il flusso di lavoro che li rappresenta. Questa indagine consente già di valutare la completezza dell’utilizzo di un applicativo rispetto alle sue potenzialità. Successivamente, le stesse fasi sono state elaborate attraverso uno specifico adattamento di un comune algoritmo di allineamento globale, l’algoritmo Needleman-Wunsch (Capitolo 4). L’utilizzo delle tecniche di allineamento applicate a sequenze di processo è in grado di individuare, nell’ambito di una specifica codifica delle fasi, le similarità tra casi clinici. L’algoritmo di Needleman-Wunsch individua le identità e le discordanze tra due stringhe di caratteri, assegnando relativi punteggi che portano a valutarne la similarità. Tale algoritmo è stato opportunamente modificato affinché possa riconoscere e penalizzare differentemente cicli e ripetizioni, piuttosto che fasi mancanti. Sempre in ottica di allineamento sarà utilizzato l’algoritmo euristico Clustal, che a partire da un confronto pairwise tra sequenze costruisce un dendrogramma rappresentante graficamente l’aggregazione dei casi in funzione della loro similarità. Proprio il dendrogramma, per la sua struttura grafica ad albero, è in grado di mostrare intuitivamente l’andamento evolutivo della similarità di un pattern di casi. Il secondo scenario (Capitolo 5) aggiunge alle sequenze l’informazione temporale in termini di istante di esecuzione di ogni fase. Da un dominio basato su sequenze di fasi, si passa dunque ad uno scenario di serie temporali. I tempi rappresentano infatti un dato essenziale per valutare la performance di un laboratorio e per individuare la conformità agli standard richiesti. Il confronto tra i casi è stato effettuato con diverse modalità, in modo da stabilire la distanza tra tutte le coppie sotto diversi aspetti: le sequenze, rappresentate in uno specifico sistema di riferimento, sono state confrontate in base alla Distanza Euclidea ed alla Dynamic Time Warping, in grado di esprimerne le discordanze rispettivamente temporali, di forma e, dunque, di processo. Alla luce dei risultati e del loro confronto, saranno presentate già in questa fase le prime valutazioni sulla pertinenza delle distanze e sulle informazioni deducibili da esse. Il Capitolo 6 rappresenta la ricerca delle correlazioni tra elementi caratteristici del processo e la performance dello stesso. Svariati fattori come le procedure utilizzate, gli utenti coinvolti ed ulteriori specificità determinano direttamente o indirettamente la qualità del servizio erogato. Le distanze precedentemente calcolate vengono dunque sottoposte a clustering, una tecnica che a partire da un insieme eterogeneo di elementi individua famiglie o gruppi simili. L’algoritmo utilizzato sarà l’UPGMA, comunemente applicato nel clustering in quanto, utilizzando, una logica di medie pesate, porta a clusterizzazioni pertinenti anche in ambiti diversi, dal campo biologico a quello industriale. L’ottenimento dei cluster potrà dunque essere finalmente sottoposto ad un’attività di ricerca di correlazioni utili, che saranno individuate ed interpretate relativamente all’attività gestionale del laboratorio. La presente trattazione propone quindi modelli sperimentali adattati al caso in esame ma idealmente estendibili, interamente o in parte, a tutti i processi che presentano caratteristiche analoghe.
Resumo:
Questo lavoro di tesi rientra nel progetto europeo SaveMe, al quale partecipa il gruppo di ricerca del dipartimento di chimica organica nel quale ho svolto l’attività di tirocinio. Obiettivo finale di tale progetto è la sintesi di nanoparticelle a base di PLGA (acido poli(D,L-lattico-co-glicolico)) superficialmente funzionalizzate con biomolecole, per l’impiego nel trattamento e nella diagnosi del cancro al pancreas. L’obiettivo da raggiungere nel primo anno di ricerca per il mio gruppo era la sintesi delle nanoparticelle centrali (core nanosystems). Nel presente lavoro sono quindi riportati i metodi di sintesi di polimeri derivati da PLGA e suoi copolimeri con PEG (polietilenglicole) aventi vari gruppi funzionali terminali: acidi idrossamici, amminici e acidi carbossilici. I polimeri sintetizzati sono stati caratterizzati tramite test colorimetrici qualitativi, 1H-NMR, 13C-NMR, spettrometria IR e TGA. Sono state sintetizzate nanoparticelle polimeriche (PNPs), con le tecniche Oil/Water (O/W) e nanoprecipitazione (NP), basate sui polimeri ottenuti, aventi quindi funzioni acide, idrossamiche ed amminiche sulla superficie. Su queste PNPs è stato effettuata una decorazione superficiale con nanoparticelle metalliche di maghemite (CAN-Maghemite). Le nanoparticelle polimeriche sono state caratterizzate tramite DLS e delle PNPs decorate sono state ottenute immagini TEM. Sono riportati inoltre i test di viabilità cellulare delle nanoparticelle ottenute.
Resumo:
Le moderne tecniche di imaging e i recenti sviluppi nel campo della visione computazionale consentono sempre più diffusamente l'utilizzo di metodi di image analysis, specialmente in ambito medico e biologico, permettendo un maggiore supporto sia alla diagnosi, sia alla ricerca. Il lavoro svolto in questa tesi si pone in un contesto di ricerca di carattere interdisciplinare, e riguarda il progetto e la realizzazione di un‘interfaccia grafica per l'analisi di colture batteriche geneticamente modificate, marcate con proteine fluorescenti (GFP), acquisite tramite un microscopio ad epifluorescenza. Nota la funzione di risposta del sistema di acquisizione delle immagini, l'analisi quantitativa delle colture batteriche è effettuata mediante la misurazione di proprietà legate all'intensità della risposta al marcatore fluorescente. L'interfaccia consente un'analisi sia globale dei batteri individuati nell'immagine, sia di singoli gruppi di batteri selezionati dall'utente, fornendo utili informazioni statistiche, sia in forma grafica che numerica. Per la realizzazione dell'interfaccia sono state adottate tecniche di ingegneria del software, con particolare enfasi alla interazione uomo-macchina e seguendo criteri di usability, al fine di consentire un corretto utilizzo dello strumento anche da parte di personale senza conoscenza in campo informatico.
Resumo:
La presente tesi si pone in continuità con il Laboratorio di Sintesi Finale in Urbanistica “La città e le case. L’urbanistica e lo spazio dell’abitare”e si propone di applicare e sperimentare una nuova forma urbana quella dell’open block derivante dall’omonima teoria dell’architetto francese Christian de Portzamparc. L’intervento si inserisce all’interno della cosiddetta Darsena di Città di Ravenna, un’ex area industriale di 136 ettari collocata a ridosso del centro storico della città, ma priva di collegamenti diretti con questo da cui si discosta nettamente per caratteristiche e funzioni. Nel corso del laboratorio si sono condotte analisi in maniera approfondita rispetto alle caratteristiche dello stato di fatto e dei bisogni principali del territorio, non solo facendo riferimento agli stessi strumenti urbanistici, ma anche avvalendosi dell’incontro con professionisti, tecnici e docenti. La conoscenza dell’area così raggiunta ci ha permesso di redigere, a conclusione del laboratorio, una serie di linee guida generali da cui nasce il masterplan. Su questo si basa la riqualificazione urbana dell’intera area da cui deriva la peculiarità della nuova Darsena ovvero la coesistenza di due rive dalle caratteristiche opposte e allo stesso tempo complementari. A nord trova spazio la “riva naturale” contraddistinta dalla prevalenza di spazi verdi di diversa natura; questa riva si pone in stretta relazione con il verde agricolo collocato nelle immediate vicinanze della Darsena e fortemente segnato dalla centuriazione romana. La riva sud, la “riva urbana”, è invece caratterizzata dalla prevalenza del costruito che trova un diretto confronto con il tessuto urbano preesistente collocato sia all’interno dell’area sia lungo il limite sud della stessa. Grande importanza per la riqualificazione del Comparto Darsena è stata data al mantenimento degli edifici di archeologia industriale ai quali viene dato ruolo centrale attraverso le nuove funzioni che vengono loro affidate. Altro aspetto fondamentale per la riuscita della riqualificazione della Darsena e allo stesso tempo valoreaggiunto per l’intero territorio comunale, nonché argomento centrale della presente tesi, è il tema dell’housing sociale. A seguito di analisi, studi sulle politiche abitative attualmente vigenti a livello regionale e comunale e indagini sui bisogni radicati nel territorio, si è redatto un masterplan da cui nasce un progetto per un quartiere con housing sociale situato all’interno del comparto CMC. Il progetto nasce dalle riflessioni condotte sull’argomento, mette al centro l’idea della mixité e si fonda sulla forma urbana dell’isolato aperto.
Resumo:
Il basso tasso d'usura e l'alta resistenza meccanica dell'UHMWPE reticolato e additivato ha posto l'attenzione verso l'uso di teste femorali con diametri maggiori per diminuire il rischio d'impingement e dislocazioni. Questo richiede l'utilizzo d'inserti acetabolari più sottili di quelli attualmente in commercio. In quest'ottica è necessario porre particolare attenzione alla resistenza meccanica d'inserti più sottili, e all'efficacia della vitamina E nel combattere l'effetto dell'ossidazione che si manifesta in seguito al processo di reticolazione. Lo scopo del lavoro è quindi di studiare un inserto più sottile di quelli attualmente in commercio per verificarne le performance. Tale studio è svolto su una serie di taglie (compreso inserto prodotto ad-hoc con spessore di 3,6 mm) con spessore di 5,6 mm e di 3,6 mm dalle quali viene isolato il worst-case tramite analisi FEM. Con prove sperimentali è testata la resistenza meccanica del worst-case, e sono monitorate le deformazioni subite e l'ossidazione del campione. Dagli studi FEM è risultato che le tensioni sono mediamente le stesse in tutti i campioni, anche se si sono registrate tensioni leggermente superiori nella taglia intermedia. A differenza delle attese la taglia in cui si sono riscontrate le tensioni massime è la F (non è l'inserto che ha diametro inferiore). A seguito della messa a punto del modello FEM si è identificato un valore d'attrito inferiore a quello atteso. In letteratura i valori d'attrito coppa-inserto sono più grandi del valore che si è identificato tramite simulazioni FEM. Sulla base dei risultati FEM è isolato il worst-case che viene quindi sottoposto a un test dinamico con 6 milioni di cicli atto a valutarne le performance. Gli inserti di spessore ridotto non hanno riportato alcun danno visibile, e la loro integrità strutturale non è stata modificata. Le considerazioni preliminari sono confermate dalla verifica al tastatore meccanico e dall'analisi chimica, dalle quale non si sono evidenziate particolari problematiche. Infatti, da queste verifiche si rileva che l'effetto del creep nella prova accelerata è pressoché trascurabile, e non si riscontrano variazioni dimensionali rilevanti. Anche dall'analisi chimica dei campioni non si evidenzia ossidazione. I valori d'ossidazione dell'inserto testato sono analoghi a quelli del campione non testato, anche quando viene confrontato con l'inserto in UHMWPE vergine si evidenzia un'ossidazione di molto superiore. Questo prova che la vitamina E inibisce i radicali liberi che quindi non causano l'ossidazione con susseguente fallimento dell'inserto. Dai risultati si vede che i campioni non subiscono danni rilevanti, le deformazioni elastiche monitorate nel test dinamico sono pressoché nulle, come gli effetti del creep misurati analizzando i dati ottenuti al tastatore meccanico. Grazie alla presenza della vitamina E non si ha ossidazione, quella rilevata è vicina a zero ed è da imputare alla lavorazione meccanica. Secondo tali considerazioni è possibile affermare che la riduzione dello spessore degli inserti da 5,6 mm a 3,6 mm non ha conseguenze critiche sul loro comportamento, e non comporta un fallimento del dispositivo.