112 resultados para Logica algebrica


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Riba Composites, azienda specializzata nella lavorazione della fibra di materiali compositi avanzati, si trova in una vantaggiosa situazione di sviluppo e ampliamento del proprio raggio d’azione, e dove le informazioni da gestire sono sempre più numerose. E’ quindi risultato necessario un supporto informativo che gestisca le informazioni. Dal punto di vista produttivo, l’introduzione del sistema informativo ha l’obiettivo di rispondere alle problematiche legate alla gestione dei materiali, sia a livello di materie prime, che di semilavorati e prodotti finiti in modo tale da gestirli con efficienza ed evitando le rotture di stock. L’obiettivo di fondo che Riba vuole perseguire é di crescere e svilupparsi in logica di lean production che, nell’ottica della gestione dei magazzini significa “approvvigionare i materiali solamente nel momento in cui si manifesta un fabbisogno”. Quest’approccio abbandona la attuale logica di pianificazione “a spinta” (push) che prevedeva la programmazione degli approvvigionamenti e la produzione di semilavorati e prodotti finiti attraverso previsioni basate sull’analisi di dati storici o di mercato, e non attraverso gli ordini effettivamente acquisiti su cui si basa la logica di produzione “snella” (pull). L’implementazione di un sistema ERP ha richiesto un’analisi approfondita dell’azienda in cui si opera così come del prodotto finito e del processo produttivo, a tal punto da poter riconoscere le esigenze e le necessità a cui dovrà rispondere il sistema informativo. A questa fase di analisi e raccolta dati segue un momento di assestamento del sistema informativo, in cui solo una parte di articoli viene gestita dal sistema per poter procedere contemporaneamente con la graduale formazione del personale. La durata del progetto in questione è stata stimata di circa 20 mesi, tempo necessario per poter adattare il sistema e le diverse personalizzazioni ad un processo così complesso come la lavorazione della fibra di carbonio. Termine previsto Agosto 2010

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nello sviluppo di sistemi informatici si sono affermate numerose tecnologie, che vanno utilizzate in modo combinato e, possibilmente sinergico. Da una parte, i sistemi di gestione di basi di dati relazionali consentono una gestione efficiente ed efficace di dati persistenti, condivisi e transazionali. Dall'altra, gli strumenti e i metodi orientati agli oggetti (linguaggi di programmazione, ma anche metodologie di analisi e progettazione) consentono uno sviluppo efficace della logica applicativa delle applicazioni. E’ utile in questo contesto spiegare che cosa s'intende per sistema informativo e sistema informatico. Sistema informativo: L'insieme di persone, risorse tecnologiche, procedure aziendali il cui compito è quello di produrre e conservare le informazioni che servono per operare nell'impresa e gestirla. Sistema informatico: L'insieme degli strumenti informatici utilizzati per il trattamento automatico delle informazioni, al fine di agevolare le funzioni del sistema informativo. Ovvero, il sistema informatico raccoglie, elabora, archivia, scambia informazione mediante l'uso delle tecnologie proprie dell'Informazione e della Comunicazione (ICT): calcolatori, periferiche, mezzi di comunicazione, programmi. Il sistema informatico è quindi un componente del sistema informativo. Le informazioni ottenute dall'elaborazione dei dati devono essere salvate da qualche parte, in modo tale da durare nel tempo dopo l'elaborazione. Per realizzare questo scopo viene in aiuto l'informatica. I dati sono materiale informativo grezzo, non (ancora) elaborato da chi lo riceve, e possono essere scoperti, ricercati, raccolti e prodotti. Sono la materia prima che abbiamo a disposizione o produciamo per costruire i nostri processi comunicativi. L'insieme dei dati è il tesoro di un'azienda e ne rappresenta la storia evolutiva. All'inizio di questa introduzione è stato accennato che nello sviluppo dei sistemi informatici si sono affermate diverse tecnologie e che, in particolare, l'uso di sistemi di gestione di basi di dati relazionali comporta una gestione efficace ed efficiente di dati persistenti. Per persistenza di dati in informatica si intende la caratteristica dei dati di sopravvivere all'esecuzione del programma che li ha creati. Se non fosse cosi, i dati verrebbero salvati solo in memoria RAM e sarebbero persi allo spegnimento del computer. Nella programmazione informatica, per persistenza si intende la possibilità di far sopravvivere strutture dati all'esecuzione di un programma singolo. Occorre il salvataggio in un dispositivo di memorizzazione non volatile, come per esempio su un file system o su un database. In questa tesi si è sviluppato un sistema che è in grado di gestire una base di dati gerarchica o relazionale consentendo l'importazione di dati descritti da una grammatica DTD. Nel capitolo 1 si vedranno più in dettaglio cosa di intende per Sistema Informativo, modello client-server e sicurezza dei dati. Nel capitolo 2 parleremo del linguaggio di programmazione Java, dei database e dei file XML. Nel capitolo 3 descriveremo un linguaggio di analisi e modellazione UML con esplicito riferimento al progetto sviluppato. Nel capitolo 4 descriveremo il progetto che è stato implementato e le tecnologie e tools utilizzati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

VILLA “CAPELLO - MORA”: PROGETTO DI RESTAURO E RIFUNZIONALIZZAZIONE Il restauro è da intendere come un intervento diretto sull’opera, e anche come sua eventuale modifica, condotta sempre sotto un rigoroso controllo tecnico-scientifico e storico-critico, se parliamo di conservazione, intendiamo l’operare in un intento di salvaguardia e di prevenzione, da attuare proprio per evitare che si debba poi intervenire con il restauro, che comprende un evento traumatico per il manufatto. Un seconda parola chiave in questo discorso è la “materia” il restauro interviene sulla materia di un monumento e questa costituisce il tramite dei valori culturali antichi, la sua conservazione e il suo restauro garantisce la trasmissione anche dei significati estetici, storici simbolici del costruito. Ma certamente influisce il tempo sulle cose per cui il progetto di restauro non può astenersi dall’intervenire, in una logica di minimo intervento, di reversibilità, di facile lettura. Il concetto di nuovo in un opera antica, concetto che a parere personale, pare centrare in pieno il problema. Il nuovo infatti “deve avere carattere di autonomia e di chiara leggibilità: come l’<> di Boito deve essere inequivocabilmente opera nuova, come prodotto figurativo e materiale autonomo, chiara ed inequivocabile espressione <>”. Ne deriva riassumendo che oggi l’obbiettivo deve essere quello di conservare da un lato senza non sotrarre altra materia alla fabbrica e di valorizzare, ossia aggiungere, nuove “presenze” di cultura contemporanea. Per questo si parlerà di progetto di restauro e rifunzionalizzazione. La fabbrica ha subito nel corso dell’ultimo decennio una serie di “rovinose” manomissioni, che a differenza di quelle operate in tempi più antichi (coincidenti con esigenze funzionali corrispondenti alla logica dell’adattare) appaiano ben più gravi, e contribuiscono a peggiorare la lettura del fabbricato. Il Veneto e soprattutto la zona intorno a Bassano del Grappa presenta una infinità di dimore padronali casini di caccia, resti di antiche residenze (colombare, oratori, ecc.) risalenti al periodo di maggior fioritura della residenza di “Villa” della Serenissima. Nel caso specifico di studio , quindi della rifunzionalizzazione dell’edificio, la domanda sorge spontanea; Come ristabilire un senso a questi spazi? E nell’ipotesi di poter realmente intervenire che cosa farne di questi oggetti?. E ultimo ma non ultimo in che modo poter ristabilire un “dialogo” con l’edificio in una lettura corretta del suo significato non solo per quel che riguarda la materia ma anche per ciò che ci trasmette nel “viverlo”, nell’usufruirne nel fatto stesso di poterlo vedere, passandoci davanti. tà. Lidea si forma prima ancora da un esigenza del territorio, il comune di Cassola dove ha sede la Villa,pur avendo un discreto numero di abitanti e collocandosi in posizione nevralgica in quanto molto vicino al centro diBasssano (ne è quasi la promulgazione), non possiede uno spazio espositivo /rappresentativo, un edificio a carattere pubblico, sede di “eventi” culturali locali e non. Villa Capello –Mora, potrebbe rispondere bene a questo tipo di utilizzo. Si è deciso di pensare ad un luogo a carattere espositivo che possa funzionare durante tutto l’anno e nei periodi etsivi includa anche il giardino esterno. Il progetto muove da due principi il principio di “reversibilità” e quello del “minimo intervento” sottolinenando volutamente che siano gli ogetti esposti e lo spazio dei locali a fare da protagonisti, Punti chiave nell’interpretazione degli spazi sono stati i percorsi, la “narrazione” degli oggetti esposti avviene per momenti e viene rimarcata nell’allestimento tramite i materiali i colori e le superfici espositive, perché nel momento in cui visito una mostra o un museo, è come se stessi vivendo la narrazione di un qualcosa, oggetto semplice od opera complessa che sia inteso nell’ambito museale-espositivo esso assume una capacità di trasmissione maggiore rispetto a qundo lo stesso ogetto si trova in un contesto differente, la luce e la sua disposizione nello spazio, fanno sì che il racconto sia narrato, bene o male, ancora più importante è lo sfondo su cui si staglia l’opera, che può essere chiuso, come una serie di scatole dentro la scatola (edificio) oppure aperto, con singole e indipendenti pannellature dove l’edificio riveste il carattere proprio di sfondo. Scelta la seconda delle due ipotesi, si è voluto rimarcare nella composizione degli interni i momenti della narrazione, così ad esempio accedendo dall’ingresso secondario (lato nord-ovest) al quale si è dato l’ingresso alla mostra, -superata la prima Hall- si viene, catapultati in uno spazio porticato in origine aperto e che prevediamo chiuso da una vetrata continua, portata a debita distanza dal colonnato. Questo spazio diventa la prima pagina del testo, una prima pagina bianca, uno spazio libero, di esposizione e non di relax e di presentazione dell’evento, uno spazio distributivo non votato solo a questo scopo, ma passibile di trasformazione. A rimarcare il percorso una pavimentazione in cemento lisciato, che invita l’accesso alle due sale espositive a sinista e a destra dell’edificio. Nell’ala a sinistra (rispetto al nord) si apre la stanza con camino seicentesco forse un tempo ad uso cucina? Sala che ospita dei pannelli a sospesi a muro e delle teche espositive appese a soffitto. L’ala di destra, diametralmente opposta, l’unica che al piano terra mantiene la pavimentazione originale, stabiliva il vero atrio d’entrata, nel XVII sec. riconoscibile da quattro colonne tuscaniche centrali a reggere un solaio ligneo, in questa stanza il percorso segnato a terra torna nella disposizione dei pannelli espositivi che si dispongono in un a formare un vero corridoio, tra uno e l’atro di questi pannelli degli spazi sufficienti a intravedere le colonne centrali, i due lati dello stretto percorso non sono paralleli e aprono in senso opposto a due restanti spazi dell’intero salone, La sala suddivisa così in queste tre parti - una di percorrenza due di esposizione - , risulta modificata nella lettura che ne annulla l’originale funzione. Questa nuova “forma”, non vuole essere permanente infatti i pannelli non sono fissi. la narrazione avviene così per momenti, per parti, , che non devono necessariamente far comprendere il “tutto”, ma suggerirlo. Così come per il percorso che non è obbligato ma suggerito. A terminare il piano altre due sale di minore dimensione e di modesto carattere, nelle quali sono presenti pannellature a parete come nella prima sala. L’allestimento prosegue al piano primo a cui si accede tramite due rampe, trattate nel progetto difformemente, in base al loro stato e al loro significato, la rampa più recente (XIX sec) rompe lo spazio al piano nobile stravolgendo l’ingresso a questo salone, che originariamente avveniva salendo dalla scala principale e oltrepassando un disimpegno. La scala ottocentesca introduce direttamente all’ambiente che ora risulta liberato dalle superfetazioni dello scorso secolo, mostrandosi come era stato previsto in origine. Questa rottura dello spazio viene marcata nel progetto da un volume che “imprigiona” la rampa e segna l’inizio della sala espositiva, la sala delle architetture. Al centro della sala in un gioco di pieni e vuoti i pannelli, espositivi, distaccati di poco gli uni dagli altri questa volta non a incorniciare delle colonne ma a richiamo delle pitture murali che raffiguranti una loggia alludono ad una lettura per “parti” e scandiscono lo spazio in una “processione” di eventi. A seguito del “gioco” sono presenti in senso ortogonale ai pannelli sopradescritti ulteriori pannellature appese ad una struttura metallica indipendente dalle capriate lignee. Tale struttura assume ad una duplice funzione, funge sia da irrigidimento della struttura (edificio) che da supporto alla pannellatura, ad essa infatti è collegata una fune, che entrerà in tensione, quando il pannello verrà ad appendersi. Infine questa fune passante da due puleggie permetterà al pannello di traslare da un lato all’altro dell’edificio, bloccandosi nella posizione desiderata tramite freno interno, azionato manualmente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi è uno studio di alcuni aspetti della nuova metodologia “deep inference”, abbinato ad una rivisitazione dei concetti classici di proof theory, con l'aggiunta di alcuni risultati originali orientati ad una maggior comprensione dell'argomento, nonché alle applicazioni pratiche. Nel primo capitolo vengono introdotti, seguendo un approccio di stampo formalista (con alcuni spunti personali), i concetti base della teoria della dimostrazione strutturale – cioè quella che usa strumenti combinatoriali (o “finitistici”) per studiare le proprietà delle dimostrazioni. Il secondo capitolo focalizza l'attenzione sulla logica classica proposizionale, prima introducendo il calcolo dei sequenti e dimostrando il Gentzen Hauptsatz, per passare poi al calcolo delle strutture (sistema SKS), dimostrando anche per esso un teorema di eliminazione del taglio, appositamente adattato dall'autore. Infine si discute e dimostra la proprietà di località per il sistema SKS. Un percorso analogo viene tracciato dal terzo ed ultimo capitolo, per quanto riguarda la logica lineare. Viene definito e motivato il calcolo dei sequenti lineari, e si discute del suo corrispettivo nel calcolo delle strutture. L'attenzione qui è rivolta maggiormente al problema di definire operatori non-commutativi, che mettono i sistemi in forte relazione con le algebre di processo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il distretto è un luogo relazionale dinamico dove le imprese danno luogo a differenti comportamenti economici di vario genere e natura, cooperando in un certo senso per lo sviluppo e la crescita del distretto stesso. In un primo momento di formazione del distretto si sono delineati comportamenti di tipo path dependent per vantaggi economici dovuti alla distribuzione delle imprese nel territorio, ma con il tempo si sono cominciati ad avere comportamenti espansionistici differenti sia dall'interno che dall'esterno del distretto influendo direttamente sulla struttura del stesso. É ragionevole dunque pensare che gli attori guardino al rapporto “locale/globale” con una sorta di "strabismo", da un lato leggendo il distretto (dall’interno come dall’esterno) come un luogo privilegiato per la formazione di economie di prossimità, dall’altro puntando a disporre le catene produttive nello spazio globale, alla ricerca dei vantaggi derivanti da un minor costo del lavoro o dalla immediata prossimità dei mercati di sbocco. il distretto viene dunque attraversato da dinamiche che lo globalizzano ma, al contempo, ne preservano (almeno per ora) la specificità. Non è più possibile leggere la sua forma economica solo nella logica della embeddedness, e non sarebbe certo corretto farlo solo in chiave di openness. Si tratta dunque di interrogarsi sul rapporto più di integrazione/complementarità che di contrapposizione fra openness ed embeddedness. In questa tesi verrà descritto un metodo d'approccio per dare un valore al fenomeno di Openness e Embeddedness presente nel distretto partendo da un dataset di dati relazionali ricavati da due database economici Amadeus e Aida. Non essendo possibile trovare pubblicamente dati sulle reti di fornitura delle singole aziende, siamo partiti dai dati relazionali di cinque aziende “seme”, ed attraverso una ricerca ricorsiva nelle relazioni di azionariato/partecipazione, siamo riusciti ad ottenere un campione di analisi che ci permette di mettere in luce tramite la custer analysis le principali tipologie di reti di imprese presenti nel distretto ed estese nello spazio globale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'informazione è alla base della conoscenza umana. Senza, non si potrebbe sapere nulla di ciò che esiste, di ciò che è stato o di quello che potrebbe accadere. Ogni giorno si assimilano moltissime informazioni, che vengono registrate nella propria memoria per essere riutilizzate all'occorrenza. Ne esistono di vari generi, ma il loro insieme va a formare quella che è la cultura, educazione, tradizione e storia dell'individuo. Per questo motivo è importante la loro diffusione e salvaguardia, impedendone la perdita che costerebbe la dipartita di una parte di sé, del proprio passato o del proprio futuro. Al giorno d'oggi le informazioni possono essere acquisite tramite persone, libri, riviste, giornali, la televisione, il Web. I canali di trasmissione sono molti, alcuni più efficaci di altri. Tra questi, internet è diventato un potente strumento di comunicazione, il quale consente l'interazione tra chi naviga nel Web (ossia gli utenti) e una partecipazione attiva alla diffusione di informazioni. Nello specifico, esistono siti (chiamati di microblogging) in cui sono gli stessi utenti a decidere se un'informazione possa essere o meno inserita nella propria pagina personale. In questo caso, si è di fronte a una nuova "gestione dell'informazione", che può variare da utente a utente e può defluire in catene di propagazione (percorsi che compiono i dati e le notizie tra i navigatori del Web) dai risvolti spesso incerti. Ma esiste un modello che possa spiegare l'avanzata delle informazioni tra gli utenti? Se fosse possibile capirne la dinamica, si potrebbe venire a conoscenza di quali sono le informazioni più soggette a propagazione, gli utenti che più ne influenzano i percorsi, quante persone ne vengono a conoscenza o il tempo per cui resta attiva un'informazione, descrivendone una sorta di ciclo di vita. E' possibile nel mondo reale trovare delle caratteristiche ricorrenti in queste propagazioni, in modo da poter sviluppare un metodo universale per acquisirne e analizzarne le dinamiche? I siti di microblogging non seguono regole precise, perciò si va incontro a un insieme apparentemente casuale di informazioni che necessitano una chiave di lettura. Quest'ultima è proprio quella che si è cercata, con la speranza di poter sfruttare i risultati ottenuti nell'ipotesi di una futura gestione dell'informazione più consapevole. L'obiettivo della tesi è quello di identificare un modello che mostri con chiarezza quali sono i passaggi da affrontare nella ricerca di una logica di fondo nella gestione delle informazioni in rete.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il problema che si cerca di risolvere attraverso la gestione quantitativa del portafoglio è la riduzione del rischio tramite strategie che non dipendano dalla diversificazione dei titoli che compongono il portafoglio. Nel momento in cui si decide di applicare un trading system su un determinato gruppo di asset, il capitale non viene allocato automaticamente su tutti i titoli e si deve affrontare invece un continuo investimento tramite l’apertura dinamica di posizioni sul mercato.Questo significa che la diversificazione non è più una misura adeguata del rischio sostenuto poiché i rendimenti attesi dell’investimento non dipendono più dalle proprietà stesse degli strumenti scelti, ma dalla profittabilità dei segnali generati dalla logica del trading system su questi. Bisogna testare in questo caso le performance del sistema a livello statistico e prevedere anche, per esempio, che l’algoritmo possa generare dei segnali errati che portano a delle posizioni in perdita. Il portafoglio a livello quantitativo deve essere gestito tramite dei trading system che abbiano la possibilità di valutare aspetti globali, come il profitto totale di tutte le posizioni attualmente aperte, o l’intero rischio sostenuto dal capitale gestito. Le decisioni non vengono prese dall’analisi delle prestazioni individuali che la strategia ottiene operando sui singoli titoli. Per affrontare una possibile soluzione a questa problematica si sono quindi selezionati due trading system le cui prestazioni fossero robuste su un intero portafoglio e non solo su determinati titoli. In un successivo momento vengono analizzate le prestazioni del portafoglio aggiungendo ai test due ulteriori strategie di uscita: lo stoploss di portafoglio e il target di portafoglio. Nonostante esse ricalchino idee ampiamente utilizzate per la gestione delle singole posizioni su un titolo, per i test si è deciso di modificarle implementando la gestione globale del capitale all’interno del trading system di portafoglio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trent’anni or sono il concetto di ottimalità venne formulato in senso teorico da Lévy, ma solo un decennio dopo Lamping riesce a darne elegante implementazione algoritmica. Realizza un sistema di riduzione su grafi che si scoprirà poi avere interessanti analogie con la logica lineare presentata nello stesso periodo da Girard. Ma l’ottimalità è davvero ottimale? In altre parole, l’implementazione ottimale del λ calcolo realizzata attraverso i grafi di condivisione, è davvero la migliore strategia di riduzione, in termini di complessità? Dopo anni di infondati dubbi e di immeritato oblìo, alla conferenza LICS del 2007, Baillot, Coppola e Dal Lago, danno una prima risposta positiva, seppur parziale. Considerano infatti il caso particolare delle logiche affini elementare e leggera, che possiedono interessanti proprietà a livello di complessità intrinseca e semplificano l’arduo problema. La prima parte di questa tesi presenta, in sintesi, la teoria dell’ottimalità e la sua implementazione condivisa. La seconda parte affronta il tema della sua complessità, a cominciare da una panoramica dei più importanti risultati ad essa legati. La successiva introduzione alle logiche affini, e alle relative caratteristiche, costituisce la necessaria premessa ai due capitoli successivi, che presentano una dimostrazione alternativa ed originale degli ultimi risultati basati appunto su EAL e LAL. Nel primo dei due capitoli viene definito un sistema intermedio fra le reti di prova delle logiche e la riduzione dei grafi, nel secondo sono dimostrate correttezza ed ottimalità dell’implementazione condivisa per mezzo di una simulazione. Lungo la trattazione sono offerti alcuni spunti di riflessione sulla dinamica interna della β riduzione riduzione e sui suoi legami con le reti di prova della logica lineare.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'obbiettivo della presente tesi curriculare è una lettura di alcuni esami in relazione all'idea di ar-chitettura che la nostra Scuola – la Facoltà di Architettura “Aldo Rossi” – porta avanti: l'architettura come progetto collettivo e unitario nel tempo fondato sui fatti architettonici, ovvero l'architettura come scienza: Noi raccogliamo questa strada dell'architettura come scienza, della formulazione logica dei principi, della meditazione sui fatti architettonici e quindi principalmente sui monumenti e pensiamo di verificarla attraverso una serie di architetti e di opere antiche e moderne che noi scegliamo, su cui operiamo un certo tipo di scelta . Ciò che caratterizza l'architettura come scienza è il metodo progettuale: l'obbiettivo della tesi è pertanto una riflessione sulla teoria della progettazione insegnata nella nostra Scuola – intesa come momento della più generale teoria dell'architettura di Aldo Rossi – ovvero su come essa sia stata seguita per realizzare i progetti presentati. La tesi è così ordinata: una prima parte dedicata alla teoria dell'architettura di Aldo Rossi nella quale vengono indicati i principi, cioè lo scopo che la nostra Scuola di architettura persegue; una seconda parte dedicata alla teoria della progettazione nella quale viene indicato il metodo, cioè lo strumento eminente che la nostra Scuola di architettura utilizza; infine sono presentati i progetti –Laboratorio di sintesi finale: l'architettura del museo; Disegno dell'architettura II; Laboratorio di progettazione architettonica IV; – scelti per mettere in luce le distinte parti di cui il metodo consiste.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro nasce dall’obiettivo di individuare strumenti statistici per indagare, sotto diversi aspetti, il flusso di lavoro di un Laboratorio di Anatomia Patologica. Il punto di partenza dello studio è l’ambiente di lavoro di ATHENA, software gestionale utilizzato nell’Anatomia Patologica, sviluppato dalla NoemaLife S.p.A., azienda specializzata nell’informatica per la sanità. A partire da tale applicativo è stato innanzitutto formalizzato il workflow del laboratorio (Capitolo 2), nelle sue caratteristiche e nelle sue possibili varianti, identificando le operazioni principali attraverso una serie di “fasi”. Proprio le fasi, unitamente alle informazioni addizionali ad esse associate, saranno per tutta la trattazione e sotto diversi punti di vista al centro dello studio. L’analisi che presentiamo è stata per completezza sviluppata in due scenari che tengono conto di diversi aspetti delle informazioni in possesso. Il primo scenario tiene conto delle sequenze di fasi, che si presentano nel loro ordine cronologico, comprensive di eventuali ripetizioni o cicli di fasi precedenti alla conclusione. Attraverso l’elaborazione dei dati secondo specifici formati è stata svolta un’iniziale indagine grafica di Workflow Mining (Capitolo 3) grazie all’ausilio di EMiT, un software che attraverso un set di log di processo restituisce graficamente il flusso di lavoro che li rappresenta. Questa indagine consente già di valutare la completezza dell’utilizzo di un applicativo rispetto alle sue potenzialità. Successivamente, le stesse fasi sono state elaborate attraverso uno specifico adattamento di un comune algoritmo di allineamento globale, l’algoritmo Needleman-Wunsch (Capitolo 4). L’utilizzo delle tecniche di allineamento applicate a sequenze di processo è in grado di individuare, nell’ambito di una specifica codifica delle fasi, le similarità tra casi clinici. L’algoritmo di Needleman-Wunsch individua le identità e le discordanze tra due stringhe di caratteri, assegnando relativi punteggi che portano a valutarne la similarità. Tale algoritmo è stato opportunamente modificato affinché possa riconoscere e penalizzare differentemente cicli e ripetizioni, piuttosto che fasi mancanti. Sempre in ottica di allineamento sarà utilizzato l’algoritmo euristico Clustal, che a partire da un confronto pairwise tra sequenze costruisce un dendrogramma rappresentante graficamente l’aggregazione dei casi in funzione della loro similarità. Proprio il dendrogramma, per la sua struttura grafica ad albero, è in grado di mostrare intuitivamente l’andamento evolutivo della similarità di un pattern di casi. Il secondo scenario (Capitolo 5) aggiunge alle sequenze l’informazione temporale in termini di istante di esecuzione di ogni fase. Da un dominio basato su sequenze di fasi, si passa dunque ad uno scenario di serie temporali. I tempi rappresentano infatti un dato essenziale per valutare la performance di un laboratorio e per individuare la conformità agli standard richiesti. Il confronto tra i casi è stato effettuato con diverse modalità, in modo da stabilire la distanza tra tutte le coppie sotto diversi aspetti: le sequenze, rappresentate in uno specifico sistema di riferimento, sono state confrontate in base alla Distanza Euclidea ed alla Dynamic Time Warping, in grado di esprimerne le discordanze rispettivamente temporali, di forma e, dunque, di processo. Alla luce dei risultati e del loro confronto, saranno presentate già in questa fase le prime valutazioni sulla pertinenza delle distanze e sulle informazioni deducibili da esse. Il Capitolo 6 rappresenta la ricerca delle correlazioni tra elementi caratteristici del processo e la performance dello stesso. Svariati fattori come le procedure utilizzate, gli utenti coinvolti ed ulteriori specificità determinano direttamente o indirettamente la qualità del servizio erogato. Le distanze precedentemente calcolate vengono dunque sottoposte a clustering, una tecnica che a partire da un insieme eterogeneo di elementi individua famiglie o gruppi simili. L’algoritmo utilizzato sarà l’UPGMA, comunemente applicato nel clustering in quanto, utilizzando, una logica di medie pesate, porta a clusterizzazioni pertinenti anche in ambiti diversi, dal campo biologico a quello industriale. L’ottenimento dei cluster potrà dunque essere finalmente sottoposto ad un’attività di ricerca di correlazioni utili, che saranno individuate ed interpretate relativamente all’attività gestionale del laboratorio. La presente trattazione propone quindi modelli sperimentali adattati al caso in esame ma idealmente estendibili, interamente o in parte, a tutti i processi che presentano caratteristiche analoghe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La dieta, nell’antica medicina greca, rappresentava il complesso delle norme di vita, come l’alimentazione, l’attività fisica, il riposo, atte a mantenere lo stato di salute di una persona. Al giorno d’oggi le si attribuisce un significato fortemente legato all’alimentazione, puo` riferirsi al complesso di cibi che una persona mangia abitualmente oppure, con un messaggio un po' più moderno, ad una prescrizione di un regime alimentare da parte di un medico. Ogni essere umano mangia almeno tre volte al giorno, ognuno in base al proprio stile di vita, cultura, età, etc. possiede differenti abitudini alimentari che si ripercuotono sul proprio stato di salute. Inconsciamente tutti tengono traccia degli alimenti mangiati nei giorni precedenti, chi più chi meno, cercando di creare quindi una pianificazione di cosa mangiare nei giorni successivi, in modo da variare i pasti o semplicemente perchè si segue un regime alimentare particolare per un certo periodo. Diventa quindi fondamentale tracciare questa pianificazione, in tal modo si puo' tenere sotto controllo la propria alimentazione, che è in stretta relazione con il proprio stato di salute e stress, e si possono applicare una serie di aggiustamenti dove necessario. Questo è quello che cerca di fare il “Menu Planning”, offrire una sorta di guida all’alimentazione, permettendo così di aver sotto controllo tutti gli aspetti legati ad essa. Si pensi, ad esempio, ai prezzi degli alimenti, chiunque vorrebbe minimizzare la spesa, mangiare quello che gli piace senza dover per forza rinunciare a quale piccolo vizio quotidiano. Con le tecniche di “Menu Planning” è possibile avere una visione di insieme della propria alimentazione. La prima formulazione matematica del “Menu Planning” (allora chiamato diet problem) nacque durante gli anni ’40, l’esercito Americano allora impegnano nella Seconda Guerra Mondiale voleva abbassare i costi degli alimenti ai soldati mantenendo però inalterata la loro dieta. George Stingler, economista americano, trovò una soluzione, formulando un problema di ottimizzazione e vincendo il premio Nobel in Economia nel 1982. Questo elaborato tratta dell’automatizzazione di questo problema e di come esso possa essere risolto con un calcolatore, facendo soprattutto riferimento a particolari tecniche di intelligenza artificiale e di rappresentazione della conoscenza, nello specifico il lavoro si è concentrato sulla progettazione e sviluppo di un ES case-based per risolvere il problema del “Menu Planning”. Verranno mostrate varie tecniche per la rappresentazione della conoscenza e come esse possano essere utilizzate per fornire supporto ad un programma per elaboratore, partendo dalla Logica Proposizionale e del Primo Ordine, fino ad arrivare ai linguaggi di Description Logic e Programmazione Logica. Inoltre si illustrerà come è possibile raccogliere una serie di informazioni mediante procedimenti di Knowledge Engineering. A livello concettuale è stata introdotta un’architettura che mette in comunicazione l’ES e un Ontologia di alimenti con l’utilizzo di opportuni framework di sviluppo. L’idea è quella di offrire all’utente la possibilità di vedere la propria pianificazione settimanale di pasti e dare dei suggerimenti su che cibi possa mangiare durante l’arco della giornata. Si mostreranno quindi le potenzialità di tale architettura e come essa, tramite Java, riesca a far interagire ES case-based e Ontologia degli alimenti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nonostante l’oggettiva constatazione dei risultati positivi riscontrati a seguito dei trattamenti radioterapici a cui sono sottoposti i pazienti a cui è stato diagnosticato un tumore, al giorno d’oggi i processi biologici responsabili di tali effetti non sono ancora perfettamente compresi. Inseguendo l’obbiettivo di riuscire a definire tali processi è nata la branca delle scienze biomediche denominata radiobiologia, la quale appunto ha lo scopo di studiare gli effetti provocati dalle radiazioni quando esse interagiscono con un sistema biologico. Di particolare interesse risulta essere lo studio degli effetti dei trattamenti radioterapici nei pazienti con tumore del polmone che rappresentano la principale causa di morte dei paesi industrializzati. Purtroppo per via della scarsa reperibilità di materiale, non è stato finora possibile studiare nel dettaglio gli effetti delle cure radioterapiche nel caso di questo specifico tumore. Grazie alle ricerche di alcuni biologi dell’IRST sono stati creati in-vitro sferoidi composti da cellule staminali e tumorali di polmone, chiamate broncosfere, permettendo così di avere ottimi modelli tridimensionali di tessuto umano allo stato solido su cui eseguire esperimenti al fine di regolare i parametri dei trattamenti radioterapici, al fine di massimizzarne l’effetto di cura. In questo lavoro di Tesi sono state acquisite sequenze di immagini relative a broncosfere sottoposte a differenti tipologie di trattamenti radioterapici. Le immagini acquisite forniscono importanti indicazioni densitomorfometriche che correlate a dati clinoco-biologico potrebbero fornire importanti indicazioni per regolare parametri fondamentali dei trattamenti di cura. Risulta però difficile riuscire a confrontare immagini cellulari di pre e post-trattamento, e poter quindi effettuare delle correlazioni fra modalità di irraggiamento delle cellule e relative caratteristiche morfometriche, in particolare se le immagini non vengono acquisite con medesimi parametri e condizioni di cattura. Inoltre, le dimensioni degli sferoidi cellulari da acquisire risultano essere tipicamente maggiori del parametro depth of focus del sistema e questo implica che non è possibile acquisire una singola immagine completamente a fuoco di essi. Per ovviare a queste problematiche sono state acquisite sequenze di immagini relative allo stesso oggetto ma a diversi piani focali e sono state ricostruite le immagini completamente a fuoco utilizzando algoritmi per l’estensione della profondità di campo. Sono stati quindi formulati due protocolli operativi per fissare i procedimenti legati all’acquisizione di immagini di sferoidi cellulari e renderli ripetibili da più operatori. Il primo prende in esame le metodiche seguite per l’acquisizione di immagini microscopiche di broncosfere per permettere di comparare le immagini ottenute in diverse acquisizioni, con particolare attenzione agli aspetti critici di tale operazione. Il secondo è relativo alla metodica seguita nella archiviazione di tali immagini, seguendo una logica di classificazione basata sul numero di trattamenti subiti dal singolo sferoide. In questo lavoro di Tesi sono stati acquisiti e opportunamente archiviati complessivamente circa 6500 immagini di broncosfere riguardanti un totale di 85 sferoidi. I protocolli elaborati permetteranno di espandere il database contenente le immagini di broncosfere con futuri esperimenti, in modo da disporre di informazioni relative anche ai cambiamenti morfologici subiti dagli sferoidi in seguito a varie tipologie di radiotrattamenti e poter quindi studiare come parametri di frazionamento di dose influenzano la cura. Infine, grazie alle tecniche di elaborazioni delle immagini che stiamo sviluppando sarà inoltre possibile disporre di una ricostruzione della superficie degli sferoidi in tempo reale durante l’acquisizione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Oggetto di questa tesi di Laurea è la progettazione di un quartiere residenziale sostenibile a Bertinoro (FC) richiesto dell’Amministrazione Comunale, orientata anche verso la realizzazione di un parcheggio di attestazione multipiano per il borgo e di una risalita meccanizzata al centro. L’area d’intervento costituisce infatti una posizione strategica per l’arrivo e gli accessi alla città alta. Il progetto quindi affronta due scenari: uno a scala urbana e uno a scala architettonica. Fondamentale è stata la definizione delle strategie urbane: consapevoli dell’importanza di una gestione sostenibile del territorio, questa tesi ha cercato di affrontare le problematiche relative alla mobilità del luogo, caratterizzato da forti pendii, ponendosi come obiettivo l’eliminazione di flussi veicolari nel centro storico e nel contempo la completa accessibilità di quest’ultimo attraverso nuovi sistemi meccanizzati di risalita che incentivino la mobilità pedonale. Ciò ha portato ad un studio dei percorsi di Bertinoro e ad una ricerca sulle varie tipologie sia di parcheggio multipiano che di risalita finalizzata alla definizione della soluzione più efficiente e adeguata per il luogo. A scala architettonica la complessità del progetto è stata quella di dare uguale importanza a dati oggettivi e quantificabili, come orientamento, apporti solari, impianti, senza tralasciare i valori storico-paesaggistici, risorsa fondamentale per quest'area. La sfida è stata quindi quella di progettare un quartiere con dei requisiti energetici che vadano ben oltre i confini determinati dalla normativa e di riuscire ad integrare nel contesto, con il minor impatto ambientale e percettivo, l’intero insediamento, compreso il parcheggio multipiano e la risalita. Il titolo “declivi” sintetizza in questo senso la strategia adottata ovvero tutto il progetto nasce da un attento confronto con le caratteristiche topografiche del luogo cercando di ripristinarle dove sono venute a mancare in una logica non di aggiunta del costruito ma di “crescita” dal suolo. La chiave di lettura è stata in particolare l’idea del terrazzamento e degli affacci sul paesaggio. Durante tutto il processo progettuale si è dunque operato verificando contestualmente ogni scelta dal punto di vista architettonico, tecnologico ed energetico puntando ad un progetto che possa essere definito sostenibile a tutte le sue scale: urbanistica e architettonica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’intenzione che ha mosso la ricerca è stata quella di ridare valore alla casa pubblica, perché è un’opportunità per la popolazione, soprattutto per le fasce sociali più deboli e perché non può non essere espressione di qualità architettonica, urbanistica e sociale. A ciò si aggiunge la scelta di un modo di operare sostenibile, dove alle nuove costruzioni si predilige l’idea del recupero. Ecco da dove nasce l’idea di ripartire dall’esistente, scegliendo un’area del sistema urbano di proprietà pubblica, per definire, in una prospettiva di miglioramento, un sistema di strategie di intervento e un progetto di riqualificazione. Capire come agire su un’area di questo tipo, ha stimolato ad una lettura degli interventi statali sul tema dell’edilizia pubblica attraverso le azioni in campo legislativo. La ricerca ha preso poi avvio da una lettura dell’evoluzione del quadro normativo nazionale in materia, per poi concentrarsi sul contesto locale con il racconto dei fatti storici della città di Faenza fino ai giorni nostri attraverso le sue vicende urbanistiche. Una considerazione sulla legislazione passata dà la possibilità di vedere come lo Stato abbia nel tempo prestato attenzione e risposto in maniera diversa al problema della casa. In ogni periodo le iniziative dell’Amministrazione in merito alla programmazione, si mostrano come risultati di una risposta sociale e culturale, rilanciando poi, a seconda del momento, varie tematiche, ieri la carenza degli alloggi, oggi il tema della qualità urbana, del recupero e la necessità di contenere i costi e i consumi energetici. Lo studio si è quindi spostato e concentrato sulle tappe ed i risvolti della programmazione a livello locale, cercando di comprendere, anche sulle carte, il risultato di queste azioni amministrative, si legge come il susseguirsi delle diverse politiche urbanistiche abbia lasciato tracce e segni nel disegno della città. Nel loro esito formale gli interventi hanno assunto un valore nella vicenda della città poiché ne hanno determinato l’espansione in un certo modo. Dopo un lavoro di ricerca di documenti, consultando anche diversi archivi, gli interventi in materia di edilizia residenziale pubblica presenti a Faenza sono stati schedati al fine di creare un repertorio di informazioni riguardanti la localizzazione, la data di costruzione e informazioni riguardanti il tipo di intervento a livello normativo, in questo modo si è potuto inquadrare ciascun quartiere in una determinata stagione di politiche abitative. Queste informazioni sono state poi tradotte in schemi che comprendono tutto il territorio della città fino ad ottenere una visione d’insieme e cogliere le relazioni che i singoli interventi intrattengono con il resto della città. Si esplorano poi le relazioni in base alle stagioni delle politiche abitative e in base ai soggetti che ne hanno promosso la costruzione. La ricerca si propone quindi di riflettere sugli strumenti con cui agire nei casi di degrado, assecondando la logica del recupero e del riuso. Il processo per definire il "come" intervenire ha portato alla creazione di un abaco di possibili strategie di riqualificazione suddivise per grandi tematiche (connessione e mobilità, mixitè funzionale e verde, risparmio energetico, nuovi modi dell’abitare e relazioni e identità). Ogni tematica viene poi declinata in sottotemi che descrivono le operazioni possibili per la rigenerazione, correlati da una definizione e da piccoli progetti applicativi. Ciascun progetto schematizzato è pensato su un’area di edilizia residenziale pubblica di Faenza. Le strategie vengono poi effettivamente applicate ad un caso studio: il PEEP Orto Paganella. Il progetto di riqualificazione si struttura in due parti. Una riguarda l’impianto del quartiere, inserendo un nuovo volume destinato a servizi, l’altra si concentra su un edificio esistente per un progetto di recupero allo scopo di ridare valore al manufatto, riscattarne l’immagine e creare un’offerta abitativa adeguata, che assicuri abitazioni in affitto e tipi di alloggi destinati a nuovi soggetti della popolazione, con le loro specifiche esigenze. Il progetto di riqualificazione si sviluppa a partire dall’orientamento dell’edificio e dei suoi affacci. Viene sviluppato il tema dell’involucro, che circonda l’edificio e si declina sui diversi fronti in modo diverso. La proposta della facciata verso sud, trasparente e aperta sul parco pubblico ritrova la giusta considerazione per l’orientamento, sfruttandone le potenzialità e aprendosi alla vista del parco, mentre il fronte a nord rimane chiuso e protetto. Creando nuovi spazi e nuovi affacci e restituendo una nuova immagine dell’edificio si cerca di stimolare una riappropriazione del senso di appartenenza al quartiere.