1000 resultados para base di Bernstein spazi di Chebyshev Bézier spazi generalizzati a tratti
Resumo:
“Il museo sta cambiando. In passato, era un luogo di certezze assolute, fonte di definizioni, di valori e di dottrina in materia d'arte, a tutto campo; era il luogo in cui non ci si ponevano interrogativi ma si davano autorevoli risposte.[...]“ 1 Il collezionismo d'arte comincia con il Rinascimento italiano, che sviluppa un particolare senso della storia, un entusiasmo per i prodotti dell'Antichità classica e per tutti i generi dell'arte contemporanea, pensati per la residenza privata, e in realtà, per esse fabbricati: dipinti di soggetto mitologico, quadri di artisti fiamminghi, piccoli bronzi e, al nord arte grafica. Il collezionismo in senso stretto fu agli inizi del secolo connesso solo con le antichità. Verso la fine del Cinquecento, vanno manifestandosi parecchie innovazioni. Per la prima volta compare la parola museo, che era già stata adottata in Alessandria durante il periodo Ellenistico per designare tutto l'ambito degli edifici per la cultura in cui era compresa la biblioteca. Inizialmente tutte le collezioni erano private, ma potevano essere visitate dalle élite sociali. L‟istituzione del museo che noi oggi conosciamo, nasce dall‟ Europa illuminista del XVIII secolo: infatti in questo periodo fu deliberatamente progettato uno spazio architettonico appropriato che desse forma universalmente riconoscibile all‟idea di museo. Poniamo gli esempi del Museo di Villa Albani nel 1746 e il Museo Pio Clementino in Vaticano nel 1775, che per primi si pongono il problema della progettazione architettonica, dell‟allestimento e ordinamento adeguati a un museo aperto al pubblico. Mentre per Villa Albani si trattava pur sempre di una raccolta privata visitabile, il museo voluto dai papi Clemente XIV e Pio VI per le collezioni archeologiche era già pensato come un‟istituzione di interesse pubblico. Gli ultimi tre secoli del secondo millennio hanno visto la crescita dell‟istituzione del museo, diventata esponenziale negli ultimi decenni del XX secolo. I tempi hanno coinciso con la nascita, l‟affermazione rivoluzionaria, il trionfo e il consolidamento della cultura nell‟età della borghesia. 2 “Mentre prima il museo non era che un luogo pieno di oggetti, oggi è diventato un luogo pieno di idee, che vengono suggerite dalle indicazioni e dalle descrizioni accompagnanti gli oggetti esposti, dato che il museo è come un libro aperto che si offre allo studioso e a chi desidera formarsi una coltura.[...]3 1 Karsten Schubert, Museo. Storia di un'idea - dalla Rivoluzione francese ad oggi, il Saggiatore, Milano 2004, p.17. 2 Alessandra Mottola Molfino, Il libro dei musei, Umberto Alemandi & C., Torino 1991, pp. 11-22 3 Daniele Donghi, Manuale dell'architetto Volume II, Unione Tipografico Editrice Torinese, Torino 1935, p. 11. 8 Un museo non è definito solo in base all'importanza e alla qualità delle sue raccolte, ma soprattutto da come vengono recepite da chi le esamina, sia per motivi di studio che per interesse personale. Per questo motivo si deve mettere in grado le diverse categorie di fruitori, di accedere al museo con il minor spreco di tempo possibile e con il maggior profitto. L'effetto che si vuole ottenere deriva sia dal metodo di esposizione degli oggetti, sia da una buona soluzione tecnica relativa alle dimensioni, alla forma, alla distribuzione, riscaldamento e ventilazione dei locali, all'illuminazione degli oggetti e ai mezzi di loro conservazione e sicurezza. Il museo moderno dovrà coniugare al suo interno museografia e museologia. Dove“[...]per museografia si intende l'insieme delle azioni progettuali, scientifiche e tecniche, tendenti alla sistemazione organizzativa del museo (distributiva, impiantistica, tecnica, architettonica, allestitiva, informatica); appartiene in genere all'opera dell'architetto, con la collaborazione di strutturisti, impiantisti e informatici. Al contrario per museologia si intende l'insieme delle azioni di ricerca storica, filologica, di comparazione critica che presiede all'ordinamento dell'esposizione delle opere; generalmente appartiene allo storico dell'arte, allo storico della scienza, all'archeologo, all'antropologo [...].”4 Confrontando progetti museografici e museali dei primi musei con esempi moderni e contemporanei, si intendono ricavare i caratteri fondamentali che permettano di presentare un progetto per museo coerente all'area di studio, e che riesca a rivelare la vera natura degli oggetti che andrà a ospitare attraverso uno studio specifico dei percorsi e degli allestimenti.
Resumo:
Nel tentativo di rispondere alle esigenze valutate in seguito all’analisi del centro storico in base a differenti profili investigativi, si è formulato un programma di intervento con obiettivi e strategie codificate. In modo particolare viene privilegiata l’indagine effettuata a livello sociale sulla popolazione del centro storico, ambito di ricerca necessario per una buona premessa per un progetto che ha come oggetto l’abitare. Da queste considerazioni nasce l’idea del progetto dove il tema della residenza si inserisce in un contesto urbano in stretta relazione con il tessuto storico della città di Forlì. L’individuazione dell’area di progetto, situata in una posizione di confine tra due realtà differenti, il centro storico e la circonvallazione che lo racchiude, suggerisce la necessità di stabilire attraverso collegamenti perdonali e ciclabili fra l’area in esame e la periferia esterna una configurazione dinamica, dove il vuoto urbano che si presenta è lo scenario ideale per ristabilire una porta moderna alla città, ricomponendo la leggibilità tra la sfera naturale e quella insediativa. Alla scala urbana l’obiettivo è quello di stabilire il ruolo di centralità dell’area, nel suo insieme, restituendo ai fatti urbani della città le funzioni di interesse pubblico generale. La zona oggetto di discussione è un nodo urbano in cui coesistono manufatti di pregio architettonico e storico come quello della Filanda in oggetto e dell’Ex Complesso conventuale della Ripa, in grado di essere potenziali contenitori di funzioni pubbliche di alto livello, e aree verdi da riqualificare, con forte propensione all’uso pubblico, come gli Orti di via Curte. Sotto questo profilo deve essere valutata anche la tematica del rapporto con l’architettura antica, tenendo in considerazione l’effetto di impatto che i nuovi interventi avranno sull’esistente. È dunque il sito di progetto che detta le metodologie di approccio legate alla necessità di un intervento sostenibile e non invasivo. Partendo da queste considerazioni si sviluppano le tematiche legate alla flessibilità e alle sue coniugazioni. La società contemporanea che ci impone ogni giorno modelli di vita sempre nuovi e la necessità di movimento e trasformazione, ci mette di fronte più che mai al bisogno di progettare spazi non rigidi, ma aperti alle molteplici possibilità d’uso e ai cambiamenti nel tempo. La flessibilità viene dunque concepita in relazione ai concetti di complessità e sostenibilità. Se da una parte è necessario riconoscere la molteplicità dei modi d’uso con i quali l’oggetto dovrà confrontarsi ed assumere il carattere aleatorio di qualsiasi previsione relativa ai modelli di comportamento dell’utenza, dall’altra occorre cogliere all’interno del progetto della residenza flessibile la possibilità di pervenire a un costruire capace di riconfigurarsi di volta in volta, adattandosi alle differenti condizioni d’uso, senza dover procedere a drastiche modifiche che impongono la dismissione di materiali e componenti. Il sistema della stratificazione a secco può essere quello che attualmente meglio risponde, per qualità ed economicità, ai concetti della biologia dell’abitare e della casa intelligente, nozioni che acquisiscono sempre più importanza all’interno di una nuova concezione della progettazione. Si sceglie dunque di riportare la Filanda, quanto possibile, alla riconfigurazione originaria, prima che la corte interna fosse completamente saturata di depositi e magazzini come ci si presenta oggi e di concepire una nuova configurazione di quello che diventa un isolato urbano integrato nel tessuto storico, e nodo strutturante per un’area più vasta. Lavorando sulla residenza occorre mettere in primo piano il protagonista dell’architettura che si va a progettare: l’uomo. Per questo la scala urbana e la dimensione umana devono essere concepite parallelamente e la progettazione della cellula di base che si struttura secondo le modalità premesse di flessibilità e sostenibilità si sovrappone all’obiettivo di individuare all’interno del vuoto urbano, una nuova densità, dove il dialogo tra pubblico e privato sia il presupposto per lo sviluppo di un piano integrato e dinamico.
Resumo:
Nel periodo storico compreso tra la seconda metà dell’Ottocento ed il primo ventennio del Novecento, un’ondata di innovazioni tecnologiche e scientifiche, unitamente all’espansione dell’industria siderurgica e la conseguente diffusione del ferro come materiale da costruzione, portarono alla realizzazione di strutture metalliche grandiose. Ciò fu reso possibile grazie ad una fervida attività di ricerca che permise la risoluzione di problematiche tecniche di assoluto rilievo, come la progettazione di grandi coperture o di ponti destinati al traffico ferroviario in grado di coprire luci sempre maggiori. In questo contesto si sviluppò il sistema della chiodatura come metodo di unione per il collegamento rigido e permanente dei vari elementi che compongono la struttura portante metallica. Ad oggi il sistema della chiodatura è stato quasi completamente sostituito dalla bullonatura di acciaio ad alta resistenza e dalla saldatura, che garantendo gli stessi standard di affidabilità e sicurezza, offrono vantaggi in termini economici e di rapidità esecutiva. Tuttavia lo studio delle unioni chiodate continua a rivestire notevole importanza in tutti quei casi in cui il progettista debba occuparsi di restauro, manutenzione o adeguamento di strutture esistenti che in molti casi continuano ad assolvere le funzioni per le quali erano state progettate. La valutazione delle strutture esistenti, in particolare i ponti, ha assunto un’importanza sempre crescente. L’incremento della mobilità e del traffico sulle infrastrutture di trasporto ha portato ad un incremento contemporaneo di carichi e velocità sui ponti. In particolare nelle ferrovie, i ponti rappresentano una parte strategica della rete ferroviaria e in molti casi, essi hanno già raggiunto i loro limiti di capacità di traffico, tanto è vero che l’età media del sessanta percento dei ponti metallici ferroviari è di un centinaio di anni. Pertanto i carichi di servizio, i cicli di sforzo accumulati a causa dei carichi da traffico e il conseguente invecchiamento delle strutture esistenti, inducono la necessità della valutazione della loro rimanente vita a fatica. In questo contesto, la valutazione delle condizioni del ponte e le conseguenti operazioni di manutenzione o sostituzione diventano indispensabili. Negli ultimi decenni sono state effettuate numerose iniziative di ricerca riguardo il comportamento a fatica dei ponti ferroviari chiodati, poiché le passate esperienze hanno mostrato che tali connessioni sono suscettibili di rotture per fatica. Da uno studio dell’ASCE Committee on Fatigue and Fracture Reliability è emerso che l’ottanta, novanta percento delle crisi nelle strutture metalliche è da relazionarsi ai fenomeni di fatica e frattura. Il danno per fatica riportato dai ponti chiodati è stato osservato principalmente sulle unioni tra elementi principali ed è causato dagli sforzi secondari, che si possono sviluppare in diverse parti delle connessioni. In realtà riguardo la valutazione della fatica sui ponti metallici chiodati, si è scoperto che giocano un ruolo importante molti fattori, anzitutto i ponti ferroviari sono soggetti a grandi variazioni delle tensioni indotte da carichi permanenti e accidentali, così come imperfezioni geometriche e inclinazioni o deviazioni di elementi strutturali comportano sforzi secondari che solitamente non vengono considerati nella valutazione del fenomeno della fatica. Vibrazioni, forze orizzontali trasversali, vincoli interni, difetti localizzati o diffusi come danni per la corrosione, rappresentano cause che concorrono al danneggiamento per fatica della struttura. Per questo motivo si studiano dei modelli agli elementi finiti (FE) che riguardino i particolari delle connessioni e che devono poi essere inseriti all’interno di un modello globale del ponte. L’identificazione degli elementi critici a fatica viene infatti solitamente svolta empiricamente, quindi è necessario che i modelli numerici di cui si dispone per analizzare la struttura nei particolari delle connessioni, così come nella sua totalità, siano il più corrispondenti possibile alla situazione reale. Ciò che ci si propone di sviluppare in questa tesi è un procedimento che consenta di affinare i modelli numerici in modo da ottenere un comportamento dinamico analogo a quello del sistema fisico reale. Si è presa in esame la seguente struttura, un ponte metallico ferroviario a binario unico sulla linea Bologna – Padova, che attraversa il fiume Po tra le località di Pontelagoscuro ed Occhiobello in provincia di Ferrara. Questo ponte fu realizzato intorno agli anni che vanno dal 1945 al 1949 e tra il 2002 e il 2006 ha subito interventi di innalzamento, ampliamento ed adeguamento nel contesto delle operazioni di potenziamento della linea ferroviaria, che hanno portato tra l’altro all’affiancamento di un nuovo ponte, anch’esso a singolo binario, per i convogli diretti nella direzione opposta. Le travate metalliche del ponte ferroviario sono costituite da travi principali a traliccio a gabbia chiusa, con uno schema statico di travi semplicemente appoggiate; tutte le aste delle travi reticolari sono formate da profilati metallici in composizione chiodata. In particolare si è rivolta l’attenzione verso una delle travate centrali, della quale si intende affrontare un’analisi numerica con caratterizzazione dinamica del modello agli Elementi Finiti (FEM), in modo da conoscerne lo specifico comportamento strutturale. Ad oggi infatti l’analisi strutturale si basa prevalentemente sulla previsione del comportamento delle strutture tramite modelli matematici basati su procedimenti risolutivi generali, primo fra tutti il Metodo agli Elementi Finiti. Tuttavia i risultati derivanti dal modello numerico possono discostarsi dal reale comportamento della struttura, proprio a causa delle ipotesi poste alla base della modellazione. Difficilmente infatti si ha la possibilità di riscontrare se le ipotesi assunte nel calcolo della struttura corrispondano effettivamente alla situazione reale, tanto più se come nella struttura in esame si tratta di una costruzione datata e della quale si hanno poche informazioni circa i dettagli relativi alla costruzione, considerando inoltre che, come già anticipato, sforzi secondari e altri fattori vengono trascurati nella valutazione del fenomeno della fatica. Nel seguito si prenderanno in esame le ipotesi su masse strutturali, rigidezze dei vincoli e momento d’inerzia delle aste di parete, grandezze che caratterizzano in particolare il comportamento dinamico della struttura; per questo sarebbe ancora più difficilmente verificabile se tali ipotesi corrispondano effettivamente alla costruzione reale. Da queste problematiche nasce l’esigenza di affinare il modello numerico agli Elementi Finiti, identificando a posteriori quei parametri meccanici ritenuti significativi per il comportamento dinamico della struttura in esame. In specifico si andrà a porre il problema di identificazione come un problema di ottimizzazione, dove i valori dei parametri meccanici vengono valutati in modo che le caratteristiche dinamiche del modello, siano il più simili possibile ai risultati ottenuti da elaborazioni sperimentali sulla struttura reale. La funzione costo è definita come la distanza tra frequenze proprie e deformate modali ottenute dalla struttura reale e dal modello matematico; questa funzione può presentare più minimi locali, ma la soluzione esatta del problema è rappresentata solo dal minimo globale. Quindi il successo del processo di ottimizzazione dipende proprio dalla definizione della funzione costo e dalla capacità dell’algoritmo di trovare il minimo globale. Per questo motivo è stato preso in considerazione per la risoluzione del problema, l’algoritmo di tipo evolutivo DE (Differential Evolution Algorithm), perché gli algoritmi genetici ed evolutivi vengono segnalati per robustezza ed efficienza, tra i metodi di ricerca globale caratterizzati dall’obiettivo di evitare la convergenza in minimi locali della funzione costo. Obiettivo della tesi infatti è l’utilizzo dell’algoritmo DE modificato con approssimazione quadratica (DE-Q), per affinare il modello numerico e quindi ottenere l’identificazione dei parametri meccanici che influenzano il comportamento dinamico di una struttura reale, il ponte ferroviario metallico a Pontelagoscuro.
Resumo:
L'elaborato di tesi sviluppato ha come obiettivo l'ottimizzazione della Supply Chian di contesti manufatturieri con particolare attenzione alle procedure di approvvigionamento dei materiali e al problema dei materiali "mancanti" in produzione.Viene esposto il risultato di un’attività di analisi di due casi reali per l’ottimizzazione dell'impatto logistico del problema dell'alimentazione di sistemi di fabbricazione e montaggio. Lo studio è stato affrontato definendo un approccio basato su una duplice analisi del processo, top-down e bottom-up. Le due analisi condotte hanno permesso di procedere alla mappatura dell’intero processo end to end (che inizia con le richieste del cliente e termina con la consegna dei prodotti allo stesso) e di individuare le criticità in esso presenti, sulla base delle quali sono state fornite una serie di linee guida per la risoluzione del problema dei mancanti. I risultati ottenuti hanno evidenziato che l’ottimizzazione dell’area di pianificazione permette di migliorare la qualità dei dati in ingresso all’intero processo con conseguente diminuzione del numero di materiali mancanti. Tuttavia, la trasversalità dell’argomento ai processi aziendali impedisce la definizione di un approccio al problema focalizzato su un’area specifica. Infine, è stata eseguita una bozza di valutazione economica per la stima dei tempi di recupero degli investimenti necessari.
Resumo:
Il lavoro svolto nella presente tesi di laurea si sviluppa all’interno del progetto di ricerca europeo SmooHs (Smart Monitoring of Historic Structures-Monitoraggio intelligente di edifici e strutture storiche) nell’ambito del 7 Programma Quadro della Commissione Europea. Gli edifici storici sono caratterizzati da elementi architettonici, materiali e soluzioni progettuali uniche e pertanto da valorizzare. Al fine si salvaguardare tali beni storici si richiede una conoscenza approfondita dei processi di deterioramento, legati spesso a fattori ambientali, e una loro rilevazione immediata. Il monitoraggio continuo dei possibili parametri che influenzano i suddetti processi può contribuire significativamente, ma un’applicazione estesa di questa tecnica è finora fallita a causa dei costi elevati di sistemi completi di monitoraggio; per questo sono stati osservati solitamente pochi parametri. L’obiettivo del progetto prevede lo sviluppo di strumenti di monitoraggio e diagnostica competitivi per gli specialisti nel settore che vada al di là del mero accumulo di dati. La normativa, in particolare le Linee Guida per l’applicazione al patrimonio culturale della normativa tecnica di cui all’Ordinanza PCM-3274 del 2005, evidenziano l’importanza di raggiungere un elevato livello di informazione dell’oggetto e del suo comportamento strutturale attraverso un percorso conoscitivo pluriramificato. “Si ha pertanto la necessità di affinare tecniche di analisi ed interpretazione dei manufatti storici mediante fasi conoscitive dal diverso grado di attendibilità, anche in relazione al loro impatto. La conoscenza può infatti essere conseguita con diversi livelli di approfondimento, in funzione dell’accuratezza delle operazioni di rilievo, delle ricerche storiche e delle indagini sperimentali” (Linee guida per l’applicazione all patrimonio culturale della normativa tecnica di cui all’ordinanza PCM-3274, 2005). Per quanto riguarda la caratterizzazione meccanica dei materiali, la normativa cita “Tecniche diagnostiche non distruttive di tipo indiretto, quali prove soniche ed ultrasoniche, consentono di valutare l’omogeneità dei parametri meccanici nelle diverse parti della costruzione, ma non forniscono stime quantitative attendibili dei loro valori, in quanto essi vengono desunti dalla misura di altre grandezze”. Non viene identificata una procedura univoca di prove non distruttive per ciascuna tipologia edilizia, pertanto ci domandiamo quale sia la procedura più idonea da utilizzare, considerando il tipo di risultato che si vuole ottenere. Si richiedono quindi degli studi di fattibilità di diverse tecniche non distruttive, soprattutto tecniche per immagini che diano un risultato più immediato da comprendere. Per questo scopo è stato impostato un programma di ricerca per valutare l’efficacia di una tecnica non distruttiva, la tomografia sonica, su provini in muratura costruiti nei laboratori del LaRM (Laboratorio di Resistenza dei Materiali del DISTART dell’Università di Bologna), reputando questa la strada da percorrere verso una diagnostica strutturale sempre più dettagliata. I provini in muratura di laterizio PNDE e PNDF, presentano al loro interno dei difetti (in polistirolo espanso) di geometria e posizione nota e diverse tessiture murarie (muratura di laterizio tradizionale e muratura a sacco). Nel capitolo 2 vengono descritte le caratteristiche e le basi teoriche delle prove soniche e di altre tecniche non distruttive, al fine di poterne fare un confronto. La tomografia sonica è definita e sono illustrate le sue peculiarità; vengono inoltre riportati alcuni esempi di applicazioni della stessa su strutture storiche lignee e murarie. Nel capitolo 3 sono presentati i provini oggetto di studio ed introdotto qualche accenno sulla natura delle murature di laterizio. Sono specificati i corsi e le sezioni verticali sui quali viene sperimentata la tomografia; essi hanno precise caratteristiche che permettono di eseguire una sperimentazione mirata all’individuazione di anomalie in una sezione e al riconoscimento di diverse tessiture murarie. Nel capitolo 4 è illustrata la procedura di acquisizione dei dati in laboratorio e di rielaborazione degli stessi nella fase di post-processing. Dopo aver scelto, in base alla risoluzione, la distanza che intercorre tra le stazioni di misura, sono stati progettati i vari percorsi uscenti da ogni stazione trasmittente, andando a definire i ray-paths delle sezioni sia orizzontali che verticali. I software per il calcolo dei tempi di volo (in ambiente LabView) e per l’inversione degli stessi (Geotom) sono presentati e vengono definite le istruzioni per l’utilizzo. Il capitolo 5 assieme al capitolo 6, mostra i risultati ottenuti dall’inversione dei tempi di volo. Per i diversi corsi orizzontali e sezioni verticali sono riportate le mappe di velocità ottenute al variare di diversi parametri di settaggio impostati nel software tomografico. Le immagini tomografiche evidenziano le caratteristiche interne delle sezioni studiate, in base alla risoluzione geometrica della tecnica. Nel capitolo 7 e 8 sono mostrati i risultati delle prove soniche dirette applicate sia sui corsi verticali sia sulle sezioni verticali. Le stazioni di misura considerate sono le stesse utilizzate per la tomografia. Il capitolo 9 riporta il confronto tra le mappe di velocità prodotte dalla tomografia sonica e gli istogrammi delle velocità registrate nelle prove soniche dirette. Si evidenziano le differenze nell’individuazione di difetti tra due metodologie differenti. Infine sono riportate le conclusioni sul lavoro svolto. I limiti e i vantaggi della tecnica tomografica vengono desunti dai risultati ottenuti per varie tipologie di sezioni, a confronto anche con risultati di prove soniche dirette. Ciò ci porta a definire la fattibilità di utilizzo della tomografia sonica nella diagnosi delle strutture in muratura.
Resumo:
Questa tesi riguarda l'analisi delle trasmissioni ad ingranaggi e delle ruote dentate in generale, nell'ottica della minimizzazione delle perdite di energia. È stato messo a punto un modello per il calcolo della energia e del calore dissipati in un riduttore, sia ad assi paralleli sia epicicloidale. Tale modello consente di stimare la temperatura di equilibrio dell'olio al variare delle condizioni di funzionamento. Il calcolo termico è ancora poco diffuso nel progetto di riduttori, ma si è visto essere importante soprattutto per riduttori compatti, come i riduttori epicicloidali, per i quali la massima potenza trasmissibile è solitamente determinata proprio da considerazioni termiche. Il modello è stato implementato in un sistema di calcolo automatizzato, che può essere adattato a varie tipologie di riduttore. Tale sistema di calcolo consente, inoltre, di stimare l'energia dissipata in varie condizioni di lubrificazione ed è stato utilizzato per valutare le differenze tra lubrificazione tradizionale in bagno d'olio e lubrificazione a “carter secco” o a “carter umido”. Il modello è stato applicato al caso particolare di un riduttore ad ingranaggi a due stadi: il primo ad assi paralleli ed il secondo epicicloidale. Nell'ambito di un contratto di ricerca tra il DIEM e la Brevini S.p.A. di Reggio Emilia, sono state condotte prove sperimentali su un prototipo di tale riduttore, prove che hanno consentito di tarare il modello proposto [1]. Un ulteriore campo di indagine è stato lo studio dell’energia dissipata per ingranamento tra due ruote dentate utilizzando modelli che prevedano il calcolo di un coefficiente d'attrito variabile lungo il segmento di contatto. I modelli più comuni, al contrario, si basano su un coefficiente di attrito medio, mentre si può constatare che esso varia sensibilmente durante l’ingranamento. In particolare, non trovando in letteratura come varia il rendimento nel caso di ruote corrette, ci si è concentrati sul valore dell'energia dissipata negli ingranaggi al variare dello spostamento del profilo. Questo studio è riportato in [2]. È stata condotta una ricerca sul funzionamento di attuatori lineari vite-madrevite. Si sono studiati i meccanismi che determinano le condizioni di usura dell'accoppiamento vite-madrevite in attuatori lineari, con particolare riferimento agli aspetti termici del fenomeno. Si è visto, infatti, che la temperatura di contatto tra vite e chiocciola è il parametro più critico nel funzionamento di questi attuatori. Mediante una prova sperimentale, è stata trovata una legge che, data pressione, velocità e fattore di servizio, stima la temperatura di esercizio. Di tale legge sperimentale è stata data un'interpretazione sulla base dei modelli teorici noti. Questo studio è stato condotto nell'ambito di un contratto di ricerca tra il DIEM e la Ognibene Meccanica S.r.l. di Bologna ed è pubblicato in [3].
Resumo:
The experience of void, essential to the production of forms and to make use them, can be considered as the base of the activities that attend to the formative processes. If void and matter constitutes the basic substances of architecture. Their role in the definition of form, the symbolic value and the constructive methods of it defines the quality of the space. This job inquires the character of space in the architecture of Moneo interpreting the meaning of the void in the Basque culture through the reading of the form matrices in the work of Jorge Oteiza and Eduardo Chillida. In the tie with the Basque culture a reading key is characterized by concurring to put in relation some of the theoretical principles expressed by Moneo on the relationship between place and time, in an unique and specific vision of the space. In the analysis of the process that determines the genesis of the architecture of Moneo emerges a trajectory whose direction is constructed on two pivos: on the one hand architecture like instrument of appropriation of the place, gushed from an acquaintance process who leans itself to the reading of the relations that define the place and of the resonances through which measuring it, on the other hand the architecture whose character is able to represent and to extend the time in which he is conceived, through the autonomy that is conferred to them from values. Following the trace characterized from this hypothesis, that is supported on the theories elaborated from Moneo, surveying deepens the reading of the principles that construct the sculptural work of Oteiza and Chillida, features from a search around the topic of the void and to its expression through the form. It is instrumental to the definition of a specific area that concurs to interpret the character of the space subtended to a vision of the place and the time, affine to the sensibility of Moneo and in some way not stranger to its cultural formation. The years of the academic formation, during which Moneo enters in contact with the Basque artistic culture, seem to be an important period in the birth of that knowledge that will leads him to the formulation of theories tied to the relationship between time, place and architecture. The values expressed through the experimental work of Oteiza and Chillida during years '50 are valid bases to the understanding of such relationships. In tracing a profile of the figures of Oteiza and Chillida, without the pretension that it is exhaustive for the reading of the complex historical period in which they are placed, but with the needs to put the work in a context, I want to be evidenced the important role carried out from the two artists from the Basque cultural area within which Moneo moves its first steps. The tie that approaches Moneo to the Basque culture following the personal trajectory of the formative experience interlaces to that one of important figures of the art and the Spanish architecture. One of the more meaningful relationships is born just during the years of his academic formation, from 1958 to the 1961, when he works like student in the professional office of the architect Francisco Sáenz de Oiza, who was teaching architectural design at the ETSAM. In these years many figures of Basque artists alternated at the professional office of Oiza that enjoys the important support of the manufacturer and maecenas Juan Huarte Beaumont, introduced to he from Oteiza. The tie between Huarte and Oteiza is solid and continuous in the years and it realizes in a contribution to many of the initiatives that makes of Oteiza a forwarder of the Basque culture. In the four years of collaboration with Oiza, Moneo has the opportunity to keep in contact with an atmosphere permeated by a constant search in the field of the plastic art and with figures directly connected to such atmosphere. It’s of a period of great intensity as in the production like in the promotion of the Basque art. The collective “Blanco y Negro”, than is held in 1959 at the Galería Darro to Madrid, is only one of the many times of an exhibition of the work of Oteiza and Chillida. The end of the Fifties is a period of international acknowledgment for Chillida that for Oteiza. The decade of the Fifties consecrates the hypotheses of a mythical past of the Basque people through the spread of the studies carried out in the antecedent years. The archaeological discoveries that join to a context already rich of signs of the prehistoric era, consolidate the knowledge of a strong cultural identity. Oteiza, like Chillida and other contemporary artists, believe in a cosmogonist conception belonging to the Basques, connected to their matriarchal mythological past. The void in its meaning of absence, in the Basque culture, thus as in various archaic and oriental religions, is equivalent to the spiritual fullness as essential condition to the revealing of essence. Retracing the archaic origins of the Basque culture emerges the deep meaning that the void assumes as key element in the religious interpretation of the passage from the life to the death. The symbology becomes rich of meaningful characters who derive from the fact that it is a chthonic cult. A representation of earth like place in which divine manifest itself but also like connection between divine and human, and this manipulation of the matter of which the earth it is composed is the tangible projection of the continuous search of the man towards God. The search of equilibrium between empty and full, that characterizes also the development of the form in architecture, in the Basque culture assumes therefore a peculiar value that returns like constant in great part of the plastic expressions, than in this context seem to be privileged regarding the other expressive forms. Oteiza and Chillida develop two original points of view in the representation of the void through the form. Both use of rigorous systems of rules sensitive to the physics principles and the characters of the matter. The last aim of the Oteiza’s construction is the void like limit of the knowledge, like border between known and unknown. It doesn’t means to reduce the sculptural object to an only allusive dimension because the void as physical and spiritual power is an active void, that possesses that value able to reveal the being through the trace of un-being. The void in its transcendental manifestation acts at the same time from universal and from particular, like in the atomic structure of the matter, in which on one side it constitutes the inner structure of every atom and on the other one it is necessary condition to the interaction between all the atoms. The void can be seen therefore as the action field that concurs the relations between the forms but is also the necessary condition to the same existence of the form. In the construction of Chillida the void represents that counterpart structuring the matter, inborn in it, the element in absence of which wouldn’t be variations neither distinctive characters to define the phenomenal variety of the world. The physics laws become the subject of the sculptural representation, the void are the instrument that concurs to catch up the equilibrium. Chillida dedicate himself to experience the space through the senses, to perceive of the qualities, to tell the physics laws which forge the matter in the form and the form arranges the places. From the artistic experience of the two sculptors they can be transposed, to the architectonic work of Moneo, those matrices on which they have constructed their original lyric expressions, where the void is absolute protagonist. An ambit is defined thus within which the matrices form them drafts from the work of Oteiza and Chillida can be traced in the definition of the process of birth and construction of the architecture of Moneo, but also in the relation that the architecture establishes with the place and in the time. The void becomes instrument to read the space constructed in its relationships that determine the proportions, rhythms, and relations. In this way the void concurs to interpret the architectonic space and to read the value of it, the quality of the spaces constructing it. This because it’s like an instrument of the composition, whose role is to maintain to the separation between the elements putting in evidence the field of relations. The void is that instrument that serves to characterize the elements that are with in the composition, related between each other, but distinguished. The meaning of the void therefore pushes the interpretation of the architectonic composition on the game of the relations between the elements that, independent and distinguished, strengthen themselves in their identity. On the one hand if void, as measurable reality, concurs all the dimensional changes quantifying the relationships between the parts, on the other hand its dialectic connotation concurs to search the equilibrium that regulated such variations. Equilibrium that therefore does not represent an obtained state applying criteria setting up from arbitrary rules but that depends from the intimate nature of the matter and its embodiment in the form. The production of a form, or a formal system that can be finalized to the construction of a building, is indissolubly tied to the technique that is based on the acquaintance of the formal vocation of the matter, and what it also can representing, meaning, expresses itself in characterizing the site. For Moneo, in fact, the space defined from the architecture is above all a site, because the essence of the site is based on the construction. When Moneo speaks about “birth of the idea of plan” like essential moment in the construction process of the architecture, it refers to a process whose complexity cannot be born other than from a deepened acquaintance of the site that leads to the comprehension of its specificity. Specificity arise from the infinite sum of relations, than for Moneo is the story of the oneness of a site, of its history, of the cultural identity and of the dimensional characters that that they are tied to it beyond that to the physical characteristics of the site. This vision is leaned to a solid made physical structure of perceptions, of distances, guideline and references that then make that the process is first of all acquaintance, appropriation. Appropriation that however does not happen for directed consequence because does not exist a relationship of cause and effect between place and architecture, thus as an univocal and exclusive way does not exist to arrive to a representation of an idea. An approach that, through the construction of the place where the architecture acquires its being, searches an expression of its sense of the truth. The proposal of a distinction for areas like space, matter, spirit and time, answering to the issues that scan the topics of the planning search of Moneo, concurs a more immediate reading of the systems subtended to the composition principles, through which is related the recurrent architectonic elements in its planning dictionary. From the dialectic between the opposites that is expressed in the duality of the form, through the definition of a complex element that can mediate between inside and outside as a real system of exchange, Moneo experiences the form development of the building deepening the relations that the volume establishes in the site. From time to time the invention of a system used to answer to the needs of the program and to resolve the dual character of the construction in an only gesture, involves a deep acquaintance of the professional practice. The technical aspect is the essential support to which the construction of the system is indissolubly tied. What therefore arouses interest is the search of the criteria and the way to construct that can reveal essential aspects of the being of the things. The constructive process demands, in fact, the acquaintance of the formative properties of the matter. Property from which the reflections gush on the relations that can be born around the architecture through the resonance produced from the forms. The void, in fact, through the form is in a position to constructing the site establishing a reciprocity relation. A reciprocity that is determined in the game between empty and full and of the forms between each other, regarding around, but also with regard to the subjective experience. The construction of a background used to amplify what is arranged on it and to clearly show the relations between the parts and at the same time able to tie itself with around opening the space of the vision, is a system that in the architecture of Moneo has one of its more effective applications in the use of the platform used like architectonic element. The spiritual force of this architectonic gesture is in the ability to define a place whose projecting intention is perceived and shared with who experience and has lived like some instrument to contact the cosmic forces, in a delicate process that lead to the equilibrium with them, but in completely physical way. The principles subtended to the construction of the form taken from the study of the void and the relations that it concurs, lead to express human values in the construction of the site. The validity of these principles however is tested from the time. The time is what Moneo considers as filter that every architecture is subordinate to and the survival of architecture, or any of its formal characters, reveals them the validity of the principles that have determined it. It manifests thus, in the tie between the spatial and spiritual dimension, between the material and the worldly dimension, the state of necessity that leads, in the construction of the architecture, to establish a contact with the forces of the universe and the intimate world, through a process that translate that necessity in elaboration of a formal system.
Resumo:
Fenomeni di trasporto ed elettrostatici in membrane da Nanofiltrazione La capacità di predire le prestazioni delle membrane da nanofiltrazione è molto importante per il progetto e la gestione di processi di separazione a membrana. Tali prestazioni sono strettamente legate ai fenomeni di trasporto che regolano il moto dei soluti all’interno della matrice della membrana. Risulta, quindi, di rilevante importanza la conoscenza e lo studio di questi fenomeni; l’obiettivo finale è quello di mettere a punto modelli di trasporto appropriati che meglio descrivano il flusso dei soluti all’interno della membrana. A fianco dei modelli di trasporto ricopre, quindi, una importanza non secondaria la caratterizzazione dei parametri aggiustabili propri della membrana sulla quale si opera. La procedura di caratterizzazione di membrane deve chiarire le modalità di svolgimento delle prove sperimentali e le finalità che esse dovrebbero conseguire. Tuttavia, nonostante i miglioramenti concernenti la modellazione del trasporto di ioni in membrana ottenuti dalla ricerca negli ultimi anni, si è ancora lontani dall’avere a disposizione un modello univoco in grado di descrivere i fenomeni coinvolti in maniera chiara. Oltretutto, la palese incapacità del modello di non riuscire a prevedere gli andamenti sperimentali di reiezione nella gran parte dei casi relativi a miscele multicomponenti e le difficoltà legate alla convergenza numerica degli algoritmi risolutivi hanno fortemente limitato gli sviluppi del processo anche e soprattutto in termini applicativi. Non da ultimo, si avverte la necessità di poter prevedere ed interpretare l’andamento della carica di membrana al variare delle condizioni operative attraverso lo sviluppo di un modello matematico in grado di descrivere correttamente il meccanismo di formazione della carica. Nel caso di soluzioni elettrolitiche, infatti, è stato riconosciuto che la formazione della carica superficiale è tra i fattori che maggiormente caratterizzano le proprietà di separazione delle membrane. Essa gioca un ruolo importante nei processi di trasporto ed influenza la sua selettività nella separazione di molecole caricate; infatti la carica di membrana interagisce elettrostaticamente con gli ioni ed influenza l’efficienza di separazione degli stessi attraverso la partizione degli elettroliti dalla soluzione esterna all’interno dei pori del materiale. In sostanza, la carica delle membrane da NF è indotta dalle caratteristiche acide delle soluzioni elettrolitiche poste in contatto con la membrana stessa, nonché dal tipo e dalla concentrazione delle specie ioniche. Nello svolgimento di questo lavoro sono stati analizzati i principali fenomeni di trasporto ed elettrostatici coinvolti nel processo di nanofiltrazione, in particolare si è focalizzata l’attenzione sugli aspetti relativi alla loro modellazione matematica. La prima parte della tesi è dedicata con la presentazione del problema generale del trasporto di soluti all’interno di membrane da nanofiltrazione con riferimento alle equazioni alla base del modello DSP&DE, che rappresenta una razionalizzazione dei modelli esistenti sviluppati a partire dal modello DSPM, nel quale sono stati integrarti i fenomeni di esclusione dielettrica, per quanto riguarda la separazione di elettroliti nella filtrazione di soluzioni acquose in processi di Nanofiltrazione. Il modello DSP&DE, una volta definita la tipologia di elettroliti presenti nella soluzione alimentata e la loro concentrazione, viene completamente definito da tre parametri aggiustabili, strettamente riconducibili alle proprietà della singola membrana: il raggio medio dei pori all’interno della matrice, lo spessore effettivo e la densità di carica di membrana; in più può essere considerato un ulteriore parametro aggiustabile del modello il valore che la costante dielettrica del solvente assume quando confinato in pori di ridotte dimensioni. L’impostazione generale del modello DSP&DE, prevede la presentazione dei fenomeni di trasporto all’interno della membrana, descritti attraverso l’equazione di Nerst-Planck, e lo studio della ripartizione a ridosso dell’interfaccia membrana/soluzione esterna, che tiene in conto di diversi contributi: l’impedimento sterico, la non idealità della soluzione, l’effetto Donnan e l’esclusione dielettrica. Il capitolo si chiude con la presentazione di una procedura consigliata per la determinazione dei parametri aggiustabili del modello di trasporto. Il lavoro prosegue con una serie di applicazioni del modello a dati sperimentali ottenuti dalla caratterizzazione di membrane organiche CSM NE70 nel caso di soluzioni contenenti elettroliti. In particolare il modello viene applicato quale strumento atto ad ottenere informazioni utili per lo studio dei fenomeni coinvolti nel meccanismo di formazione della carica; dall’elaborazione dei dati sperimentali di reiezione in funzione del flusso è possibile ottenere dei valori di carica di membrana, assunta quale parametro aggiustabile del modello. che permettono di analizzare con affidabilità gli andamenti qualitativi ottenuti per la carica volumetrica di membrana al variare della concentrazione di sale nella corrente in alimentazione, del tipo di elettrolita studiato e del pH della soluzione. La seconda parte della tesi relativa allo studio ed alla modellazione del meccanismo di formazione della carica. Il punto di partenza di questo studio è rappresentato dai valori di carica ottenuti dall’elaborazione dei dati sperimentali di reiezione con il modello di trasporto, e tali valori verranno considerati quali valori “sperimentali” di riferimento con i quali confrontare i risultati ottenuti. Nella sezione di riferimento è contenuta la presentazione del modello teorico “adsorption-amphoteric” sviluppato al fine di descrivere ed interpretare i diversi comportamenti sperimentali ottenuti per la carica di membrana al variare delle condizioni operative. Nel modello la membrana è schematizzata come un insieme di siti attivi di due specie: il gruppo di siti idrofobici e quello de siti idrofilici, in grado di supportare le cariche derivanti da differenti meccanismi chimici e fisici. I principali fenomeni presi in considerazione nel determinare la carica volumetrica di membrana sono: i) la dissociazione acido/base dei siti idrofilici; ii) il site-binding dei contro-ioni sui siti idrofilici dissociati; iii) l’adsorbimento competitivo degli ioni in soluzione sui gruppi funzionali idrofobici. La struttura del modello è del tutto generale ed è in grado di mettere in evidenza quali sono i fenomeni rilevanti che intervengono nel determinare la carica di membrana; per questo motivo il modello permette di indagare il contributo di ciascun meccanismo considerato, in funzione delle condizioni operative. L’applicazione ai valori di carica disponibili per membrane Desal 5-DK nel caso di soluzioni contenenti singoli elettroliti, in particolare NaCl e CaCl2 permette di mettere in evidenza due aspetti fondamentali del modello: in primis la sua capacità di descrivere andamenti molto diversi tra loro per la carica di membrana facendo riferimento agli stessi tre semplici meccanismi, dall’altra parte permette di studiare l’effetto di ciascun meccanismo sull’andamento della carica totale di membrana e il suo peso relativo. Infine vengono verificate le previsioni ottenute con il modello dal suddetto studio attraverso il confronto con dati sperimentali di carica ottenuti dall’elaborazione dei dati sperimentali di reiezione disponibili per il caso di membrane CSM NE70. Tale confronto ha messo in evidenza le buone capacità previsionali del modello soprattutto nel caso di elettroliti non simmetrici quali CaCl2 e Na2SO4. In particolare nel caso un cui lo ione divalente rappresenta il contro-ione rispetto alla carica propria di membrana, la carica di membrana è caratterizzata da un andamento unimodale (contraddistinto da un estremante) con la concentrazione di sale in alimentazione. Il lavoro viene concluso con l’estensione del modello ADS-AMF al caso di soluzioni multicomponenti: è presentata una regola di mescolamento che permette di ottenere la carica per le soluzioni elettrolitiche multicomponenti a partire dai valori disponibili per i singoli ioni componenti la miscela.
Resumo:
Il sisma del 6 aprile ha palesato delle criticità già presenti nel territorio aquilano. Dopo l'emergenza ci si chiede quindi quale debba essere il futuro della città. Quello che risulta più evidente è sicuramente la scomparsa di un'interdipendenza tra città e territorio circostante che era invece alla base della nascita stessa del nucleo storico. Questo era infatti concepito inizialmente come una serie di entità eterogenee separate, 99 rioni che avrebbero ospitato la popolazione di altrettanti villaggi e castelli, ed arriva nel corso dei secoli ad inglobare un territorio molto più ampio di centri minori che si riconoscono nel capoluogo. Anche con la successiva crescita non si è mai sentita la necessità di provvedere ad uno sviluppo organizzato attraverso la realizzazione di servizi, ma si è sempre cercato di mantenere il centro storico come unico contenitore, non solo per la città ma per l'intero territorio. Così lo sviluppo fuori le mura è avvenuto soprattutto per mano privata generando una periferia caotica e disorganizzata come risposta alla domanda di alloggi, a cui non è mai stato dato l'onere, se non in fase progettuale, di sopperire alle necessità urbane di servizi e infrastrutture e soprattutto ad una totale mancanza di pianificazione di sviluppo futuro. Con la completa distruzione del centro storico è scomparso il cuore pulsante del territorio aquilano, a cui è subito seguito anche lo spegnimento della periferia, che gravitava e si appoggiava su di esso per la sua sopravvivenza. A questo punto la scelta di agire sulla prima periferia, in una zona di cerniera con il centro storico, diventa una scelta fondamentale, poiché questa diventa una possibilità per dare luogo ad una rinascita non solo della città dentro le mura ma dell'Aquila moderna. Poiché questo sia possibile è chiaro come l'attenzione maggiore debba rivolgersi non solo alla risposta della domanda abitativa, ma anche alla progettazione di spazi per la collettività, servizi a diversa scala e sedi per il piccolo e medio commercio per rendere possibili nuove opportunità sociali ed economiche. In quest'ottica risulta indispensabile mantenere un collegamento, fisico e visivo, con il centro storico, attraverso la riqualificazione della fascia verde a ridosso delle mura e la sua naturale prosecuzione al di là della strada nell'area di progetto. Una delle problematiche principali è stata inoltre la definizione o meno di un confine. La scelta è stata quella di una struttura aperta: una maglia senza un limite preciso ma con una chiara direzionalità che si rifà a quella del centro storico e che risulta la più adatta ad accogliere gli sviluppi futuri della città. Il progetto cerca quindi di interfacciarsi sempre con quelle che sono le preesistenze (come nel caso della Chiesa di S. Maria Mediatrice), per cui si perde una lettura chiusa del quartiere, a favore di un intervento che vuole essere una ricucitura piuttosto che un'imposizione al luogo. Diretta conseguenza è stata quindi la scelta di lavorare sugli spazi aperti, diversificandoli e caratterizzandoli a seconda delle situazioni, intesi come elementi di relazione, generatori di una fluida sequenza di luoghi, in cui l'edificio che vi trova sede non può essere scisso dal contesto circostante, ma ne diventa elemento complementare. Lo spazio assume così diverse declinazioni nel passaggio dal pubblico al privato, privo di cesure nette, alla ricerca di un abitare collettivo senza rinunce alla propria individualità. Alla varietà dei luoghi, si affianca anche la progettazione diversificata degli alloggi, per rispondere alle contemporanee esigenze dell'abitare.
Resumo:
L’obiettivo di questa relazione è presentare i risultati raggiunti dalle attività di marketing svolte al fine di promuovere e valutare la piattaforma e-commerce di BF Servizi, azienda che opera come intermediario nella fornitura di servizi all’interno del contesto fieristico di Bologna Fiere. A fine del 2009 BF Servizi ha commissionato a Gecod lo sviluppo di un sistema informativo per le gestione integrata di tutti i processi rilevanti per il business aziendale. A ottobre 2010 viene completato e presentato uno dei moduli previsti dall’intero progetto: la piattaforma e-commerce. Questa si differenzia dagli altri sistemi di commercio online in quanto è stata progettata specificatamente allo scopo di permettere la prenotazione di servizi da parte delle aziende che partecipano alle manifestazioni svolte presso i padiglioni di Bologna Fiere. Le sue particolarità sono quindi sia l’utenza, che configura la creazione di relazioni B2B, sia la tipologia di articoli offerti, non prodotti ma servizi, sia l’ambiente, le fiere svolte a Bologna. A seguito di questo rinnovamento BF Servizi ha ritenuto opportuno adeguare al nuovo contesto anche le proprie tecniche di marketing introducendo, come strumento da usare per la loro attuazione, il web. All’interno dell’organico dell’azienda però non era presente una figura che avesse le competenze per poter integrare, ai normali canali usati per le iniziative di marketing, le opportunità offerte da Internet e che quindi potesse utilizzarle per raggiungere gli obiettivi prefissati per tali attività e cioè la promozione della piattaforma e-commerce e la misurazione del suo gradimento da parte dell’utenza. Le mie conoscenze maturate in ambito universitario hanno apportato quel contributo necessario alla loro realizzazione. La prima decisione è stata la scelta di quale tra le tecniche di web marketing fosse la migliore per le promozione della piattaforma e-commerce di BF Servizi. La disponibilità di un voluminoso numero di indirizzi email dei loro clienti e prospect ed una generale bassa alfabetizzazione informatica degli stessi ha portato a individuare quale soluzione più adeguata la tecnica dell’email marketing. La comunicazione ai clienti per mezzo email era già prevista ma senza che vi fosse ne una pianificazione ne un'analisi dei risultati. Era quindi necessario formalizzare un vero e proprio piano di marketing e successivamente migliorarne le performance. L’assenza di strumenti adeguati alla sua realizzazione ha richiesto che prima venisse svolto un benchmark del settore basato sul confronto di funzionalità, costi e facilità d'uso. Il servizio ESP di Mailchimp è risultato il vincitore in quanto assicurava una maggiore tutela della privacy, una migliore gestione dello spam e strumenti più efficaci per la creazione e l'analisi delle campagne email. Per la valutazione del gradimento della piattaforma e-commerce da parte degli utenti è stato deciso di progettare un’apposita indagine sottoforma di Usability Test e Online Survey. Per il primo è stato necessario l’utilizzo di un apposito servizio per la condivisione dello schermo in quanto in era impossibile far ritrovare il test e l’osservatore nel medesimo luogo. Per l’Online Survey, grazie ad un piccolo Benchmark, è stato deciso di utilizzare SurveyGizmo. All’interno dell’organico dell’azienda non è presente una figura di importanza strategia quale il Web Marketing Manager che abbia la responsabilità di coordinare tutte le attività legate alla vendita o al lancio di un prodotto o di un servizio. L’attività di marketing viene svolta da una figura interna all’azienda (il Responsabile Marketing) che si avvale della collaborazione sia di Gecod, per quanto riguarda l'area informatica, sia di BitBang per quanto riguarda alcune attività di web marketing. La realizzazione delle due attività ha fortemente risentito di questa frammentazione dei compiti, è stato infatti opportuno adeguare le pianificazione alle esigenze di Gecod. Nonostante questo i dati conseguiti dall'attività di email marketing sono stati utili a capire l'efficacia e l'efficienza di questa tecnica nel contesto di BF Servizi. Anche le informazioni raccolte durante l'indagine sono state sufficienti per poter dare un valore all'usabilità della piattaforma e-commerce. La pianificazione iniziale di un piano di email marketing richiede che vengano svolte varie verifiche per valutare la qualità ed inoltre richiede periodo medio-lungo per poter essere reso ottimale. Era quindi già chiaro sin dall'inizio come uno degli obiettivi fosse quello di progettare una buona base su cui apportare successive modifiche. Le prime campagne realizzate sarebbero state utili a ricavare le informazioni necessarie per correggere il piano di marketing. La tipologia di relazione che si instaura tra BF Servizi e i suoi clienti è particolare, la gran parte di essi infatti non vi mantiene un rapporto continuativo durante l’anno ma lo esaurisce in un unico momento poco prima del manifestarsi dell’evento fieristico. L'attenzione dei clienti verso le comunicazioni di BF Servizi è elevata solo in questo periodo e la pianificazione delle campagne ha dovuto tener conto di questo aspetto. Sono state realizzate le campagne solo per gli espositori che partecipavano agli eventi fieristici di Marca 2011, Artefiera 2011 e Fishing Show 2011, cioè le manifestazioni che si sono svolte durante il mio periodo di lavoro in azienda. Le performance delle campagne sono state buone e i dati raccolti hanno permesso di identificare quali siano gli aspetti da migliorare per poter renderle ancora migliori.
Resumo:
L'informazione è alla base della conoscenza umana. Senza, non si potrebbe sapere nulla di ciò che esiste, di ciò che è stato o di quello che potrebbe accadere. Ogni giorno si assimilano moltissime informazioni, che vengono registrate nella propria memoria per essere riutilizzate all'occorrenza. Ne esistono di vari generi, ma il loro insieme va a formare quella che è la cultura, educazione, tradizione e storia dell'individuo. Per questo motivo è importante la loro diffusione e salvaguardia, impedendone la perdita che costerebbe la dipartita di una parte di sé, del proprio passato o del proprio futuro. Al giorno d'oggi le informazioni possono essere acquisite tramite persone, libri, riviste, giornali, la televisione, il Web. I canali di trasmissione sono molti, alcuni più efficaci di altri. Tra questi, internet è diventato un potente strumento di comunicazione, il quale consente l'interazione tra chi naviga nel Web (ossia gli utenti) e una partecipazione attiva alla diffusione di informazioni. Nello specifico, esistono siti (chiamati di microblogging) in cui sono gli stessi utenti a decidere se un'informazione possa essere o meno inserita nella propria pagina personale. In questo caso, si è di fronte a una nuova "gestione dell'informazione", che può variare da utente a utente e può defluire in catene di propagazione (percorsi che compiono i dati e le notizie tra i navigatori del Web) dai risvolti spesso incerti. Ma esiste un modello che possa spiegare l'avanzata delle informazioni tra gli utenti? Se fosse possibile capirne la dinamica, si potrebbe venire a conoscenza di quali sono le informazioni più soggette a propagazione, gli utenti che più ne influenzano i percorsi, quante persone ne vengono a conoscenza o il tempo per cui resta attiva un'informazione, descrivendone una sorta di ciclo di vita. E' possibile nel mondo reale trovare delle caratteristiche ricorrenti in queste propagazioni, in modo da poter sviluppare un metodo universale per acquisirne e analizzarne le dinamiche? I siti di microblogging non seguono regole precise, perciò si va incontro a un insieme apparentemente casuale di informazioni che necessitano una chiave di lettura. Quest'ultima è proprio quella che si è cercata, con la speranza di poter sfruttare i risultati ottenuti nell'ipotesi di una futura gestione dell'informazione più consapevole. L'obiettivo della tesi è quello di identificare un modello che mostri con chiarezza quali sono i passaggi da affrontare nella ricerca di una logica di fondo nella gestione delle informazioni in rete.
Resumo:
In the last decades, the increase of industrial activities and of the request for the world food requirement, the intensification of natural resources exploitation, directly connected to pollution, have aroused an increasing interest of the public opinion towards initiatives linked to the regulation of food production, as well to the institution of a modern legislation for the consumer guardianship. This work was planned taking into account some important thematics related to marine environment, collecting and showing the data obtained from the studies made on different marine species of commercial interest (Chamelea gallina, Mytilus edulis, Ostrea edulis, Crassostrea gigas, Salmo salar, Gadus morhua). These studies have evaluated the effects of important physic and chemical parameters variations (temperature, xenobiotics like drugs, hydrocarbons and pesticides) on cells involved in the immune defence (haemocytes) and on some important enzymatic systems involved in xenobiotic biotransformation processes (cytochrome P450 complex) and in the related antioxidant defence processes (Superoxide dismutase, Catalase, Heat Shock Protein), from a biochemical and bimolecular point of view. Oxygen is essential in the biological answer of a living organism. Its consume in the normal cellular breathing physiological processes and foreign substances biotransformation, leads to reactive oxygen species (ROS) formation, potentially toxic and responsible of biological macromolecules damages with consequent pathologies worsening. Such processes can bring to a qualitative alteration of the derived products, but also to a general state of suffering that in the most serious cases can provoke the death of the organism, with important repercussions in economic field, in the output of the breedings, of fishing and of aquaculture. In this study it seemed interesting to apply also alternative methodologies currently in use in the medical field (cytofluorimetry) and in proteomic studies (bidimensional electrophoresis, mass spectrometry) with the aim of identify new biomarkers to place beside the traditional methods for the control of the animal origin food quality. From the results it’s possible to point out some relevant aspects from each experiment: 1. The cytofluorimetric techniques applied to O. edulis and C. gigas could bring to important developments in the search of alternative methods that quickly allows to identify with precision the origin of a specific sample, contributing to oppose possible alimentary frauds, in this case for example related to presence of a different species, also under a qualitative profile, but morpholgically similar. A concrete perspective for the application in the inspective field of this method has to be confirmed by further laboratory tests that take also in account in vivo experiments to evaluate the effect in the whole organism of the factors evaluated only on haemocytes in vitro. These elements suggest therefore the possibility to suit the cytofluorimetric methods for the study of animal organisms of food interest, still before these enter the phase of industrial working processes, giving useful information about the possible presence of contaminants sources that can induce an increase of the immune defence and an alteration of normal cellular parameter values. 2. C. gallina immune system has shown an interesting answer to benzo[a]pyrene (B[a]P) exposure, dose and time dependent, with a significant decrease of the expression and of the activity of one of the most important enzymes involved in the antioxidant defence in haemocytes and haemolymph. The data obtained are confirmed by several measurements of physiological parameters, that together with the decrease of the activity of 7-etossi-resourifine-O-deetilase (EROD linked to xenobiotic biotransformation processes) during exposure, underline the major effects of B[a]P action. The identification of basal levels of EROD supports the possible presence of CYP1A subfamily in the invertebrates, still today controversial, never identified previously in C. gallina and never isolated in the immune cells, as confirmed instead in this study with the identification of CYP1A-immunopositive protein (CYP1A-IPP). This protein could reveal a good biomarker at the base of a simple and quick method that could give clear information about specific pollutants presence, even at low concentrations in the environment where usually these organisms are fished before being commercialized. 3. In this experiment it has been evaluated the effect of the antibiotic chloramphenicol (CA) in an important species of commercial interest, Chamelea gallina. Chloramphenicol is a drug still used in some developing countries, also in veterinary field. Controls to evaluate its presence in the alimentary products of animal origin, can reveal ineffective whereas the concentration results to be below the limit of sensitivity of the instruments usually used in this type of analysis. Negative effects of CA towards the CYP1A- IPP proteins, underlined in this work, seem to be due to the attack of free radicals resultant from the action of the antibiotic. This brings to a meaningful alteration of the biotransformation mechanisms through the free radicals. It seems particularly interesting to pay attention to the narrow relationships in C. gallina, between SOD/CAT and CYP450 system, actively involved in detoxification mechanism, especially if compared with the few similar works today present about mollusc, a group that is composed by numerous species that enter in the food field and on which constant controls are necessary to evaluate in a rapid and effective way the presence of possible contaminations. 4. The investigations on fishes (Gadus morhua, and Salmo salar) and on a bivalve mollusc (Mytilus edulis) have allowed to evaluate different aspects related to the possibility to identify a biomarker for the evaluation of the health of organisms of food interest and consequently for the quality of the final product through 2DE methodologies. In the seafood field these techniques are currently used with a discreet success only for vertebrates (fishes), while in the study of the invertebrates (molluscs) there are a lot of difficulties. The results obtained in this work have underline several problems in the correct identification of the isolated proteins in animal organisms of which doesn’t currently exist a complete genomic sequence. This brings to attribute some identities on the base of the comparison with similar proteins in other animal groups, incurring in the possibility to obtain inaccurate data and above all discordant with those obtained on the same animals by other authors. Nevertheless the data obtained in this work after MALDI-ToF analysis, result however objective and the spectra collected could be again analyzed in the future after the update of genomic database related to the species studied. 4-A. The investigation about the presence of HSP70 isoforms directly induced by different phenomena of stress like B[a]P presence, has used bidimensional electrophoresis methods in C. gallina, that have allowed to isolate numerous protein on 2DE gels, allowing the collection of several spots currently in phase of analysis with MALDI-ToF-MS. The present preliminary work has allowed therefore to acquire and to improve important methodologies in the study of cellular parameters and in the proteomic field, that is not only revealed of great potentiality in the application in medical and veterinary field, but also in the field of the inspection of the foods with connections to the toxicology and the environmental pollution. Such study contributes therefore to the search of rapid and new methodologies, that can increase the inspective strategies, integrating themselves with those existing, but improving at the same time the general background of information related to the state of health of the considered animal organism, with the possibility, still hypothetical, to replace in particular cases the employment of the traditional techniques in the alimentary field.
Resumo:
Introduction. Ectodermal Dysplasias are a heterogeneous group of inherited disorders characterized by dysplasia of tissues of ectodermal origin (hair, nails, teeth, skins and glands). Clinically, it may be divided into two broad categories: the X-linked hypoidrotic form and the hidrotic form. Hypohidrotic Ectodermal Dysplasia (H.E.D) is characterized by the triad oligo-anodontia, hypotricosis, hypo-anhydrosis (Christ-Siemens-Tourane syndrome). The incidence of HED is about 1/100,000. Mutation in the actodysplasin-A (EDA) and ectodysplasin-A receptor (EDAR) genes are responsible for X-linked and autosomal HED. The clinical features include sparse, fine hair, missing or conical-shaped teeth, decreased sweat and mucous glands, hypoplastic skin, and heat intolerance with exercise or increased ambient temperature. Complete or partial anodontia and malformation of teeth are the most frequent dental findings. Incisors and canines are often conical-shaped while primarily second molars, if present, are mostly affected by taurodontism. Treatment is supportive and includes protection from heat exposure, early prosthetic rehabilitation, skin, hair ear, nose and nail care, and genetic counseling for family planning. The diagnosis of HED in the neonatal and early infancy period may be difficult since sparse hair and absent teeth are normal finding at this age. In childhood the diagnosis is more easily made on the basis of history and clinical examination. Dental abnormalities are the most common complaint. Prosthetic rehabilitation has been recommended as an essential part of the management of HED because is important from functional, esthetic, and psychological standpoint. A team approach that includes input from a pediatric dentist, an orthodontist, a prosthodontist, and an oral and maxillofacial surgeon is necessary for a successful outcome. Conventional prosthodontic rehabilitation in young patient is often difficult because of the anatomical abnormalities of existing teeth and alveolar ridges. The conical shaped teeth and “knife-edge” alveolar ridges result in poor retention and instability of dentures. Moreover, denture must permit jaws expansion and a correct pattern of growth. Materials and Methods. Complete removable dentures were provided to allow for normal physiological development and a corrected masticatory function. Initial maxillary and mandibular impressions were made with smallest stock trays and irreversible hydrocolloid and then final impressions ware made with light-bodied polysulfide rubber base impression material. A base of autopolymerizing resin was constructed and a wax rim was added to the base. The patient’s vertical dimension of occlusion was established by assessing phonetic and esthetic criteria. Preliminary occlusal relations were recorded, and the mandibular cast was mounted on the articulator. Acrylic resin teeth specific for children dentures were selected and mounted. The dentures were tried in and, after proper adjustments, were inserted. The patients were monitored clinically every month to fit prostheses. Cephalometric radiographs were taken every 6 month with the prostheses in place in order to evaluate correct pattern of growth. Cephalometric measurements were realized and used to evaluate the effect of rehabilitation on craniofacial growth. Cephalometric measurements of sound patients were compared with ED patients. After two month expander screws (three-way screw in the upper denture and two-way the lower one)were inserted in each denture in order to permit the expansion of the denture and the jaws growth. Where conical teeth were present, composite crown were realized and luted to improve the esthetic and phonesis. In order to improve retention the placement of endosseous implants was carried out. TC 3D Accuitomo was performed and a resin model of mandibular bone of the patient was realized. At the age of 11 years two implants were inserted into anterior mandible in a child with anodontia. Despite a remarkable multi-dimensional atrophy of the mandibular alveolar process, the insertion of two tapered screw implants (SAMO Smiler, diameter 3.8, length 10 mm). After a submerged healing period of two-three month, the implants were exposed. Implants were connected with an expansion guide that permits mandibular growth and prosthetic retention. The amount of mandibular growth was also evaluate dusing the expansion guide. Results. Early oral rehabilitation improve oral function, phonesis and esthetic, reducing social impairment. Treated patients showed normal cephalometric measurement. Early rehabilitation is able to prevent the prognatissm of the mandibula . The number of teeth was significantly related to several changes in craniofacial morphology. Discussion. In the present study the 5,3% of ED patients showed hypodontia, the l’89,4% di oligodontia, and the 5,3% di anodontia. The cephalometric analysis supports that ED patients showed midface hypoplasia. ED groups showed an increased pogonion to nasion measurement than sound patients, indicative of class III tendency. The present study demonstrated that number of teeth was significantly correlated with deviation of cephalometric measurements from normality. Oligoanodontia is responsible for changing of cephalometric measuraments also on sagittal plane with a class III tendency. Maxillary jaw showed a retrused position related to the presence of hypodontia.
Resumo:
Le prove non distruttive che sono state studiate in questa tesi sono il monitoraggio termografico, le prove soniche, la tecnica tomografica sonica e l’indagine tramite georadar. Ogni capitolo di applicazione in sito o in laboratorio è sempre preceduto da un capitolo nel quale sono spiegati i principi fondamentali della tecnica applicata. I primi cinque capitoli riguardano un problema molto diffuso nelle murature, cioè la risalita capillare di umidità o di soluzione salina all’interno delle stesse. Spiegati i principi alla base della risalita capillare in un mezzo poroso e della tecnica termografica, sono state illustrate le tre prove svolte in laboratorio: una prova di risalita (di umidità e di salamoia) su laterizi, una prova di risalita di salamoia su tripletta muraria monitorata da sensori e una prova di risalita di umidità su muretto fessurato monitorata tramite termografia ad infrarossi. Nei capitoli 6 e 7 sono stati illustrati i principi fondamentali delle prove soniche ed è stata presentata un’analisi approfondita di diverse aree del Duomo di Modena in particolare due pareti esterne, un pilastro di muratura e una colonna di pietra. Nelle stesse posizioni sono state effettuate anche prove tramite georadar (Capitoli 11 e 12) per trovare analogie con le prove soniche o aggiungere informazioni che non erano state colte dalle prove soniche. Nei capitoli 9 e 10 sono stati spiegati i principi della tomografia sonica (tecnica di inversione dei tempi di volo e tecnica di inversione delle ampiezze dei segnali), sono stati illustrati i procedimenti di elaborazione delle mappe di velocità e sono state riportate e commentate le mappe ottenute relativamente ad un pilastro di muratura del Duomo di Modena (sezioni a due quote diverse) e ad un pilastro interno di muratura della torre Ghirlandina di Modena.
Resumo:
La progettazione sismica negli ultimi anni ha subito una forte trasformazione, infatti con l’introduzione delle nuove normative tecniche si è passati dallo svolgere una verifica delle capacità locali dei singoli elementi ad una progettazione con un approccio di tipo probabilistico, il quale richiede il soddisfacimento di una serie di stati limite ai quali viene attribuita una certa probabilità di superamento. La valutazione dell’affidabilità sismica di una struttura viene condotta di solito attraverso metodologie che prendono il nome di Probabilistic Seismic Design Analysis (PSDA) in accordo con la procedura del Performance Based Earthquake Engineering (PBEE). In questa procedura di tipo probabilistico risulta di notevole importanza la definizione della misura d’intensità sismica, la quale può essere utilizzata sia come predittore della risposta strutturale a fronte di un evento sismico, sia come parametro per definire la pericolosità di un sito. Queste misure d’intensità possono essere definite direttamente dalla registrazione dell’evento sismico, come ad esempio l’accelerazione di picco del terreno, oppure sulla base della risposta, sia lineare che non, della struttura soggetta a tale evento, ovvero quelle che vengono chiamate misure d’intensità spettrali. Come vedremo è preferibile l’utilizzo di misure d’intensità che soddisfino certe proprietà, in modo da far risultare più efficace possibile le risoluzione del problema con l’approccio probabilistico PBEE. Obbiettivo principale di questa dissertazione è quello di valutare alcune di queste proprietà per un gran numero di misure d’intensità sismiche a partire dai risultati di risposta strutturale ottenuti mediante analisi dinamiche non lineari nel tempo, condotte per diverse tipologie di strutture con differenti proprietà meccaniche.