985 resultados para Automotive, Design, Automobile, Linee di carattere
Resumo:
Il presente elaborato è stato finalizzato allo sviluppo di un processo di digestione anaerobica della frazione organica dei rifiuti solidi urbani (FORSU oppure, in lingua inglese OFMSW, Organic Fraction of Municipal Solid Waste) provenienti da raccolta indifferenziata e conseguente produzione di biogas da impiegarsi per il recupero energetico. Questo lavoro rientra nell’ambito di un progetto, cofinanziato dalla Regione Emilia Romagna attraverso il Programma Regionale per la Ricerca Industriale, l’Innovazione e il Trasferimento Tecnologico (PRRIITT), sviluppato dal Dipartimento di Chimica Applicata e Scienza dei Materiali (DICASM) dell’Università di Bologna in collaborazione con la Facoltà di Ingegneria dell’Università di Ferrara e con la società Recupera s.r.l. che applicherà il processo nell’impianto pilota realizzato presso il proprio sito di biostabilizzazione e compostaggio ad Ostellato (FE). L’obiettivo è stato la verifica della possibilità di impiegare la frazione organica dei rifiuti indifferenziati per la produzione di biogas, e in particolare di metano, attraverso un processo di digestione anaerobica previo trattamento chimico oppure in codigestione con altri substrati organici facilmente fermentabili. E’ stata inoltre studiata la possibilità di impiego di reattori con biomassa adesa per migliorare la produzione specifica di metano e diminuire la lag phase. Dalla sperimentazione si può concludere che è possibile giungere allo sviluppo di metano dalla purea codigerendola assieme a refluo zootecnico. Per ottenere però produzioni significative la quantità di solidi volatili apportati dal rifiuto non deve superare il 50% dei solidi volatili complessivi. Viceversa, l’addizione di solfuri alla sola purea si è dimostrata ininfluente nel tentativo di sottrarre gli agenti inibitori della metanogenesi. Inoltre, l’impiego di supporti di riempimento lavorando attraverso processi batch sequenziali permette di eliminare, nei cicli successivi al primo, la lag phase dei batteri metanogeni ed incrementare la produzione specifica di metano.
Resumo:
L’utilizzo di materiali compositi come i calcestruzzi fibrorinforzati sta diventando sempre più frequente e diffuso. Tuttavia la scelta di nuovi materiali richiede una approfondita analisi delle loro caratteristiche e dei loro comportamenti. I vantaggi forniti dall’aggiunta di fibre d’acciaio ad un materiale fragile, quale il calcestruzzo, sono legati al miglioramento della duttilità e all'aumento di assorbimento di energia. L’aggiunta di fibre permette quindi di migliorare il comportamento strutturale del composito, dando vita ad un nuovo materiale capace di lavorare non solo a compressione ma anche in piccola parte a trazione, ma soprattutto caratterizzato da una discreta duttilità ed una buona capacità plastica. Questa tesi ha avuto come fine l’analisi delle caratteristiche di questi compositi cementizi fibrorinforzati. Partendo da prove sperimentali classiche quali prove di trazione e compressione, si è arrivati alla caratterizzazione di questi materiali avvalendosi di una campagna sperimentale basata sull’applicazione della norma UNI 11039/2003. L’obiettivo principale di questo lavoro consiste nell’analizzare e nel confrontare calcestruzzi rinforzati con fibre di due diverse lunghezze e in diversi dosaggi. Studiando questi calcestruzzi si è cercato di comprendere meglio questi materiali e trovare un riscontro pratico ai comportamenti descritti in teorie ormai diffuse e consolidate. La comparazione dei risultati dei test condotti ha permesso di mettere in luce differenze tra i materiali rinforzati con l’aggiunta di fibre corte rispetto a quelli con fibre lunghe, ma ha anche permesso di mostrare e sottolineare le analogie che caratterizzano questi materiali fibrorinforzati. Sono stati affrontati inoltre gli aspetti legati alle fasi della costituzione di questi materiali sia da un punto di vista teorico sia da un punto di vista pratico. Infine è stato sviluppato un modello analitico basato sulla definizione di specifici diagrammi tensione-deformazione; i risultati di questo modello sono quindi stati confrontati con i dati sperimentali ottenuti in laboratorio.
Resumo:
Nella tesi si analizzano le principali fonti del rumore aeronautico, lo stato dell'arte dal punto di vista normativo, tecnologico e procedurale. Si analizza lo stato dell'arte anche riguardo alla classificazione degli aeromobili, proponendo un nuovo indice prestazionale in alternativa a quello indicato dalla metodologia di certificazione (AC36-ICAO) Allo scopo di diminuire l'impatto acustico degli aeromobili in fase di atterraggio, si analizzano col programma INM i benefici di procedure CDA a 3° rispetto alle procedure tradizionali e, di seguito di procedure CDA ad angoli maggiori in termini di riduzione di lunghezza e di area delle isofoniche SEL85, SEL80 e SEL75.
Resumo:
La presente tesi riguarda lo studio di procedimenti di ottimizzazione di sistemi smorzati. In particolare, i sistemi studiati sono strutture shear-type soggette ad azioni di tipo sismico impresse alla base. Per effettuare l’ottimizzazione dei sistemi in oggetto si agisce sulle rigidezze di piano e sui coefficienti di smorzamento effettuando una ridistribuzione delle quantità suddette nei piani della struttura. È interessante effettuare l’ottimizzazione di sistemi smorzati nell’ottica della progettazione antisismica, in modo da ridurre la deformata della struttura e, conseguentemente, anche le sollecitazioni che agiscono su di essa. Il lavoro consta di sei capitoli nei quali vengono affrontate tre procedure numerico-analitiche per effettuare l’ottimizzazione di sistemi shear-type. Nel primo capitolo si studia l’ottimizzazione di sistemi shear-type agendo su funzioni di trasferimento opportunamente vincolate. In particolare, le variabili di progetto sono le rigidezze di piano, mentre i coefficienti di smorzamento e le masse di piano risultano quantità note e costanti durante tutto il procedimento di calcolo iterativo; per effettuare il controllo dinamico della struttura si cerca di ottenere una deformata pressoché rettilinea. Tale condizione viene raggiunta ponendo le ampiezze delle funzioni di trasferimento degli spostamenti di interpiano pari all’ampiezza della funzione di trasferimento del primo piano. Al termine della procedura si ottiene una ridistribuzione della rigidezza complessiva nei vari piani della struttura. In particolare, si evince un aumento della rigidezza nei piani più bassi che risultano essere quelli più sollecitati da una azione impressa alla base e, conseguentemente, si assiste ad una progressiva riduzione della variabile di progetto nei piani più alti. L’applicazione numerica di tale procedura viene effettuata nel secondo capitolo mediante l’ausilio di un programma di calcolo in linguaggio Matlab. In particolare, si effettua lo studio di sistemi a tre e a cinque gradi di libertà. La seconda procedura numerico-analitica viene presentata nel terzo capitolo. Essa riguarda l’ottimizzazione di sistemi smorzati agendo simultaneamente sulla rigidezza e sullo smorzamento e consta di due fasi. La prima fase ricerca il progetto ottimale della struttura per uno specifico valore della rigidezza complessiva e dello smorzamento totale, mentre la seconda fase esamina una serie di progetti ottimali in funzione di diversi valori della rigidezza e dello smorzamento totale. Nella prima fase, per ottenere il controllo dinamico della struttura, viene minimizzata la somma degli scarti quadratici medi degli spostamenti di interpiano. Le variabili di progetto, aggiornate dopo ogni iterazione, sono le rigidezze di piano ed i coefficienti di smorzamento. Si pone, inoltre, un vincolo sulla quantità totale di rigidezza e di smorzamento, e i valori delle rigidezze e dei coefficienti di smorzamento di ogni piano non devono superare un limite superiore posto all’inizio della procedura. Anche in questo caso viene effettuata una ridistribuzione delle rigidezze e dei coefficienti di smorzamento nei vari piani della struttura fino ad ottenere la minimizzazione della funzione obiettivo. La prima fase riduce la deformata della struttura minimizzando la somma degli scarti quadrarici medi degli spostamenti di interpiano, ma comporta un aumento dello scarto quadratico medio dell’accelerazione assoluta dell’ultimo piano. Per mantenere quest’ultima quantità entro limiti accettabili, si passa alla seconda fase in cui si effettua una riduzione dell’accelerazione attraverso l’aumento della quantità totale di smorzamento. La procedura di ottimizzazione di sistemi smorzati agendo simultaneamente sulla rigidezza e sullo smorzamento viene applicata numericamente, mediante l’utilizzo di un programma di calcolo in linguaggio Matlab, nel capitolo quattro. La procedura viene applicata a sistemi a due e a cinque gradi di libertà. L’ultima parte della tesi ha come oggetto la generalizzazione della procedura che viene applicata per un sistema dotato di isolatori alla base. Tale parte della tesi è riportata nel quinto capitolo. Per isolamento sismico di un edificio (sistema di controllo passivo) si intende l’inserimento tra la struttura e le sue fondazioni di opportuni dispositivi molto flessibili orizzontalmente, anche se rigidi in direzione verticale. Tali dispositivi consentono di ridurre la trasmissione del moto del suolo alla struttura in elevazione disaccoppiando il moto della sovrastruttura da quello del terreno. L’inserimento degli isolatori consente di ottenere un aumento del periodo proprio di vibrare della struttura per allontanarlo dalla zona dello spettro di risposta con maggiori accelerazioni. La principale peculiarità dell’isolamento alla base è la possibilità di eliminare completamente, o quantomeno ridurre sensibilmente, i danni a tutte le parti strutturali e non strutturali degli edifici. Quest’ultimo aspetto è importantissimo per gli edifici che devono rimanere operativi dopo un violento terremoto, quali ospedali e i centri operativi per la gestione delle emergenze. Nelle strutture isolate si osserva una sostanziale riduzione degli spostamenti di interpiano e delle accelerazioni relative. La procedura di ottimizzazione viene modificata considerando l’introduzione di isolatori alla base di tipo LRB. Essi sono costituiti da strati in elastomero (aventi la funzione di dissipare, disaccoppiare il moto e mantenere spostamenti accettabili) alternati a lamine in acciaio (aventi la funzione di mantenere una buona resistenza allo schiacciamento) che ne rendono trascurabile la deformabilità in direzione verticale. Gli strati in elastomero manifestano una bassa rigidezza nei confronti degli spostamenti orizzontali. La procedura di ottimizzazione viene applicata ad un telaio shear-type ad N gradi di libertà con smorzatori viscosi aggiunti. Con l’introduzione dell’isolatore alla base si passa da un sistema ad N gradi di libertà ad un sistema a N+1 gradi di libertà, in quanto l’isolatore viene modellato alla stregua di un piano della struttura considerando una rigidezza e uno smorzamento equivalente dell’isolatore. Nel caso di sistema sheat-type isolato alla base, poiché l’isolatore agisce sia sugli spostamenti di interpiano, sia sulle accelerazioni trasmesse alla struttura, si considera una nuova funzione obiettivo che minimizza la somma incrementata degli scarti quadratici medi degli spostamenti di interpiano e delle accelerazioni. Le quantità di progetto sono i coefficienti di smorzamento e le rigidezze di piano della sovrastruttura. Al termine della procedura si otterrà una nuova ridistribuzione delle variabili di progetto nei piani della struttura. In tal caso, però, la sovrastruttura risulterà molto meno sollecitata in quanto tutte le deformazioni vengono assorbite dal sistema di isolamento. Infine, viene effettuato un controllo sull’entità dello spostamento alla base dell’isolatore perché potrebbe raggiungere valori troppo elevati. Infatti, la normativa indica come valore limite dello spostamento alla base 25cm; valori più elevati dello spostamento creano dei problemi soprattutto per la realizzazione di adeguati giunti sismici. La procedura di ottimizzazione di sistemi isolati alla base viene applicata numericamente mediante l’utilizzo di un programma di calcolo in linguaggio Matlab nel sesto capitolo. La procedura viene applicata a sistemi a tre e a cinque gradi di libertà. Inoltre si effettua il controllo degli spostamenti alla base sollecitando la struttura con il sisma di El Centro e il sisma di Northridge. I risultati hanno mostrato che la procedura di calcolo è efficace e inoltre gli spostamenti alla base sono contenuti entro il limite posto dalla normativa. Giova rilevare che il sistema di isolamento riduce sensibilmente le grandezze che interessano la sovrastruttura, la quale si comporta come un corpo rigido al di sopra dell’isolatore. In futuro si potrà studiare il comportamento di strutture isolate considerando diverse tipologie di isolatori alla base e non solo dispositivi elastomerici. Si potrà, inoltre, modellare l’isolatore alla base con un modello isteretico bilineare ed effettuare un confronto con i risultati già ottenuti per il modello lineare.
Resumo:
In questi ultimi anni il tema della sicurezza sismica degli edifici storici in muratura ha assunto particolare rilievo in quanto a partire soprattutto dall’ordinanza 3274 del 2003, emanata in seguito al sisma che colpì il Molise nel 2002, la normativa ha imposto un monitoraggio ed una classificazione degli edifici storici sotto tutela per quanto riguarda la vulnerabilità sismica (nel 2008, quest’anno, scade il termine per attuare quest’opera di classificazione). Si è posto per questo in modo più urgente il problema dello studio del comportamento degli edifici storici (non solo quelli che costituiscono monumento, ma anche e soprattutto quelli minori) e della loro sicurezza. Le Linee Guida di applicazione dell’Ordinanza 3274 nascono con l’intento di fornire strumenti e metodologie semplici ed efficaci per affrontare questo studio nei tempi previsti. Il problema si pone in modo particolare per le chiese, presenti in grande quantità sul territorio italiano e di cui costituiscono gran parte del patrimonio culturale; questi edifici, composti di solito da grandi elementi murari, non presentano comportamento scatolare, mancando orizzontamenti, elementi di collegamento efficace e muri di spina interni e sono particolarmente vulnerabili ad azioni sismiche; presentano inoltre un comportamento strutturale a sollecitazioni orizzontali che non può essere colto con un approccio globale basato, ad esempio, su un’analisi modale lineare: non ci sono modi di vibrare che coinvolgano una sufficiente parte di massa della struttura; si hanno valori dei coefficienti di partecipazione dei varii modi di vibrare minori del 10% (in generale molto più bassi). Per questo motivo l’esperienza e l’osservazione di casi reali suggeriscono un approccio di studio degli edifici storici sacri in muratura attraverso l’analisi della sicurezza sismica dei cosiddetti “macroelementi” in cui si può suddividere un edificio murario, i quali sono elementi che presentano un comportamento strutturale autonomo. Questo lavoro si inserisce in uno studio più ampio iniziato con una tesi di laurea dal titolo “Analisi Limite di Strutture in Muratura. Teoria e Applicazione all'Arco Trionfale” (M. Temprati), che ha studiato il comportamento dell’arco trionfale della chiesa collegiata di Santa Maria del Borgo a San Nicandro Garganico (FG). Suddividere un edificio in muratura in più elementi è il metodo proposto nelle Linee Guida, di cui si parla nel primo capitolo del presente lavoro: la vulnerabilità delle strutture può essere studiata tramite il moltiplicatore di collasso quale parametro in grado di esprimere il livello di sicurezza sismica. Nel secondo capitolo si illustra il calcolo degli indici di vulnerabilità e delle accelerazioni di danno per la chiesa di Santa Maria del Borgo, attraverso la compilazione delle schede dette “di II livello”, secondo quanto indicato nelle Linee Guida. Nel terzo capitolo viene riportato il calcolo del moltiplicatore di collasso a ribaltamento della facciata della chiesa. Su questo elemento si è incentrata l’attenzione nel presente lavoro. A causa della complessità dello schema strutturale della facciata connessa ad altri elementi dell’edificio, si è fatto uso del codice di calcolo agli elementi finiti ABAQUS. Della modellazione del materiale e del settaggio dei parametri del software si è discusso nel quarto capitolo. Nel quinto capitolo si illustra l’analisi condotta tramite ABAQUS sullo stesso schema della facciata utilizzato per il calcolo manuale nel capitolo tre: l’utilizzo combinato dell’analisi cinematica e del metodo agli elementi finiti permette per esempi semplici di convalidare i risultati ottenibili con un’analisi non-lineare agli elementi finiti e di estenderne la validità a schemi più completi e più complessi. Nel sesto capitolo infatti si riportano i risultati delle analisi condotte con ABAQUS su schemi strutturali in cui si considerano anche gli elementi connessi alla facciata. Si riesce in questo modo ad individuare con chiarezza il meccanismo di collasso di più facile attivazione per la facciata e a trarre importanti informazioni sul comportamento strutturale delle varie parti, anche in vista di un intervento di ristrutturazione e miglioramento sismico.
Resumo:
Il lavoro svolto consiste inizialmente in una presentazione generale della situazione attuale della viabilità sul territorio casalecchiese. Su di esso si affronteranno un buon numero di problematiche che rendono le strade, presenti sul territorio, a rischio di incidentalità. Inerente a questo si è analizzato i dati degli incidenti dell’ultimo anno avvenuti sul territorio attraverso il lavoro di raccolta dati effettuato dall’Osservatorio dell’incidentalità stradale della Provincia di Bologna. Dai dati ottenuti e dai rilevamenti effettuati nell’arco di questi quattro mesi passati nell’Ufficio Traffico del comune di Casalecchio di Reno, sulle strade comunali si è riscontrato una serie di situazione a rischio che ho presentato in un capitolo apposito e si è discusso anche le relative soluzioni di intervento. Tali situazioni comprendono sia strade leggermente attempate che necessitano di interventi di sistemazione, sia intersezioni a raso di vario tipo che presentano un ampio ventaglio di problematiche per la sicurezza stradale, sia attraversamenti pedonali non a norma, con situazioni al limite della sicurezza che necessitano di immediati interventi di sistemazione e messa in sicurezza. In particolare si è approfondito lo studio degli attraversamenti pedonali, presentando tutti i possibili scenari che questa particolare situazione può avere, elencando tutti i possibili interventi che si possono adottare al fine di ottimizzare la sicurezza e ridurre al minimo i rischi, ovvero ridurre il più possibile la probabilità che un incidente accada e il danno subito dal pedone. Infine si è studiato nello specifico una situazione di pericolo, fra quelle presentate, che probabilmente rappresenta una delle situazioni più a rischio presenti sul territorio casalecchiese: un attraversamento pedonale sulla via Porrettana, nei pressi del parco Rodari, situato all’incirca a mezzavia fra l’incrocio tra via Porrettana e via Calzavecchio, e la rotonda Biagi. Tale attraversamento pedonale, in alcuni orari della giornata assai utilizzato dai residenti del limitrofo quartiere Calzavecchio che raggiungono il parco Rodari e nel giorno di mercoledì mattina il mercato rionale situato accanto al parco, presenta flussi pedonali abbastanza corposi ed è situato su una strada caratterizzata da un elevato flusso veicolare. Dopo aver presentato in maniera approfondita la situazione attuale di tale attraversamento pedonale, si sono infine proposte due diverse soluzione di intervento: una da poter essere attuata nell’immediato, l’altra subito dopo che si ottenga la declassazione di via Porrettana, cioè all’incirca fra cinque o sei anni. Si è allegato, infine, come appendice, la Normativa che si è utilizzata al fine di progettare tali soluzioni.
Resumo:
Le intersezioni stradali, sono le aree individuate da tre o più tronchi stradali (archi) che convergono in uno stesso punto, nonchè dai dispositivi e dagli apprestamenti atti a consentire ed agevolare le manovre per il passaggio da un tronco all'altro. Rappresentano punti critici della rete viaria per effetto delle mutue interferenze tra le diverse correnti di traffico durante il loro attraversamento. Si acuiscono pertanto, nella loro "area di influenza", i problemi legati alla sicurezza e quelli relativi alla regolarità ed efficienza della circolazione. Dalla numerosità dei fattori da cui dipende la configurazione di un incrocio (numero e tipo di strade, entità dei flussi, situazioni locali, ecc.) deriva una ancor più vasta gamma di tipologie e di schemi. La rotatoria, come particolare configurazione di intersezione a raso, è lo schema che viene considerato nel presente lavoro di tesi, sia nei suoi caratteri essenziali e generali, sia nel particolare di una intersezione che, nel Comune di Bologna, è stata realizzata in luogo dell'intersezione semaforizzata precedente.
Resumo:
Background. The surgical treatment of dysfunctional hips is a severe condition for the patient and a costly therapy for the public health. Hip resurfacing techniques seem to hold the promise of various advantages over traditional THR, with particular attention to young and active patients. Although the lesson provided in the past by many branches of engineering is that success in designing competitive products can be achieved only by predicting the possible scenario of failure, to date the understanding of the implant quality is poorly pre-clinically addressed. Thus revision is the only delayed and reliable end point for assessment. The aim of the present work was to model the musculoskeletal system so as to develop a protocol for predicting failure of hip resurfacing prosthesis. Methods. Preliminary studies validated the technique for the generation of subject specific finite element (FE) models of long bones from Computed Thomography data. The proposed protocol consisted in the numerical analysis of the prosthesis biomechanics by deterministic and statistic studies so as to assess the risk of biomechanical failure on the different operative conditions the implant might face in a population of interest during various activities of daily living. Physiological conditions were defined including the variability of the anatomy, bone densitometry, surgery uncertainties and published boundary conditions at the hip. The protocol was tested by analysing a successful design on the market and a new prototype of a resurfacing prosthesis. Results. The intrinsic accuracy of models on bone stress predictions (RMSE < 10%) was aligned to the current state of the art in this field. The accuracy of prediction on the bone-prosthesis contact mechanics was also excellent (< 0.001 mm). The sensitivity of models prediction to uncertainties on modelling parameter was found below 8.4%. The analysis of the successful design resulted in a very good agreement with published retrospective studies. The geometry optimisation of the new prototype lead to a final design with a low risk of failure. The statistical analysis confirmed the minimal risk of the optimised design over the entire population of interest. The performances of the optimised design showed a significant improvement with respect to the first prototype (+35%). Limitations. On the authors opinion the major limitation of this study is on boundary conditions. The muscular forces and the hip joint reaction were derived from the few data available in the literature, which can be considered significant but hardly representative of the entire variability of boundary conditions the implant might face over the patients population. This moved the focus of the research on modelling the musculoskeletal system; the ongoing activity is to develop subject-specific musculoskeletal models of the lower limb from medical images. Conclusions. The developed protocol was able to accurately predict known clinical outcomes when applied to a well-established device and, to support the design optimisation phase providing important information on critical characteristics of the patients when applied to a new prosthesis. The presented approach does have a relevant generality that would allow the extension of the protocol to a large set of orthopaedic scenarios with minor changes. Hence, a failure mode analysis criterion can be considered a suitable tool in developing new orthopaedic devices.
Resumo:
Herpes simplex virus 1 (HSV-1) infects oral epitelial cells, then spreads to the nerve endings and estabilishes latency in sensory ganglia, from where it may, or may not reactivate. Diseases caused by virus reactivation include mild diseases such as muco-cutaneous lesions, and more severe, and even life-threatening encephalitis, or systemic infections affecting diverse organs. Herpes simplex virus represents the most comprehensive example of virus receptor interaction in Herpesviridae family, and the prototype virus encoding multipartite entry genes. In fact, it encodes 11-12 glycoproteins and a number of additional membrane proteins: five of these proteins play key roles in virus entry into subsceptible cells. Thus, glycoprotein B (gB) and glycoprotein C (gC) interact with heparan sulfate proteoglycan to enable initial attachment to cell surfaces. In the next step, in the entry cascade, gD binds a specific surface receptor such as nectin1 or HVEM. The interaction of glycoprotein D with the receptor alters the conformation of gD to enable the activation of gB, glycoprotein H, and glycoprotein L, a trio of glycoproteins that execute the fusion of the viral envelope with the plasma membrane. In this thesis, I described two distinct projects: I. The retargeting of viral tropism for the design of oncolytic Herpesviruses: • capable of infecting cells through the human epitelial growth factor receptor 2 (HER2), overexpressed in highly malignant mammary and ovarian tumors and correlates with a poor prognosis; • detargeted from its natural receptors, HVEM and nectin1. To this end, we inserted a ligand to HER2 in gD. Because HER2 has no natural ligand, the selected ligand was a single chain antibody (scFv) derived from MAb4D5 (monoclonal antibody to HER2), herein designated scHER2. All recombinant viruses were targeted to HER2 receptor, but only two viruses (R-LM113 and R-LM249) were completely detargeted from HVEM and nectin1. To engineer R-LM113, we removed a large portion at the N-terminus of gD (from aa 6 to aa 38) and inserted scHER2 sequence plus 9-aa serine-glycine flexible linker at position 39. On the other hand, to engineer R-LM249, we replaced the Ig-folded core of gD (from aa 61 to aa 218) with scHER2 flanked by Ser-Gly linkers. In summary, these results provide evidence that: i. gD can tolerate an insert almost as big as gD itself; ii. the Ig-like domain of gD can be removed; iii. the large portion at the N-terminus of gD (from aa 6 to aa 38) can be removed without loss of key function; iv. R-LM113 and R-LM249 recombinants are ready to be assayed in animal models of mammary and ovary tumour. This finding and the avaibility of a large number of scFv greatly increase the collection of potential receptors to which HSV can be redirected. II. The production and purification of recombinant truncated form of the heterodimer gHgL. We cloned a stable insect cell line expressing a soluble form of gH in complex with gL under the control of a metalloprotein inducible promoter and purified the heterodimer by means of ONE-STrEP-tag system by IBA. With respect to biological function, the purified heterodimer is capable: • of reacting to antibodies that recognize conformation dependent epitopes and neutralize virion infectivity; • of binding a variety cells at cell surface. No doubt, the availability of biological active purified gHgL heterodimer, in sufficient quantities, will speed up the efforts to solve its crystal structure and makes it feasible to identify more clearly whether gHgL has a cellular partner, and what is the role of this interaction on virus entry.
Resumo:
The continuous increase of genome sequencing projects produced a huge amount of data in the last 10 years: currently more than 600 prokaryotic and 80 eukaryotic genomes are fully sequenced and publically available. However the sole sequencing process of a genome is able to determine just raw nucleotide sequences. This is only the first step of the genome annotation process that will deal with the issue of assigning biological information to each sequence. The annotation process is done at each different level of the biological information processing mechanism, from DNA to protein, and cannot be accomplished only by in vitro analysis procedures resulting extremely expensive and time consuming when applied at a this large scale level. Thus, in silico methods need to be used to accomplish the task. The aim of this work was the implementation of predictive computational methods to allow a fast, reliable, and automated annotation of genomes and proteins starting from aminoacidic sequences. The first part of the work was focused on the implementation of a new machine learning based method for the prediction of the subcellular localization of soluble eukaryotic proteins. The method is called BaCelLo, and was developed in 2006. The main peculiarity of the method is to be independent from biases present in the training dataset, which causes the over‐prediction of the most represented examples in all the other available predictors developed so far. This important result was achieved by a modification, made by myself, to the standard Support Vector Machine (SVM) algorithm with the creation of the so called Balanced SVM. BaCelLo is able to predict the most important subcellular localizations in eukaryotic cells and three, kingdom‐specific, predictors were implemented. In two extensive comparisons, carried out in 2006 and 2008, BaCelLo reported to outperform all the currently available state‐of‐the‐art methods for this prediction task. BaCelLo was subsequently used to completely annotate 5 eukaryotic genomes, by integrating it in a pipeline of predictors developed at the Bologna Biocomputing group by Dr. Pier Luigi Martelli and Dr. Piero Fariselli. An online database, called eSLDB, was developed by integrating, for each aminoacidic sequence extracted from the genome, the predicted subcellular localization merged with experimental and similarity‐based annotations. In the second part of the work a new, machine learning based, method was implemented for the prediction of GPI‐anchored proteins. Basically the method is able to efficiently predict from the raw aminoacidic sequence both the presence of the GPI‐anchor (by means of an SVM), and the position in the sequence of the post‐translational modification event, the so called ω‐site (by means of an Hidden Markov Model (HMM)). The method is called GPIPE and reported to greatly enhance the prediction performances of GPI‐anchored proteins over all the previously developed methods. GPIPE was able to predict up to 88% of the experimentally annotated GPI‐anchored proteins by maintaining a rate of false positive prediction as low as 0.1%. GPIPE was used to completely annotate 81 eukaryotic genomes, and more than 15000 putative GPI‐anchored proteins were predicted, 561 of which are found in H. sapiens. In average 1% of a proteome is predicted as GPI‐anchored. A statistical analysis was performed onto the composition of the regions surrounding the ω‐site that allowed the definition of specific aminoacidic abundances in the different considered regions. Furthermore the hypothesis that compositional biases are present among the four major eukaryotic kingdoms, proposed in literature, was tested and rejected. All the developed predictors and databases are freely available at: BaCelLo http://gpcr.biocomp.unibo.it/bacello eSLDB http://gpcr.biocomp.unibo.it/esldb GPIPE http://gpcr.biocomp.unibo.it/gpipe
Resumo:
Il documento pre-normativo italiano sul rinforzo di strutture in c.a. mediante l’uso di materiale fibrorinforzato. 1.1 INTRODUZIONE La situazione unica dell’Italia per quanto riguarda la conservazione delle costruzioni esistenti, è il risultato della combinazione di due aspetti, come primo, il medio-alto rischio sismico di una gran parte di territorio, come testimoniato dalla zonizzazione sismica recente, e come secondo aspetto, l'estrema complessità di un ambiente edilizio che non ha confronto nel mondo. Le tipologie della costruzione in Italia si distinguono a quelle stimate come patrimonio storico, che in alcuni casi risalgono a circa 2000 anni fa, a quelle che sono state costruite in ultimi cinque secoli, durante e dopo il Rinascimento, che sono considerate come patrimonio culturale ed architettonico dell' Italia (e del mondo!), infine a quelle fatte in tempi recenti, considerevolmente durante e dopo il boom economico del l960 ed ora visti come antiquate. Le due prime categorie in gran parte sono composte dalle edilizie di muratura, mentre agli ultimi principalmente appartengono le costruzioni di cemento armato.
Resumo:
La tesi della candidata presenta - attraverso lo studio della normativa e della giurisprudenza rilevanti in Italia, Francia e Germania – un’analisi dell'ambito soggettivo di applicazione del diritto costituzionale d'asilo e del suo rapporto con il riconoscimento dello status di rifugiato ai sensi della Convenzione di Ginevra del 1951, nonchè della sua interazione con le altre forme di protezione della persona previste dal diritto comunitario e dal sistema CEDU di salvaguardia dei diritti fondamentali. Dal breve itinerario comparatistico percorso, emerge una forte tendenza alla neutralizzazione dell’asilo costituzionale ed alla sua sovrapposizione con la fattispecie del rifugio convenzionale quale carattere comune agli ordinamenti presi in esame, espressione di una consapevole scelta di politica del diritto altresì volta ad assimilare la materia alla disciplina generale dell’immigrazione al fine di ridimensionarne le potenzialità espansive (si pensi alla latitudine delle formule costituzionali di cui agli artt. 10, co. 3 Cost. it. e 16a, co. 1 Grundgesetz) e di ricondurre l'asilo entro i tradizionali confini della discrezionalità amministrativa quale sovrana concessione dello Stato ospitante. L'esame delle fonti comunitarie di recente introduzione illumina l’indagine: in particolare, la stessa Direttiva 2004/83CE sulla qualifica di rifugiato e sulla protezione sussidiaria consolida quanto stabilito dalle disposizioni convenzionali, ma ne estende la portata in modo significativo, recependo gli esiti della lunga evoluzione giurisprudenziale compiuta dalle corti nazionali e dal Giudice di Strasburgo nell’interpretazione del concetto di “persecuzione” (specialmente, in relazione all’individuazione delle azioni e degli agenti persecutori). Con riferimento al sistema giuridico italiano, la tesi si interroga sulle prospettive di attuazione del dettato dell’art. 10, terzo comma della Costituzione, ed inoltre propone la disamina di alcuni istituti chiave dell’attuale normativa in materia di asilo, attraverso cui si riscontrano importanti profili di incompatibilità con la natura di diritto fondamentale costituzionalmente tutelato, conferita al diritto di asilo dalla volontà dei Costituenti e radicata nella ratio della norma stessa (il trattenimento del richiedente asilo; la procedura di esame della domanda, l’onere probatorio e le cause ostative al suo accoglimento; l’effettività della tutela giurisdizionale). Le questioni più problematiche ancora irrisolte investono proprio tali aspetti del procedimento - previsto per ottenere quello che alcuni atti europei, tra cui l'art. 18 della Carta di Nizza, definiscono right to asylum - come rivela la disciplina contenuta nella Direttiva 2005/85CE, recante norme minime per le procedure applicate negli Stati membri ai fini del riconoscimento e della revoca dello status di rifugiato. Infine, il fenomeno della esternalizzazione dei controlli compromette lo stesso accesso alle procedure, nella misura in cui rende "mobile" il confine territoriale dell’area Schengen (attraverso l'introduzione del criterio dello "Stato terzo sicuro", degli strumenti dell'esame preliminare delle domande e della detenzione amministrativa nei Paesi di transito, nonché per mezzo del presidio delle frontiere esterne), relegando il trattamento dei richiedenti asilo ad uno spazio in cui non sempre è monitorabile l'effettivo rispetto del principio del non refoulement, degli obblighi internazionali relativi all’accoglienza dei profughi e delle clausole di determinazione dello Stato competente all'esame delle domande ai sensi del Regolamento n. 343/03, c.d. Dublino II (emblematico il caso del pattugliamento delle acque internazionali e dell'intercettazione delle navi prima del superamento dei confini territoriali). Questi delicati aspetti di criticità della disciplina procedimentale limitano il carattere innovativo delle recenti acquisizioni comunitarie sull’ambito di operatività delle nuove categorie definitorie introdotte (le qualifiche di rifugiato e di titolare di protezione sussidiaria e la complessa nozione di persecuzione, innanzitutto), richiedendo, pertanto, l’adozione di un approccio sistemico – piuttosto che analitico – per poter rappresentare in modo consapevole le dinamiche che concretamente si producono a livello applicativo ed affrontare la questione nodale dell'efficienza dell'attuale sistema multilivello di protezione del richiedente asilo.
Resumo:
The recent introduction of free form NC machining in the ophthalmic field involved a full review of the former product development process both from the design and the manufacturing viewpoint. Aim of the present work is to investigate and to set up innovative methods and tools supporting the product development, particularly for lenses characterized by free form geometry, as e.g. progressive lenses. In the design stage, the research addressed geometric modeling of complex lens shapes and relevant analysis tools for the optical-geometrical characterization of the produced models. In the manufacturing stage, the main interest was focused on the set-up of the fabrication process, particularly on the NC machining process for which an integration CADCAM software was developed for the generation and the simulation of the machining cycle. The methodologies and tools made available by the present work are currently used in the development of new complex geometry product typologies as, e.g. progressive lenses.
Resumo:
Recent statistics have demonstrated that two of the most important causes of failures of the UAVs (Uninhabited Aerial Vehicle) missions are related to the low level of decisional autonomy of vehicles and to the man machine interface. Therefore, a relevant issue is to design a display/controls architecture which allows the efficient interaction between the operator and the remote vehicle and to develop a level of automation which allows the vehicle the decision about change in mission. The research presented in this paper focuses on a modular man-machine interface simulator for the UAV control, which simulates UAV missions, developed to experiment solution to this problem. The main components of the simulator are an advanced interface and a block defined automation, which comprehend an algorithm that implements the level of automation of the system. The simulator has been designed and developed following a user-centred design approach in order to take into account the operator’s needs in the communication with the vehicle. The level of automation has been developed following the supervisory control theory which says that the human became a supervisor who sends high level commands, such as part of mission, target, constraints, in then-rule, while the vehicle receives, comprehends and translates such commands into detailed action such as routes or action on the control system. In order to allow the vehicle to calculate and recalculate the safe and efficient route, in term of distance, time and fuel a 3D planning algorithm has been developed. It is based on considering UASs representative of real world systems as objects moving in a virtual environment (terrain, obstacles, and no fly zones) which replicates the airspace. Original obstacle avoidance strategies have been conceived in order to generate mission planes which are consistent with flight rules and with the vehicle performance constraints. The interface is based on a touch screen, used to send high level commands to the vehicle, and a 3D Virtual Display which provides a stereoscopic and augmented visualization of the complex scenario in which the vehicle operates. Furthermore, it is provided with an audio feedback message generator. Simulation tests have been conducted with pilot trainers to evaluate the reliability of the algorithm and the effectiveness and efficiency of the interface in supporting the operator in the supervision of an UAV mission. Results have revealed that the planning algorithm calculate very efficient routes in few seconds, an adequate level of workload is required to command the vehicle and that the 3D based interface provides the operator with a good sense of presence and enhances his awareness of the mission scenario and of the vehicle under his control.