383 resultados para Doru lineare
Resumo:
This study aimed to produce antiserum for the main pests found in maize, Spodoptera frugiperda, Helicoverpa zea and armigera, Rhopalosiphum maidis, and uses it to determine their predators. Pest samples were macerated in 0.85% saline solution. The macerated were centrifuged and the supernatants were used as immunizing antigens to obtain the antiserum. For this purpose, a rabbit was immunized with 3.0 ml of the immunizing antigen on the lymph node region. Homologous serological tests were performed by double diffusion in agar. The homologous serological reactions were positive after seven days of antigen inoculation. The technique has sensitivity to detect predation of the pests studied. The tests were positive for a prey in the digestive tract of the predator to 96 hours of ingestion. Regarding the number of prey ingested there was no difference in the lines. It is concluded that after a single injection of antigen in rabbit lymph node region, it was possible to get an antiserum specific for pests of corn. Field tests showed that there was a certain food preference of Doru luteipes by S. frugiperda, Chrysoperla externa by aphid.
Resumo:
2016
Resumo:
La tesi tratta la ricerca di procedure che permettano di rilevare oggetti utilizzando il maggior numero di informazioni geometriche ottenibili da una nuvola di punti densa generata da un rilievo fotogrammetrico o da TLS realizzando un modello 3D importabile in ambiente FEM. Il primo test si è eseguito su una piccola struttura, 1.2x0.5x0.2m, in modo da definire delle procedure di analisi ripetibili; la prima consente di passare dalla nuvola di punti “Cloud” all’oggetto solido “Solid” al modello agli elementi finiti “Fem” e per questo motivo è stata chiamata “metodo CSF”, mentre la seconda, che prevede di realizzare il modello della struttura con un software BIM è stata chiamata semplicemente “metodo BIM”. Una volta dimostrata la fattibilità della procedura la si è validata adottando come oggetto di studio un monumento storico di grandi dimensioni, l’Arco di Augusto di Rimini, confrontando i risultati ottenuti con quelli di altre tesi sulla medesima struttura, in particolare si è fatto riferimento a modelli FEM 2D e a modelli ottenuti da una nuvola di punti con i metodi CAD e con un software scientifico sviluppato al DICAM Cloud2FEM. Sull’arco sono state eseguite due tipi di analisi, una lineare sotto peso proprio e una modale ottenendo risultati compatibili tra i vari metodi sia dal punto di vista degli spostamenti, 0.1-0.2mm, che delle frequenze naturali ma si osserva che le frequenze naturali del modello BIM sono più simili a quelle dei modelli generati da cloud rispetto al modello CAD. Il quarto modo di vibrare invece presenta differenze maggiori. Il confronto con le frequenze naturali del modello FEM ha restituito differenze percentuali maggiori dovute alla natura 2D del modello e all’assenza della muratura limitrofa. Si sono confrontate le tensioni normali dei modelli CSF e BIM con quelle ottenute dal modello FEM ottenendo differenze inferiori a 1.28 kg/cm2 per le tensioni normali verticali e sull’ordine 10-2 kg/cm2 per quelle orizzontali.
Resumo:
I simulatori di guida sono strumenti altamente tecnologici che permettono di svolgere attività di ricerca in vari ambiti quali la psicologia, la medicina e l’ingegneria. Tuttavia, affinché i dati ottenuti mediante le simulazioni siano rapportabili alla loro controparte reale, la fedeltà delle componenti del simulatore di guida deve essere elevata. Questo lavoro tratta del miglioramento del sistema di restituzione del movimento nel simulatore a due gradi di libertà (2DOF) SIMU-LACET Driving Simulator, costruito e sviluppato presso il laboratorio LEPSIS dell’IFSTTAR (Istituto Francese delle Scienze e Tecnologie dei Trasporti, dello Sviluppo e delle Reti), in particolare nella sua sede di Parigi – Marne-la-Vallée. Si è deciso di andare a riprogettare la parte software del sistema di restituzione del movimento (motion cueing), operando su due elementi principali: lo scale factor (fattore di scala) applicato agli impulsi dinamici provenienti dal modello veicolare e i Motion Cueing Algorihms (MCA, algoritmi di restituzione del movimento), questo per entrambi i gradi di libertà. Si è quindi intervenuti sul modello esistente implementato in MATLAB-Simulink nello specifico blocco del motion cueing sul surge (traslazione longitudinale) e sul yaw (imbardata). Riguardo lo scale factor, è stata introdotta una metodologia per creare uno scale factor non lineare in forma esponenziale, tale da migliorare la restituzione degli impulsi meno ampi, pur rispettando i limiti fisici della piattaforma di movimento. Per quanto concerne il MCA, si sono vagliate diverse transfer function dell’algoritmo classico. La scelta finale dei MCA e la validazione del motion cueig in genere è stata effettuata mediante due esperimenti ed il giudizio dei soggetti che vi hanno partecipato. Inoltre, in virtù dei risultati del primo esperimento, si è investigata l’influenza che la strategia in merito al cambio delle marce avesse sulla percezione del movimento da parte del guidatore.
Resumo:
Il progetto di tesi è incentrato sull’ottimizzazione del procedimento di taratura dei regolatori lineari degli anelli di controllo di posizione e velocità presenti negli azionamenti usati industrialmente su macchine automatiche, specialmente quando il carico è ad inerzia variabile in dipendenza dalla posizione, dunque non lineare, come ad esempio un quadrilatero articolato. Il lavoro è stato svolto in collaborazione con l’azienda G.D S.p.A. ed il meccanismo di prova è realmente utilizzato nelle macchine automatiche per il packaging di sigarette. L’ottimizzazione si basa sulla simulazione in ambiente Matlab/Simulink dell’intero sistema di controllo, cioè comprensivo del modello Simulink degli anelli di controllo del drive, inclusa la dinamica elettrica del motore, e del modello Simscape del meccanismo, perciò una prima necessaria fase del lavoro è stata la validazione di tali modelli affinché fossero sufficientemente fedeli al comportamento reale. Il secondo passo è stato fornire una prima taratura di tentativo che fungesse da punto di partenza per l’algoritmo di ottimizzazione, abbiamo fatto ciò linearizzando il modello meccanico con l’inerzia minima e utilizzando il metodo delle formule di inversione per determinare i parametri di controllo. Già questa taratura, seppur conservativa, ha portato ad un miglioramento delle performance del sistema rispetto alla taratura empirica comunemente fatta in ambito industriale. Infine, abbiamo lanciato l’algoritmo di ottimizzazione definendo opportunamente la funzione di costo, ed il risultato è stato decisamente positivo, portando ad un miglioramento medio del massimo errore di inseguimento di circa il 25%, ma anche oltre il 30% in alcuni casi.
Resumo:
La tesi si divide in due macroargomenti relativi alla preparazione della geometria per modelli MCNP. Il primo è quello degli errori geometrici che vengono generati quando avviene una conversione da formato CAD a CSG e le loro relazioni con il fenomeno delle lost particles. Il passaggio a CSG tramite software è infatti inevitabile per la costruzione di modelli complessi come quelli che vengono usati per rappresentare i componenti di ITER e può generare zone della geometria che non vengono definite in modo corretto. Tali aree causano la perdita di particelle durante la simulazione Monte Carlo, andando ad intaccare l' integrità statistica della soluzione del trasporto. Per questo motivo è molto importante ridurre questo tipo di errori il più possibile, ed in quest'ottica il lavoro svolto è stato quello di trovare metodi standardizzati per identificare tali errori ed infine stimarne le dimensioni. Se la prima parte della tesi è incentrata sui problemi derivanti dalla modellazione CSG, la seconda invece suggerisce un alternativa ad essa, che è l'uso di Mesh non Strutturate (UM), un approccio che sta alla base di CFD e FEM, ma che risulta innovativo nell'ambito di codici Monte Carlo. In particolare le UM sono state applicate ad una porzione dell' Upper Launcher (un componente di ITER) in modo da validare tale metodologia su modelli nucleari di alta complessità. L'approccio CSG tradizionale e quello con UM sono state confrontati in termini di risorse computazionali richieste, velocità, precisione e accuratezza sia a livello di risultati globali che locali. Da ciò emerge che, nonostante esistano ancora alcuni limiti all'applicazione per le UM dovuti in parte anche alla sua novità, vari vantaggi possono essere attribuiti a questo tipo di approccio, tra cui un workflow più lineare, maggiore accuratezza nei risultati locali, e soprattutto la possibilità futura di usare la stessa mesh per diversi tipi di analisi (come quelle termiche o strutturali).
Resumo:
I processi di riduzione del 5-idrossimetilfurfurale (HMF) sono generalmente condotti mediante processi che utilizzano calore e alte pressioni di H2. Una via alternativa prevede l’applicazione di processi elettrochimici, i quali richiedono condizioni più blande e non necessitano di H2. Il lavoro di tesi qui presentato si concentra sullo studio della elettoriduzione del 5-idrossimetilfurfurale a 2,5-bis(idrossimetil)furano, tramite l’utilizzo di catalizzatori basati su schiume 3D a cella aperta di Cu, sopra le quali viene depositato Ag tramite elettrodeposizione. La caratterizzazione elettrochimica è stata condotta tramite voltammetrie a scansione lineare fatte in tampone borato 0,5M e in HMF, seguite da cronoamperometrie (CA) e cronopotenziometrie (CP); inoltre sono stati valutati l’effetto dei parametri di reazione, quali concentrazione iniziale di reagente, potenziale applicato e densità di corrente applicata sulla conversione, selettività ed efficienza faradica. Le prove effettuate a due diverse concentrazioni di HMF (0,02M e 0,05M), con potenziale di -1,3V vs SCE, mostrano che all’aumentare della concentrazione di reagente si ha un calo della selettività in BHMF. Mantenendo la concentrazione a 0,05M e variando il potenziale applicato, si è osservato un aumento importante della selettività in BHMF a potenziali meno catodici e un calo della conversione a potenziali più catodici; la prova a -1,25V vs SCE fornisce i migliori risultati, tuttavia il tempo di reazione a questo potenziale è molto elevato, portando ad un netto calo della produttività. All’aumentare della densità di corrente si osserva un aumento della selettività in BHMF e una riduzione della conversione, mentre la FE è stabile.
Resumo:
Il compound a matrice poliolefinica studiato è un materiale espandibile e reticolabile, usato per la produzione di manufatti espansi a celle chiuse mediante stampaggio ad iniezione. In questo progetto di tesi il compound viene studiato dal punto di vista reologico, per cercare di prevedere il grado di espansione del manufatto stampato. La correlazione tra l’analisi reometrica e il coefficiente di espansione del manufatto finale potrebbe essere sfruttata per un controllo di qualità del materiale, permettendo così di prevedere il comportamento e le dimensioni finali del manufatto prima dello stampaggio. Lo scopo dello studio è quello di prevedere le dimensioni del manufatto finale partendo da un campione derivante dai granuli del compound a matrice poliolefinica. La prima parte dello studio si concentra sull’analisi del materiale in condizioni ideali, cioè campioni che contengono solo agente reticolante e campioni che contengono esclusivamente agente espandente, valutando l’influenza di questi additivi singolarmente. La seconda parte si concentra sull’analisi del materiale in condizioni reali, co-presenza di reticolante ed espandente, e sulla ricerca di una correlazione tra le analisi reometriche e il coefficiente di espansione. L’ultima parte dello studio si focalizza sull’applicazione di un metodo di previsione lineare delle dimensioni di manufatti stampati, partendo da mescole incognite. Le tecniche di analisi impiegate spaziano da quelle termogravimetriche (TGA), calorimetriche (DSC) a quelle reometriche sui provini derivanti dai granuli, mentre sui campioni stampati sono state eseguite prove dimensionali, prove di densità, prove di durezza (SHORE A e Ascker C) e prove di abrasione.
Resumo:
L’obiettivo della tesi è stato quello di valutare la vulnerabilità sismica di edifici ordinari in muratura tipici del costruito del Comune di Maranello (MO), e di stimare le curve di fragilità. Vengono individuate le tipologie strutturali in muratura tipiche degli edifici del Comune, che viene suddiviso in comparti secondo il metodo CARTIS. Lo scopo è stato di definire quali sono le tipologie in muratura più vulnerabili, e quindi i comparti del Comune costituiti dagli edifici in muratura più fragili dal punto di vista sismico. La valutazione della vulnerabilità sismica di alcuni edifici rappresentativi delle tipologie murarie esistenti nel territorio analizzato è stata eseguita mediante due metodologie: la prima è una metodologia speditiva chiamata RE.SIS.TO., una valutazione semplificata sviluppata dall’Università degli Studi di Bologna, con l’obiettivo di definire lo stato di criticità degli edifici e di definire la priorità di intervento in tempi brevi; la seconda è una metodologia di valutazione più accurata eseguita attraverso l’analisi statica non lineare con il software 3Muri, un programma per il calcolo sismico delle strutture in muratura.
Resumo:
La presente tesi, in particolare, sfrutta un metodo di analisi semplificato di “loss assessment” o analisi delle perdite economiche, considerando un edificio esistente in CA. L’edificio caso di studio è un tipico edificio intelaiato in CA sito sull’appennino, e progettato e costruito negli anni ’70, dunque, senza tenere conto dell’azione orizzontale del sisma, per cui non presenta i dettagli costruttivi atti a soddisfare i requisiti minimi di duttilità. È stata effettuata una analisi statica non lineare (Pushover), per studiare la risposta della struttura esistente alle azioni orizzontali. Al fine di migliorare il confinamento delle colonne in CA, è stato scelto di utilizzare dei rinforzi locali, tipicamente utilizzati in Italia nella pratica progettuale, atti a migliorare le caratteristiche di duttilità e/o resistenza degli elementi rinforzati, e di conseguenza capaci di migliorare le caratteristiche globali dell’intero sistema strutturale. Sono state selezionate tre diverse tecnologie: le “Fiber Reinforced Polymers” (FRP), il “Concrete Jacketing” (CJ) e il sistema di Cerchiature Attive dei Manufatti (CAM). Nella presente tesi verranno presentate diverse applicazioni di questi sistemi, enunciandone i miglioramenti rispetto al caso “As-built” e poi confrontandole tra di loro in modo da fornire elementi validi a supporto della fase decisionale per la progettazione dell’intervento sull’edificio. Infine vengono valutate le perdite economiche medie annue attese, insieme ad altri parametri sintetici di analisi delle perdite e di analisi costi-benefici. Il fine di questo processo è di studiare quanto uno specifico intervento di miglioramento sismico, applicato all’edificio As-built, consenta di ridurre le perdite economiche sismiche stimate in un anno di vita della struttura, e poi nel corso della sua vita utile, per fornire un elemento di paragone utile per la scelta dell’intervento ottimale.
Resumo:
Nell’elaborato viene studiato il fenomeno dell’incidentalità singola delle utenze deboli sulla strada (perdita di controllo, scivolamento ecc..ecc..), con particolare enfasi nell’analizzare le conseguenze traumatiche dovute all’impatto con la superficie stradale. Una nuova tecnologia viene sviluppata per rendere le pavimentazioni di piste ciclabili, marciapiedi e zone pedonali con capacità di assorbimento degli impatti, prevenendo, o riducendo drasticamente, la probabilità e entità di eventi traumatici a seguito di una caduta. Attraverso una stesa di prova avvenuta ad Imola (BO), si sono analizzate e risolte le problematiche dovute alle discrepanze riscontrate fra “costruzione” in laboratorio e costruzione nella realtà urbana. La nuova tecnologia, infatti, è stata studiata come “construction-friendly”, permettendo alle società di costruzione e pavimentazione di stendere il nuovo manto protettivo con strumenti e macchinari tradizionali. Infine l’asfalto modificato è stato testato nei laboratori svedesi del KTH – Royal Institute of Technology per provarne l’efficacia in termini di assorbimento degli impatti. Nel “Drop Impact Test”, test specifico per l’approvazione dei caschi protettivi da bicicletta, l’asfalto modificato ha performato ben al di sotto della soglia di approvazione dei caschi da ciclista, e si colloca in un range di valore di accelerazione lineare perfino al di sotto della soglia di “Low Risk of Injuries”. La nuova tecnologia, inoltre, fa utilizzo di gomma granulata riciclata da pneumatici fuori uso. Tale dettaglio conferisce maggiore sostenibilità al progetto: oltre all’utilizzo di legante a freddo, che diminuisce le emissioni di CO2, e di incentivare l’utilizzo della mobilità dolce attraverso una più sicura rete infrastrutturale, l’utilizzo di gomma riciclata dà nuova vita al materiale che altrimenti andrebbe in discarica e prolunga, così, la vita utile del materiale.
Resumo:
Nell’ambito dello studio della vulnerabilità delle strutture in muratura la modellazione dei maschi murari e la conseguente verifica avviene convenzionalmente considerando tali partizioni come indipendenti, ovvero suddividendo, dapprima,i maschi murari a seconda della loro disposizione spaziale nei confronti della direzione della azione sismica e, successivamente, considerando il contributo dei maschi murari come agenti “in parallelo”.In tale scenario, la modellazione al continuo rende la definizione del singolo maschio murario non banale, in quanto tale tipologia di modellazione vede la geometria dell’edificio come un “unicum” strutturale.Questa dissertazione si prefigge di qualificare e quantificare le differenze scaturite dalla diversa suddivisione dei maschi e delle zone di interfaccia tra diverse pareti murarie, valutando il comportamento del maschio stesso in termini di taglio e sforzo normale ottenuti mediante un’analisi statica non lineare (Pushover). Due modelli ispirati a strutture reali sono analizzati a tal proposito: - Il prototipo testato nel 1994 nel Laboratorio dell’Università di Pavia (modello benchmark n°4). - La scuola “P.Capuzi” di Visso (MC), edificio monitorato permanentemente dall’Osservatorio Sismico delle Strutture del Dipartimento di Protezione Civile [3] e ad oggi demolito (modello benchmark n°5). Il lavoro qui presentato si inserisce in un più ampio programma di ricerca svolto in sinergia da varie unità coinvolte nel progetto ReLUIS 2017/2108 – Linea Strutture in Muratura [1][2] e avente come oggetto l’analisi di strutture benchmark per la valutazione dell’affidabilità di codici di calcolo. I modelli sono stati studiati eseguendo analisi di tipo statico non lineare (Pushover) con distribuzione di forze proporzionale alle masse.
Resumo:
La riflessione sulle competenze democratiche è viva negli ultimi anni (Consiglio d’Europa, 2018; Legge 92/2019; Unesco, 2015) e il ruolo dell’educazione nel promuoverle è considerato cruciale. Lo studio qui presentato si è proposto di indagare empiricamente se e come una specifica competenza democratica – quella empatica – possa essere promossa nei contesti educativi formali grazie a esperienze di lettura di narrativa letteraria. A partire dalla lettura in chiave fenomenologica del concetto di empatia (Boella, 2006, 2018; Stein 1917/2014; Zahavi, 2011, 2014) e dalle evidenze della ricerca – che mettono in evidenza alcuni elementi della lettura di narrativa letteraria in grado di sostenere il processo empatico (Cohen, 2001; Hakemulder, 2000, 2004; Keen, 2006; Kidd & Castano, 2013, 2017) – è stato elaborato un disegno di ricerca empirica avente l’obiettivo di comprendere se le esperienze di lettura in ambito scolastico possano configurarsi come “palestre di empatia” e se vi siano fattori in grado di facilitare (oppure ostacolare) tale processo. È stato utilizzato un approccio qualitativo fenomenologico. Sono stati analizzati (con l’ausilio di un code-book) i testi scritti di studenti (N=356), raccolti in 3 scuole (secondarie di I e II grado) del Nord/Centro Italia, durante gli anni scolastici 20-21 e 21-22. I testi riguardano la relazione instaurata con i personaggi narrativi. I dati mostrano che le esperienze di lettura di narrativa letteraria possono essere occasioni di allenamento delle competenze empatiche, ma sottolineano anche come ciò non sia scontato, lineare o automatico. Il manifestarsi dell’empatia narrativa richiede impegno, tempo, testi capaci di far incontrare la ricchezza e la complessità dell’esperienza umana e spazi di confronto (intimo e con gli altri) critico e riflessivo. La mediazione dell’insegnante è chiamata in causa a più riprese ed emerge l’importanza di specifiche competenze disciplinari, pedagogiche e riflessive, da sviluppare e coltivare incessantemente.
Resumo:
Sia F un’estensione del campo K, un sottoinsieme massimale S di elementi di F algebricamente indipendenti su K si dice una base di trascendenza di F su K. A partire da S, e precisamente considerando l'intersezione di tutti i sottocampi di F contenenti K e S, si ottiene un campo intermedio E che è un'estensione puramente trascendente di K, e tale che F è algebrico su E. Si dimostra che le basi di trascendenza di F su K hanno tutte la stessa cardinalità, detta grado di trascendenza dell'estensione. In questa tesi vengono studiate le principali proprietà delle estensioni trascendenti e, mediante la condizione di disgiunzione lineare, viene estesa la definizione di estensione separabile ad un'estensione qualsiasi. Vengono fornite diverse caratterizzazioni della separabilità, introducendo anche il concetto di estensione generata in modo separabile.
Resumo:
La tesi analizza il modello Input-Output, introdotto da Leontief nel 1936, per studiare la reazione dei sistemi industriali di Germania, Spagna ed Italia alle restrizioni imposte dai governi per limitare la diffusione della pandemia da COVID-19. Si studiano le economie considerando gli scambi tra i settori produttivi intermedi e la domanda finale. La formulazione originale del modello necessita diverse modifiche per descrivere realisticamente le reti di produzione e comunque non è del tutto esaustiva in quanto si ipotizza che la produttività dei sistemi sia sempre tale da soddisfare pienamente la domanda che giunge per il prodotto emesso. Perciò si introduce una distinzione tra le variabili del problema, assumendo che alcune componenti di produzione siano indipendenti dalla richiesta e che altre componenti siano endogene. Le soluzioni di questo sistema tuttavia non sempre risultano appartenenti al dominio di definizione delle variabili. Dunque utilizzando tecniche di programmazione lineare, si osservano i livelli massimi di produzione e domanda corrisposta in un periodo di crisi anche quando i sistemi non raggiungono questa soglia poiché non pienamente operativi. Si propongono diversi schemi di razionamento per distribuire tra i richiedenti i prodotti emessi: 1) programma proporzionale in base alle domande di tutti i richiedenti; 2) programma proporzionale in base alle richieste, con precedenza ai settori intermedi; 3) programma prioritario in cui vengono riforniti i settori intermedi in base alla dimensione dell’ordine; 4) programma prioritario con fornitura totale degli ordini e ordine di consegna casuale. I risultati ottenuti dipendono dal modello di fornitura scelto, dalla dimensione dello shock cui i settori sono soggetti e dalle proprietà della rete industriale, descritta come grafo pesato.