643 resultados para Campo magnetico,Via Lattea,Metodi di rilevazione
Resumo:
Nell’ultimo periodo, si è sviluppato un forte interesse nella produzione di materiali a base proteica per il settore biomedicale e cosmetico, in particolare per il rilascio controllato di farmaci. In questo studio sono stati sviluppati, tramite elettrofilatura, dei materiali nanocompositi, costituiti da una matrice di cheratina, ottenuta da lana, e PLA caricata con grafene ossido e con Rodamina-B, un indicatore particolarmente usato in chimica analitica per valutare il rilascio di determinati sistemi. Tali materiali, caratterizzati morfologicamente e strutturalmente, sono stati testati in vitro come sistemi per il rilascio controllato di farmaci, usando la Rodamina per la maggiore facilità di rilevazione, valutando soprattutto l’influenza del grafene ossido sull’entità del rilascio. I risultati ottenuti hanno evidenziato come l’ossido di grafene influisca in maniera significativa sull’entità del rilascio, rallentando la quantità di Rodamina rilasciata nelle prime 48 ore. Studi per l’applicazione di questi materiali nell’ingegneria tissutale e nella medicina rigenerativa saranno oggetto di studi futuri.
Resumo:
La tesi ripercorre i procedimenti utilizzati per il calcolo dell'asintotica dello splitting dell'operatore puramente magnetico di Schrödinger nel limite semiclassico (con campo magnetico costante) in un dominio aperto limitato e semplicemente connesso il cui bordo ha simmetria assiale ed esattamente due punti di curvatura massima non degeneri. Il punto di partenza è trovare stime a priori sulle sue autofunzioni, che permettono di dire che sono localizzate esponenzialmente vicino al bordo del dominio in oggetto, grazie a queste stime di riesce a modificare l'operatore in maniera tale che l'asintotica dello splitting rimanga equivalente. Si passa in seguito a coordinate tubulari, quindi si rettifica il borso del dominio, andando però a complicare il potenziale magnetico. Si ottengono nuove stime a priori per le autofunzioni. A questo punto si considera lo stesso operatore differenziale ma su un dominio modificato, in cui viene eliminato uno dei punti di curvatura massima. Per tale operatore si ha uno sviluppo asintotico delle autofunzioni (anche dette soluzioni WKB). Si utilizzano poi strumenti di calcolo pseudo-differenziale per studiare l'operatore nel nuovo dominio, ne si localizza la fase per renderlo limitato ed ottenere così una parametrice (anch'essa limitata) avente un simbolo esplicito. Se ne deducono stime di tipo ellittico che possono essere portate all'operatore senza la fase localizzata aggiungendo dei termini di errore. Grazie queste stime si riesce ad approssimare lo splitting (controllando sempre l'errore) che volevamo calcolare (quello dell'operatore sul dominio con due punti di curvatura massima) tramite le autofunzioni dell'operatore sul dominio con un solo punto di curvatura massima, e per queste autofunzioni abbiamo lo sviluppo asintotico (WKB). Considerando l'ordine principale di questi sviluppi si riesce a calcolare esplicitamente il termine dominante dello splitting, ottenendone così l'asintotica nel limite semiclassico.
Resumo:
Le microplastiche (MP) rientrano nella categoria di contaminanti emergenti per la loro pericolosità e persistenza nell'ecosistema. Gli impianti di trattamento acque sono identificati come una fonte principale di MP per l’ambiente. A causa della mancanza di metodi di separazione standard per le MP da fanghi ed acque reflue, nel presente lavoro sperimentale, sono testati diversi metodi di separazione delle MP da campioni di fanghi e acque di due impianti reali. Tramite analisi allo stereomicroscopio e identificazione della struttura polimerica mediante spettroscopia infrarossa in riflettanza totale attenuata (FTIR-ATR) si sono ottenute delle prime stime sulle quantità di MP all’interno dei depuratori che andranno vagliate con successive prove. In generale c’è una grande variabilità associata al punto di prelievo, al periodo di campionamento e alle caratteristiche del refluo. I dati sperimentali confermano la presenza di MP sia nelle acque che nei fanghi. Per la linea acque sono esaminati un trattamento convenzionale a fanghi attivi di un piccolo impianto (1) e un trattamento terziario di filtrazione a sabbia con peracetico e UV di un impianto di potenzialità superiore (2). Seppure le efficienze di rimozione siano alte (93,37% per l’impianto 1 e 59,80% per il 2), i carichi di MP rilasciati in ambiente sono elevati a causa delle portate trattate. Il fatto che MP della stessa morfologia e colore si ritrovino in setacci di differenti dimensioni e che le concentrazioni aumentino al diminuire della dimensione, suggerisce che subiscano svariate frammentazioni a monte del campionamento. Per i fanghi sono testati 3 metodi di pretrattamento individuando il migliore in quello con pre-digestione con H2O2 e separazione per densità con NaI che verrà in seguito implementata. Nei fanghi tendono a concentrarsi le MP rimosse dalla linea acque che di solito sono quelle di densità maggiore, infatti si riscontra prevalenza di microparticelle.
Resumo:
La flavescenza dorata è una malattia di interesse globale che causa ogni anno ingenti danni alle coltivazioni e di conseguenza comporta sostanziali perdite economiche in viticoltura. Il primo obiettivo che questo elaborato si è posto è stato fornire uno strumento utile a identificare la malattia anche prima che essa manifesti i suoi sintomi; in quest’ottica la spettroscopia si è rivelata particolarmente promettente. In secondo luogo si è valutata se la distanza dal bosco potesse essere un fattore di incidenza della flavescenza dorata. Per quanto riguarda il primo aspetto, lo scopo è stato raggiunto con l’identificazione di diversi composti biochimici che potrebbero essere sfruttati come indicatori per l’identificazione del fitoplasma; anche la presenza di un’area boschiva potrebbe incidere nella diffusione della flavescenza dorata. È bene sottolineare che l’elaborato è stato svolto con una prospettiva agroecologica, cercando valide alternative ai metodi di lotta tradizionali che prevedono l’uso di composti chimici e lo sfalcio del cotico erboso, utile a garantire la sopravvivenza e la funzionalità di un ambiente agroecologico. Le conclusioni tratte stimolano indagini future, per approfondire le pionieristiche tematiche investigate.
Resumo:
Le tecniche di fluidodinamica computazionale vengono utilizzate in numerosi settori dell’ingegneria per risolvere in modo efficiente i problemi di flusso e di termodinamica nei fluidi. Uno di questi settori in cui si è diffuso l’utilizzo delle tecniche CFD (Computational Fluid Dynamics) è il settore dell’ingegneria antincendio. Tra i vari software di simulazione presenti, FDS (Fire Dynamics Simulator) è quello più diffuso nella comunità antincendio e utilizzato all’interno della presente analisi. L’elaborato introduce le basi dell’ingegneria antincendio spiegando le varie fasi attraverso il quale passa la metodologia prestazionale, passando poi ad approfondire le dinamiche d’incendio, in particolare nelle gallerie stradali e le tecniche di modellazione termo fluidodinamica degli incendi. L’analisi tratta il confronto tra delle prove d’incendio in scala reale effettuate all’interno di una galleria e le relative simulazioni fluidodinamiche realizzate al fine di verificare la corrispondenza tra la modellazione con software e l’effettiva evoluzione dell’incendio. Nell’analisi verranno confrontati diversi metodi di modellazione, evidenziando i vantaggi e i limiti incontrati nel corso delle simulazioni, confrontandoli al tempo stesso con i risultati ottenuti dai test in scala reale. I modelli ottenuti hanno permesso di estendere le simulazioni a focolari di potenza maggiore al fine di effettuare un’analisi delle prestazioni antincendio della galleria oggetto di studio.
Resumo:
La Macchina di Boltzmann Ristretta (RBM) è una rete neurale a due strati utilizzata principalmente nell'apprendimento non supervisionato. La sua capacità nel rappresentare complesse relazioni insite nei dati attraverso distribuzioni di tipo Boltzmann Gibbs la rende un oggetto particolarmente interessante per un approfondimento teoretico in ambito fisico matematico. In questa tesi vengono presentati due ambiti di applicazione della meccanica statistica all'apprendimento automatico. 1) La similarità della RBM a unità binarie con il modello di Ising permette di sfruttare un'espansione alle alte temperature per approssimare l'energia libera, termine presente nel gradiente della likelihoood e difficile da trattare numericamente. I risultati ottenuti con questa tecnica sul dataset MNIST sono paragonabili a quelli ottenuti dalla Contrastive Divergence, che utilizza invece metodi di Monte Carlo. 2) L'equivalenza statistica della variante ibrida di RBM con il modello di Hopfield permette di studiare la taglia del training set necessaria per l'apprendimento attraverso l'analisi del problema inverso, in cui i ruoli di spin e pattern sono invertiti. Viene quindi presentato un metodo basato sulla teoria di Gauge che permette di derivare il diagramma di fase del modello di Hopfield duale sulla linea di Nishimori in funzione della temperatura e del rapporto tra numero di campioni e dimensione del sistema.
Resumo:
A partire dal suo cultural turn, la geografia si è dedicata ad oggetti apparentemente lontani dal suo campo disciplinare, come i prodotti di finzione di natura mediale, studiati secondo una prospettiva interdisciplinare, ma rivendicando una propria specificità metodologico-epistemologica, tale che permetta l’analisi dei processi di territorializzazione doppi (sia sulla Terra che nei media). Tra i prodotti culturali-mediali che alimentano un immaginario fortemente geografico, si distinguono oggi i Social e le canzoni, nei quali si assiste ad una mediazione del territorio e all’esposizione di processi territoriali configurativi che alimentano l’immagine del territorio stesso nel mediascape, favorendo anche un suo sviluppo, soprattutto in chiave turistica. L’area di Pavia e provincia, in Italia, fatica ad imprimersi nel panorama mediale nazionale, che ne ha veicolato, soprattutto tramite i media (audio)visivi, l’immagine di un territorio chiuso e autoriflettente, da cui si può solo passare o fuggire. Tale immagine è tuttavia ri-negoziata da prodotti realizzati da attori locali, come quelli dei due casi-studio di questo lavoro: la pagina Instagram paviacartoon, che offre un’originale contaminazione tra mondi finzionali cartoneschi e territorio locale, e la produzione/attività del gruppo dialettale I Fiö dla nebia. L’analisi geografica di questi prodotti mette in luce il loro originale carattere narrativo e configurativo, svelando un inedito potenziale turistico, particolarmente spendibile in un’ottica di sviluppo locale. Considerando come fondamentale l’analisi dei paesaggi mediali di un’area, soprattutto in un’ottica di sviluppo territoriale, si può osservare come l’immagine del territorio pavese, se adeguatamente filtrata con consapevolezza da uomini del territorio, e se supportata tramite scelte accurate sia politiche che di governance territoriale, possa essere oggetto di pratiche che gioverebbero allo sviluppo del territorio stesso, soprattutto in chiave turistica.
Resumo:
La presente ricerca si focalizza sull’analisi di come l’utilizzo dei servizi ecosistemici vada a riconfigurare e ri-significare le socio-nature urbane, in particolare nel contesto dei due casi di studio presi in analisi: il bosco urbano dei Prati di Caprara e l’area di riequilibrio ecologico Golena San Vitale. Si vedrà come nel caso della Golena San Vitale verrà riprodotta la narrazione dominante sulla sostenibilità ambientale, perfettamente integrata nei meccanismi neoliberali. Nel caso dei Prati di Caprara, invece, verrà sottolineato come i servizi ecosistemici subiranno una riappropriazione dal basso, attraverso delle pratiche collettive che puntano a sovvertire le relazioni di potere insite in questo concetto. Questo contributo si inserisce nel dibattito dell’ecologia politica, ed in particolare dell’ecologia politica urbana, utilizzando tale approccio per decostruire il discorso scientifico, nato attorno ai servizi ecosistemici, e portare alla luce le asimmetrie di potere insite in tale narrazione. Nella raccolta ed elaborazione dei dati, si andrà ad utilizzare una triangolazione di metodi di ricerca. L’analisi testuale e discorsiva utilizzata nella decostruzione del discorso istituzionale sarà quindi completata dalle interviste semi-strutturate ad attori coinvolti nei processi relativi ai due casi di studio e da una ricerca etnografica di osservazione partecipante.
Resumo:
Un problema frequente nell'analisi dei dati del mondo reale è quello di lavorare con dati "non coerenti", poiché raccolti a tempi asincroni o a causa di una successiva modifica "manuale" per ragioni che esulano da quelle matematiche. In particolare l'indagine dell'elaborato nasce da motivazioni di tipo finanziario, dove strumenti semplici come le matrici di correlazione, che sono utilizzate per capire le relazioni tra vari titoli o strategie, non rispettano delle caratteristiche cruciali a causa dell'incoerenza dei dati. A partire da queste matrici "invalide" si cerca la matrice di correlazione più vicina in norma, in modo da mantenere più informazioni originali possibili. Caratterizzando la soluzione del problema tramite analisi convessa, si utilizza il metodo delle proiezioni alternate, largamente utilizzato per la sua flessibilità anche se penalizzato dalla velocità di convergenza lineare. Viene quindi proposto l'utilizzo dell'accelerazione di Anderson, una tecnica per accelerare la convergenza dei metodi di punto fisso che, applicata al metodo di proiezione alternata, porta significativi miglioramenti in termini di tempo computazionale e numero di iterazioni. Si mostra inoltre come, nel caso di varianti del problema, l'applicazione dell'accelerazione di Anderson abbia un effetto maggiore rispetto al caso del problema "classico".
Resumo:
La maggior parte della rete viaria nazionale ha superato i 50 anni di vita, essendo stata progettata tra il dopo guerra e i primi anni ’70. Di conseguenza, le infrastrutture come ad esempio ponti e viadotti sono caratterizzate da un generalizzato stato di degrado. Nell’ottica delle verifiche di sicurezza delle opere in C.A.P. esistenti, quindi, conoscere la precompressione residua di un determinato elemento, con un certo grado di affidabilità, permette di valutare la necessità di intervento o meno sullo stesso. Tra le tecniche diagnostiche in maggior diffusione vi è quella del rilascio tensionale, che consiste nello stimare l’attuale stato di precompressione agente su specifiche sezioni di elementi precompressi a partire dal rilascio di deformazione di precompressione, agente sul calcestruzzo, isolandone una porzione tramite una serie di tagli fino al raggiungimento del completo rilascio. Esistono varie tecniche di rilascio tensionale ma nella letteratura scientifica non esiste ancora una robusta validazione di questi metodi dal punto di vista dell’affidabilità e dell’accuratezza. In questo lavoro di tesi sono state affrontate due tecniche, riconducibili a due macrogruppi di metodi di misura: metodo tramite la realizzazione di tagli inclinati o perpendicolari rispetto alla superficie del manufatto in calcestruzzo, al fine di estrarre un provino tronco piramidale; metodo tramite l’estrazione di una carota perpendicolare alla superficie del manufatto in calcestruzzo. L’obiettivo prefissato era la valutazione delle prove in termini di attendibilità dei risultati con, inoltre, una particolare attenzione all’invasività nei confronti della struttura e alla ripetibilità in situ. Per il lavoro di tesi sono state realizzate 10 colonne in cemento armato (C.A.) a cui, al fine di simulare uno stato di precompressione, è stata applicata una tensione nota di compressione per poi procedere con le prove di rilascio tensionale tramite i metodi considerati.
Resumo:
La malattia di Parkinson, seconda tra le malattie degenerative più comuni, ha basato per anni la diagnosi e le valutazioni terapeutiche su scale di misura soggettive, di modesta accuratezza e limitate all’utilizzo clinico. Per questo motivo, alla luce di nuove tecnologie emergenti ed efficaci, questa tesi si propone di analizzare lo stato dell’arte dei dispositivi indossabili per la ricerca sul Parkinson e i suoi disturbi. Dopo una breve introduzione, la narrazione prende avvio, nel primo capitolo, con la descrizione della malattia seguita dai trattamenti curativi più utilizzati. Nel secondo capitolo verranno trattati i metodi di diagnosi, a partire dalle scale di valutazione qualitative per poi proseguire con una breve rassegna dei componenti e dei nuovi sensori utilizzabili per ottenere misurazioni quantitative. Questa descrizione sarà fondamentale per poter comprendere il funzionamento dei dispositivi che verranno successivamente citati. Il terzo capitolo si focalizza sulla sintomatologia del Parkinson e sulla rassegna dei dispositivi innovativi destinati alla diagnosi, al monitoraggio e alla cura, partendo dai sintomi motori più comuni ed evidenti, fino ad arrivare alle manifestazioni non motorie silenziose e subdole. Infine, la tesi si focalizzerà in particolar modo sul sonno. Dopo un’analisi della struttura del sonno, si tratteranno le metodiche più utilizzate fino ad oggi per lo studio dei disturbi notturni. Successivamente si proporranno alcuni nuovi dispositivi indossabili innovativi e li si metterà a confronto con i metodi tradizionali per analizzarne le potenzialità, gli svantaggi e i possibili sviluppi futuri. La tesi, nel suo complesso, si pone l’obiettivo di illustrare come, nella ricerca sul Parkinson, lo sviluppo di nuove tecnologie indossabili possa rappresentare un punto di svolta e di sostegno per la valutazione, la diagnosi, la cura della malattia per i clinici, i pazienti e chi se ne prende cura.
Specifiche generali dei biomateriali di interesse per l'ingegneria dei tessuti del distretto uterino
Resumo:
Lo scopo di questa trattazione è quello di fornire una panoramica sui metodi di ingegnerizzazione dell’utero ad oggi sperimentati. L’obiettivo degli studi qui analizzati è quello di creare in vitro uno scaffold per l’utero umano con adeguate caratteristiche strutturali e determinati componenti al fine di permettere ai tessuti vicini di rigenerarsi e per poterne studiare le proprietà in vivo. Gli scaffold analizzati sono a base di collagene, fatti di materiali sintetici o costituiti dalle dECM. Per effettuare la decellularizzazione delle ECM sono stati impiegati detergenti come SDS e Triton X-100 o alta pressione idrostatica. Le impalcature realizzate sono state poi valutate per quanto riguarda le proprietà istologiche, IHC, strutturali e meccaniche e tramite angiografia è stata esaminata la conservazione delle reti vascolari negli scaffold dECM. I risultati hanno confermato l'efficacia del protocollo di decellularizzazione tramite HHP o l’utilizzo combinato di SDS e Triton X-100 per fornire scaffold dell’utero con caratteristiche e componenti della ECM simili all'utero nativo. Per quanto riguarda i materiali sintetici, i polimeri sono risultati particolarmente idonei date le loro caratteristiche, quali elevata porosità e proprietà biomeccaniche regolabili; per i materiali naturali invece, il collagene è stato quello più utilizzato e che ha portato ad ottimi risultati, anche in quanto componente principale dell’ECM. Gli studi in vivo hanno poi dimostrato la biocompatibilità e il potenziale rigenerativo degli scaffold e hanno suggerito un percorso di segnalazione come meccanismo di base per il processo rigenerativo. Tra i vari studi è stato analizzato anche il primo protocollo di decellularizzazione efficiente basato sulla perfusione per ottenere scaffold dell’intero utero umano. I risultati raccolti potrebbero essere impiegati in futuri studi di ingegneria del tessuto uterino umano che potrebbero portare allo sviluppo di nuovi trattamenti per pazienti sterili.
Resumo:
Negli ultimi decenni, il riscaldamento globale, causato dall’emissioni di gas serra in atmosfera, ha spinto i governi ad agire verso una progressiva sostituzione della generazione elettrica da fonte fossile con quella da rinnovabile. La non programmabilità di alcune fonti rinnovabili ha reso necessario l’utilizzo di tecnologie di accumulo dell’energia elettrica. In particolare, la produzione di idrogeno sembra essere una valida soluzione, ma il suo stoccaggio è uno dei principali ostacoli alla sua diffusione. Tra i diversi metodi di stoccaggio, quello più promettente è quello in idruri metallici. Affinché questa tecnologia diventi competitiva, è però necessario migliorare la cinetica della reazione di assorbimento/desorbimento dell’idrogeno nel sito metallico, attraverso una migliore gestione del calore prodotto/richiesto dalla reazione. In questo contesto, la presente tesi ha come obiettivo l’ottimizzazione del processo di carica di bombole agli idruri metallici, situate all’interno di una microgrid per la generazione e l’accumulo di energia da fotovoltaico, attraverso lo sviluppo di un sistema di controllo della temperatura delle bombole, e la realizzazione di prove sperimentali per valutare i reali benefici che esso comporta, in termini di capacità di stoccaggio e velocità di assorbimento dell’idrogeno. Dopo aver presentato il contesto energetico, lo stato dell’arte degli idruri metallici e la microgrid in cui sono situate le bombole, sono state descritte due versioni diverse del sistema ideato: una versione definitiva, che potrà essere realizzata per eventuali studi futuri, e una versione semplificata, che è stata poi realizzata in laboratorio. È stato descritto nel dettaglio il setup sperimentale, realizzato per svolgere le prove sul processo di carica della bombola, e sono stati poi riportati e confrontati i risultati ottenuti nel caso in cui non si è fatto uso del prototipo e quelli ottenuti nel caso in cui viene invece utilizzato per raffreddare la bombola.
Resumo:
Il presente elaborato di tesi tratta della tematica relativa alla razionalizzazione del processo di pianificazione della produzione nell’azienda Schneider Electric Industrie Italia S.p.A. Tale progetto è nato dalla necessità aziendale di avere una schedulazione della produzione più standardizzata a seguito della crisi dei componenti e del loro difficile reperimento, in modo tale da ottenere un piano di produzione che, avviasse la produzione degli ordini producibili e ne monitorasse l’avanzamento con l’obiettivo di restituire ai clienti finali una data di consegna che fosse accurata. Per poter programmare e ottenere una sequenza di produzione ottimizzata si è deciso di applicare ad ogni linea di produzione diverse regole di carico e scegliere lo scenario migliore tra tutti quelli ottenuti. Per decidere quale fosse la schedulazione migliore sono stati calcolati diversi indici di prestazione e come parametro principale di scelta, in accordo con le priorità aziendali, si è data maggior importanza al metodo che fosse in grado di schedulare la produzione riducendo il numero di ordini in ritardo. Come risultato l’aspettativa era quella di trovare una regola di scheduling da poter applicare all’intero reparto di assemblaggio, per contro, a seguito dell’analisi effettuata, si è riscontrato che in funzione del portafoglio ordini specifico di ogni famiglia di prodotto esisteva, per ogni linea, un metodo diverso che andava a migliorare lo scenario attuale, minimizzando il numero di ordini in ritardo. Pertanto, senza congelare il piano di produzione in quanto si andrebbe a ridurre la flessibilità produttiva necessaria per rispondere prontamente ai cambiamenti dinamici del mercato, si è ottenuto che per schedulare la produzione è necessario applicare per ogni linea diversi metodi di scheduling, comparare tra di loro i risultati ottenuti e infine utilizzare quello che, a seconda del portafoglio ordini relativo a quella specifica linea, va migliorare le prestazioni di produzione.
Resumo:
Il rapido sviluppo dell'economia e della tecnologia ha portato rapidi cambiamenti nella vita delle persone. Solo avendo un sonno di alta qualità possiamo dare il meglio ed essere veramente produttivi e produttivi.Invertire giorno e notte, procrastinare il sonno e stare alzati fino a tardi sono diventate abitudini comuni delle persone moderne. Queste cattive abitudini del sonno hanno un impatto sulla salute fisica, sull'efficienza del lavoro e dello studio e sulla vita delle persone. Miatal Tracker è un software di monitoraggio del sonno per i mercati europeo e americano e fornisce anche molti audio per dormire, corsi di meditazione e conoscenze relative al sonno. Durante il mio tirocinio, il team ha scoperto che i nostri prodotti sono meno differenziati da prodotti simili sul mercato. Per aiutare meglio gli utenti a risolvere i problemi di insonnia e migliorare la qualità del sonno, estraiamo metodi di terapia comportamentale dalla CBT-I migliorando così l'insonnia. Basato sulla progettazione della persuasione e della guida, migliora l'esecuzione dei comportamenti target e aiuta gli utenti a formare buone abitudini di sonno. Dal punto di vista del design, vengono studiate le ragioni di questi fenomeni e, combinate con le pertinenti conoscenze di psicologia e scienze comportamentali, viene esplorato come aiutare le abitudini di lavoro e di riposo delle persone. Prendendo questo come un'idea di design, la progettazione di prodotti e software applicativo si basa sulla progettazione del prodotto, integrata da applicazioni software, che combinano abitudini del sonno, prodotti e monitoraggio del sonno per formare un sistema di prodotti di promemoria, simboli e feedback, aiutando gli utenti a formare un buon sistema di prodotti Le abitudini del sonno, attraverso una guida non coercitiva, cambiano gli atteggiamenti e i comportamenti degli utenti verso l'obiettivo di ottenere un sonno di qualità.