1000 resultados para compressibilità edometro sabbia sabbie granulometria limiti di Atterberg
Resumo:
Dall’inizio del XXI secolo, un’importante rivoluzione tecnologica è in corso nel campo delle neuroscienze: l’idea di base è quella di attivare/inibire con la luce un neurone che normalmente non è in grado di rispondere a tale stimolo. Si tratta di un approccio che integra metodi ottici e genetici per controllare l’attività di cellule eccitabili e di circuiti neuronali. La combinazione di metodi ottici con strumenti fotosensibili geneticamente codificati (optogenetica) offre l’opportunità di modulare e monitorare rapidamente un gran numero di eventi neuronali e la capacità di ricreare i modelli fisiologici, spaziali e temporali dell’attività cerebrale. Le tecniche di stimolazione ottica possono rispondere ad alcune delle problematiche legate alla stimolazione elettrica, fornendo una stimolazione più selettiva, una maggiore risoluzione spaziale e una minore invasività del dispositivo, evitando gli artefatti elettrici che complicano le registrazioni dell’attività neuronale elettricamente indotta. Quest’innovazione ha motivato lo sviluppo di nuovi metodi ottici per la fotostimolazione neuronale, tra cui la fotostimolazione neuronale nell’infrarosso, le tecniche di scansione del fascio e di fotostimolazione parallela, ciascuna con i suoi vantaggi e limiti. Questa tesi illustra i principi di funzionamento delle tecniche di fotostimolazione ed il loro utilizzo in optogenetica, presentandone i vantaggi e gli inconvenienti. Infine, nell’elaborato è presa in considerazione la possibilità di combinare i metodi di fotostimolazione con approcci di imaging ottico funzionale innovativi per un’indagine più ampia, mirata e completa del circuito neuronale. Sebbene siano necessari ulteriori studi, le tecniche di fotostimolazione in optogenetica sono quindi molto promettenti per la comprensione dei disturbi neuronali, svelando la codifica neurale e facilitando nuovi interventi per la diagnosi e terapia di malattie neurologiche.
Resumo:
Il presente lavoro di Tesi Magistrale nasce dall’esigenza di trovare soluzioni alle problematiche legate alla produzione e smaltimento delle plastiche, prevalentemente provenienti dal packaging alimentare. Una delle strategie maggiormente utilizzate in alternativa all’accumulo in discarica, è il riciclo. Questa soluzione ha però alcuni limiti: basse performance rispetto al materiale vergine e costi di processo troppo elevati a causa dei problemi di contaminazione e delle strutture multistrato. Alla luce di ciò, la ricerca scientifica si è orientata verso nuovi approcci come la sintesi di bioplastiche compostabili. Il poli(butilene furanoato) (PBF), è un buon candidato come materiale plastico per il packaging alimentare, ma possiede scarse caratteristiche di biodegradabilità e proprietà meccaniche non adeguate all’imballaggio flessibile. Per superare tali limitazioni, è stata messa a punto la sintesi di un nuovo poliestere, il poli(dietilene furanoato) (PDEF), un polimero biobased che si differenzia dal PBF per la presenza di un atomo di ossigeno etereo nella sub-unità glicolica. I due polimeri sono stati sottoposti ad una completa caratterizzazione chimico-fisica, con lo scopo di valutare l’effetto dell’introduzione di ossigeni eterei lungo la catena polimerica sulle proprietà finali del materiale. Oltre alla caratterizzazione molecolare e strutturale, è stato studiato anche il comportamento termico, la risposta meccanica e la permeabilità a diversi tipi di gas oltre che le caratteristiche di compostabilità. I risultati ottenuti hanno mostrato come nel PDEF vi sia un netto miglioramento delle proprietà non idonee per applicazioni nel packaging flessibile del PBF, in particolare quelle meccaniche, insieme a un ulteriore potenziamento delle già buone proprietà barriera. Inoltre, aspetto di fondamentale importanza nell’ottica della realizzazione di un materiale ecosostenibile, il PDEF mostra una velocità di degradazione in compost eccezionalmente elevata.
Resumo:
Grazie agli sviluppi delle nanotecnologie biomedicali nell’ambito del rilascio controllato di farmaci e dell’ingegneria tissutale, sta diventando sempre più concreta la possibilità di superare i principali limiti della medicina tradizionale, basata nel primo caso su somministrazioni ripetute e a livello sistemico di principio attivo, e nel secondo caso sul trapianto (con relativi problemi di rigetto e carenza di donatori) e su trattamenti farmacologici non risolutivi. Tramite lo studio dei biomateriali e delle loro proprietà è invece possibile realizzare soluzioni ad hoc per l’ingegneria tissutale e per il rilascio controllato e mirato di farmaco. Nel presente studio, sono stati realizzati, mediante elettrofilatura, scaffolds a partire da blend fisiche di poli(butilene succinato) (PBS) e cheratina, a diversa composizione. Il primo è un polimero sintetico biocompatibile e approvato dalla Food and Drug Administration, con buone resistenza meccanica e lavorabilità, ma tempi di degradazione piuttosto lenti, a differenza della cheratina, polimero naturale, che risulta troppo rigido e difficile da processare, ma con buoni tempi di degradazione ed un’ottima biocompatibilità. Le blend sono state sottoposte a studi di miscibilità, mentre sui tappetini elettrofilati è stata effettuata una caratterizzazione morfologica, termica e meccanica. Inoltre, in vista di possibili applicazioni nell’ambito dell’ingegneria tissutale e del rilascio controllato di farmaco, si sono svolti anche test di biodegradazione in ambiente enzimatico e prove di biocompatibilità in vitro, nel primo caso, e studi di rilascio di diclofenac, comune antinfiammatorio, e test di adesione alla pelle, nel secondo caso. In conclusione, ogni tipo di indagine, seppur preliminare, ha comprovato che l’unione tra il PBS e la cheratina ha dato vita a nuove miscele facilmente processabili per potenziali utilizzi in due ambiti biomedicali di particolare interesse applicativo.
Resumo:
I rifiuti plastici, oggigiorno, rappresentano una grande minaccia per l’ambiente, per gli ecosistemi e per la salute umana, tanto da essere al centro della attenzione di numerosi studi. La preoccupazione maggiore è destata dalle microplastiche (frammenti di dimensioni inferiori ai 5 mm) che per la loro dimensione, la loro ubiquità e la loro lunga persistenza in ambiente possono interferire in maniera allarmante con gli organismi viventi. L’ampia gamma di dimensioni delle microplastiche e la natura complessa delle loro forme, colori e tipi di polimero hanno impedito ai ricercatori di sviluppare una classificazione coerente data anche dall'attuale assenza di una standardizzazione nel metodo di campionamento, preparazione e analisi del campione. Infatti lo studio di questa tipologia di inquinanti può essere effettuato mediante diverse metodologie analitiche sia di tipo spettroscopico che termico. Con questo studio si è cercato di valutare le potenzialità della pirolisi analitica (PyGCMS) per la quantificazione e identificazione di sei polimeri: PE, PP, PS, PET, PVC e PA. Tramite un attento confronto con la letteratura sono stati identificati alcuni punti critici nell'analisi quantitativa di alcuni polimeri in miscela. In particolare, la miscela PET/PA è risultata essere soggetta a grandi interferenze date dalla comparsa di prodotti pirolitici secondari che ne impediscono una corretta quantificazione. Inoltre un diverso rapporto dei polimeri nella miscela binaria va a modificare la risposta quantitativa rendendola non prevedibile. L’uso di derivatizzanti come agenti metilanti sembra ridurre alcuni effetti di interazione in pirolisi, ma non sembra essere così vantaggioso come riportato in altri studi. Complessivamente la pirolisi analitica risulta una tecnica applicabile alla identificazione e quantificazione delle microplastiche, ma emerge dallo studio una scarsa conoscenza in letteratura delle interazioni in fase pirolitica tra prodotti di pirolisi di diversi polimeri.
Resumo:
L'abbandono del cliente, ossia il customer churn, si riferisce a quando un cliente cessa il suo rapporto con l'azienda. In genere, le aziende considerano un cliente come perso quando un determinato periodo di tempo è trascorso dall'ultima interazione del cliente con i servizi dell'azienda. La riduzione del tasso di abbandono è quindi un obiettivo di business chiave per ogni attività. Per riuscire a trattenere i clienti che stanno per abbandonare l'azienda, è necessario: prevedere in anticipo quali clienti abbandoneranno; sapere quali azioni di marketing avranno maggiore impatto sulla fidelizzazione di ogni particolare cliente. L'obiettivo della tesi è lo studio e l'implementazione di un sistema di previsione dell'abbandono dei clienti in una catena di palestre: il sistema è realizzato per conto di Technogym, azienda leader nel mercato del fitness. Technogym offre già un servizio di previsione del rischio di abbandono basato su regole statiche. Tale servizio offre risultati accettabili ma è un sistema che non si adatta automaticamente al variare delle caratteristiche dei clienti nel tempo. Con questa tesi si sono sfruttate le potenzialità offerte dalle tecnologie di apprendimento automatico, per cercare di far fronte ai limiti del sistema storicamente utilizzato dall'azienda. Il lavoro di tesi ha previsto tre macro-fasi: la prima fase è la comprensione e l'analisi del sistema storico, con lo scopo di capire la struttura dei dati, di migliorarne la qualità e di approfondirne tramite analisi statistiche il contenuto informativo in relazione alle features definite dagli algoritmi di apprendimento automatico. La seconda fase ha previsto lo studio, la definizione e la realizzazione di due modelli di ML basati sulle stesse features ma utilizzando due tecnologie differenti: Random Forest Classifier e il servizio AutoML Tables di Google. La terza fase si è concentrata su una valutazione comparativa delle performance dei modelli di ML rispetto al sistema storico.
Resumo:
Questa tesi sostiene l'efficacia delle immagini satellitari per monitorare e valutare lo stato di conservazione dei siti archeologici soggetti a minacce antropiche, facendo riferimento alla situazione di crisi che è in atto in Siria a causa della guerra civile. Sono descritti nello specifico i vantaggi e i limiti del loro uso per riconoscere e seguire l’evoluzione dei saccheggi e delle altre forme di danno: in particolare vengono valutati i danni presenti su 68 tell pre-classici situati nel nord della Siria. È stato utilizzato un approccio foto interpretativo mediante il software QGIS, confrontando immagini satellitari provenienti da piattaforme open source quali Google, Bing, Esri con immagini d’archivio risalenti al 2010. Sono state effettuate diverse analisi volte a mappare la distribuzione dei danni sul territorio e stimarne l’incremento avvenuto tra il 2014 e il 2019, sottolineando l’impatto della militarizzazione e degli scavi clandestini. Sono state inoltre acquistate due immagini ad altissima risoluzione del satellite WorldView-2 per fare un riconoscimento semiautomatico dei cambiamenti avvenuti dal 2010 al 2020 su due dei tell appartenenti all’area di indagine, attraverso l’uso del software ENVI: dopo avere eseguito le opportune correzioni geometriche e atmosferiche è stata effettuata l’analisi delle componenti principali (PCA) ottenendo due immagini raster nelle quali vengono evidenziate le fosse di saccheggio e i danni compiuti sopra i due tell. Questo approccio ha consentito di individuare con maggiore chiarezza le caratteristiche che non erano altrettanto ben visibili nelle immagini rese disponibili dalle fonti open source. I risultati ottenuti dimostrano l’importanza delle immagini satellitari che rappresentano una fonte oggettiva di informazioni per avere una stima dei danni al suolo e possono aiutare le autorità competenti a prendere le misure necessarie per prevenire un'ulteriore diffusione del saccheggio e delle altre forme di danno.
Resumo:
Le microplastiche (MP) rientrano nella categoria di contaminanti emergenti per la loro pericolosità e persistenza nell'ecosistema. Gli impianti di trattamento acque sono identificati come una fonte principale di MP per l’ambiente. A causa della mancanza di metodi di separazione standard per le MP da fanghi ed acque reflue, nel presente lavoro sperimentale, sono testati diversi metodi di separazione delle MP da campioni di fanghi e acque di due impianti reali. Tramite analisi allo stereomicroscopio e identificazione della struttura polimerica mediante spettroscopia infrarossa in riflettanza totale attenuata (FTIR-ATR) si sono ottenute delle prime stime sulle quantità di MP all’interno dei depuratori che andranno vagliate con successive prove. In generale c’è una grande variabilità associata al punto di prelievo, al periodo di campionamento e alle caratteristiche del refluo. I dati sperimentali confermano la presenza di MP sia nelle acque che nei fanghi. Per la linea acque sono esaminati un trattamento convenzionale a fanghi attivi di un piccolo impianto (1) e un trattamento terziario di filtrazione a sabbia con peracetico e UV di un impianto di potenzialità superiore (2). Seppure le efficienze di rimozione siano alte (93,37% per l’impianto 1 e 59,80% per il 2), i carichi di MP rilasciati in ambiente sono elevati a causa delle portate trattate. Il fatto che MP della stessa morfologia e colore si ritrovino in setacci di differenti dimensioni e che le concentrazioni aumentino al diminuire della dimensione, suggerisce che subiscano svariate frammentazioni a monte del campionamento. Per i fanghi sono testati 3 metodi di pretrattamento individuando il migliore in quello con pre-digestione con H2O2 e separazione per densità con NaI che verrà in seguito implementata. Nei fanghi tendono a concentrarsi le MP rimosse dalla linea acque che di solito sono quelle di densità maggiore, infatti si riscontra prevalenza di microparticelle.
Resumo:
Il problema del rumore derivante dai volumi di traffico sempre crescente richiede la ricerca di svariate soluzioni, tra cui l'installazione di barriere di sicurezza e antirumore, definite anche integrate. La tesi, svolta in collaborazione con Piacentini Ingegneri srl, dopo un primo inquadramento del problema dei livelli di rumore eccessivi e dei limiti imposti da normativa, descrive le possibili soluzioni trovate nel tempo e in corso di ricerca. Vengono dunque descritte nel dettaglio le barriere integrate, specialmente quelle trovate nei tratti autostradali di Genova e Milano nel corso del tirocinio svolto presso Piacentini Ingegneri srl. È stata eseguita una modellazione FEM delle barriere Integauto-s e diverse prove sperimentali sui new jersey e sulle opere di supporto alle barriere (pull-out, carotaggi, prove a trazione, ecc). Dai certificati delle prove si ricavano i parametri di resistenza degli elementi (barriera e cordoli di sostegno) grazie ai quali, in aggiunta alla documentazione originale fornita da Autostrade per l'Italia, si raggiunge il Livello di Conoscenza accurato, il massimo possibile: LC3. Ciò è indispensabile per rispettare la procedura per il rialzamento delle barriere integrate concordate tra le 2 società sopracitate. Quindi, si procede con le verifiche delle barriere e delle opere di supporto alle barriere (cordolo su terreno, cordolo con micropali o pali, cordolo su opera d'arte esistente, pile da ponte). L'intera tesi è finalizzata alla definizione delle altezze delle barriere integrate, in quanto per motivi di sicurezza erano state abbassate. I calcoli strutturali, la modellazione FEM e le prove condotte hanno portato alla conoscenza massima possibile delle seguenti barriere: Integauto-s, NJBP C1.2 Martellona, e NJBP Ecotecnica (trovate nei tratti autostradali oggetto di rialzamento).
Resumo:
Data la pervasività dell’elettronica nella vita moderna, sempre più interesse è stato posto nelle applicazioni di localizzazione. In ambienti indoor e outdoor, dove sono richieste precisioni dell’ordine delle decine di centimetri, i classici servizi GNSS non sono applicabili. Una tecnologia promettente è quella a banda ultra-larga (UWB), affermata recentemente sul mercato. Un’alternativa potrebbe essere l’utilizzo di sensori ottici con marker di riferimento, però la presenza di fumo e idrometeore presenti nell’ambiente potrebbero andare ad oscurare i marker, rendendo impossibile la localizzazione. Lo scopo della tesi è volto a studiare un sistema di localizzazione UWB, progettato dall’Università di Bologna, ora sviluppato e commercializzato, in un’applicazione robotica. In particolare, l’idea è quella di porre il sistema di localizzazione sopra un elemento mobile, per esempio nella parte terminale di un braccio meccanico, al fine di localizzare un oggetto dotato di nodo UWB, ricavando dinamicamente la posizione relativa tra il braccio e l’oggetto. La tesi si concentra inizialmente a livello teorico sulle caratteristiche delle principali tecnologie coinvolte, in particolare i sistemi UWB e il filtraggio Bayesiano, per poi trattare i limiti teorici della localizzazione, nei concetti di Cramér-Rao lower bound (CRLB) e geometric dilution of precision (GDOP). Da questi, si motiva l’utilizzo della tecnica two-way ranging (TWR) come principio di raccolta delle misure per la localizzazione, per poi ricavare le curve teoriche dell’errore di localizzazione, tenendo conto dei limiti geometrici imposti, utilizzate come riferimento per l’analisi dell’errore ottenuto con il sistema reale. La tecnologia viene testata in tre campagne di misura. Nelle prime due si osserva la presenza di un piano metallico parallelo alla direzione di propagazione, per esaminare gli effetti delle riflessioni sulla localizzazione, mentre nella terza campagna si considera la presenza di acqua dolce.
Resumo:
Dagli anni '40, la produzione di materiali plastici è aumentata in modo esponenziale. La loro versatilità, resistenza ed economicità li hanno resi accessibili globalmente. Questi vantaggi hanno comportato però molti danni a ecosistemi e specie marine, tra cui anche Caretta caretta. Recenti studi hanno dimostrato, ad esempio, la capacità delle microplastiche di influenzare negativamente l’ambiente di incubazione delle uova, causando impatti sullo sviluppo embrionale e sul successo di schiusa. I metalli pesanti svolgono un ruolo chiave nella contaminazione oceanica poiché molto stabili e non biodegradabili. Gli organismi non riescono quindi a eliminarli, ma tendono ad accumularli nei tessuti, determinando conseguentemente il loro inserimento nella catena trofica. Recentemente, l'analisi di campioni di sangue di esemplari vivi di tartaruga marina ha consentito di studiare le loro potenziali implicazioni sulla salute e sul successo riproduttivo delle popolazioni. Tuttavia, poche informazioni sono ancora disponibili sull'esposizione delle uova ai metalli e sul trasferimento di questi dalla madre all'embrione. In questo lavoro di tesi si è andati quindi a verificare i livelli di esposizione ai metalli pesanti, mediante l’analisi all’ICP-OES delle uova, e i livelli di esposizione alle microplastiche, grazie a un nuovo metodo basato sul principio della flottazione della densità applicato sui campioni di sabbia, nei nidi di C. caretta rinvenuti durante la stagione di deposizione 2021 lungo la costa ionica della provincia di Catanzaro. Successivamente è stata valutata la correlazione tra i livelli di esposizione e il successo di schiusa della specie: i risultati ottenuti hanno permesso di affermare che per le concentrazioni dei metalli si ha una correlazione negativa (p=0,022) tra il contenuto di Pb in tuorlo e albume combinati e il successo di schiusa registrato nei nidi presi in analisi, mentre ciò non è stato possibile per le concentrazioni delle microplastiche.
Resumo:
L’elaborato affronta il tema della massiccia diffusione di disinformazione tramite internet sotto il profilo del diritto costituzionale, nell’ottica di indagare se le dimensioni del fenomeno richiedano l’elaborazione di principi e soluzioni nuove ovvero se i paradigmi costituzionali enucleati dalla tradizione costituzionalistica con riferimento alla libertà d’espressione forniscano gli strumenti sufficienti per un intervento efficace. In tale ottica, il lavoro premette una ricostruzione del fenomeno della disinformazione nel tentativo di individuare il perimetro socio-cognitivo e tecnologico entro cui la medesima prolifera, descrivendo gli elementi che distinguono l’informazione diffusa dai nuovi media rispetto a quella veicolata dai media mainstream. Ciò premesso, lo studio passa a delineare lo “statuto costituzionale” del falso, indagando la rilevanza che la menzogna assume sotto il profilo costituzionale nel suo rapporto con la libertà di manifestazione del pensiero negli ordinamenti interno, europeo e statunitense. L’analisi prosegue poi con l’esame delle politiche di contrasto alla disinformazione introdotte da singoli Stati (prevalentemente Germania, Francia e Italia), Unione europea, e piattaforme, con l’obiettivo di mettere in luce vantaggi e limiti dei modelli di eteroregolamentazione, coregolamentazione e autoregolamentazione. Da ultimo, l’elaborato scompone alcune delle azioni e misure passate in rassegna e le analizza con la lente d’ingrandimento della libertà di manifestazione del pensiero, ordinandone i contenuti secondo la specifica propensione a comprimere la libertà d’espressione. L’indagine si conclude con alcuni brevi spunti conclusivi che evidenziano l’esigenza, in base ai principi costituzionali analizzati, che eventuali interventi normativi siano se del caso volti alla regolazione delle piattaforme, ovvero dei “contenitori”, lasciano i contenuti al libero scambio delle idee.
Resumo:
Le neoplasie cutanee di tipo non-melanoma (non-melanoma skin cancers, NMSCs), quali il carcinoma a cellule basali (basal cell carcinoma, BCC) e il carcinoma a cellule squamose (squamous cell carcinoma, SCC) possono mostrare invasività locale e alto tasso di recidiva. La chirurgia microscopicamente controllata di Mohs (Mohs micrographic surgery, MMS) permette di eseguire una valutazione istologica immediata dei margini chirurgici delle neoplasie contestualmente alla loro escissione. Nel nostro studio abbiamo valutato del ruolo delle tecnologie in vivo (dermatoscopia e microscopia confocale a riflettanza, MCR) nella definizione dei margini preoperatori di NMSC ad alto rischio del volto e descritto la nostra esperienza con chirurgia tradizionale e MMS. Sono stati valutati 234 pazienti operati nel triennio 2019-2021: 39 con MMS e guida videodermatoscopica (Gruppo 1) e 195 con chirurgia tradizionale e guida videodermatoscopica (Gruppo 2). I pazienti operati nel periodo 2013-2018 (con MMS, Gruppo 3 (n = 241), e con chirurgia tradizionale, Gruppo 4 (n = 1086)) sono stati usati come confronto. La radicalità chirurgica è stata ottenuta nel Gruppo 1 nel 92,3% dei casi, con 1,2 steps in media di MMS (versus 1,7 nel Gruppo 3), nel Gruppo 2 nell’84,5% dei casi. La percentuale di non radicalità è stata: 7,7% nel Gruppo 1, 15,9% nel Gruppo 2, 6,2% nel Gruppo 3, 17,9% nel Gruppo 4. I tassi di recidiva sono stati: 5,1% nel Gruppo 1, 3,6% nel Gruppo 2, 4,1% nel Gruppo 3, 5,9% nel Gruppo 4, soprattutto in BCC di tipo sclerodermiforme e infiltrante. La MCR prechirurgica è stata utilizzata in 11 pazienti, con alcuni limiti nel delineare BCC di tipo sclerodermiforme e infiltrante. In conclusione, la videodermatoscopia e la MCR appaiono valide tecniche ancillari alla MMS e anche alla chirurgia tradizionale nel trattamento dei NMSCs. La MMS appare indicata soprattutto nei pazienti giovani e salvaguarda l’outcome estetico e funzionale.
Resumo:
Il processo di intensificazione dell’allevamento suinicolo ha comportato conseguenze importanti dal punto di vista sanitario. Nei moderni sistemi di produzione la salute è compromessa a causa di malattie multifattoriali e l'identificazione degli agenti casuali di malattia non può basarsi esclusivamente sul risultato di un unico test diagnostico. La maggior parte dei patogeni è ubiquitaria, quindi l'identificazione di un agente infettivo suggerisce solo una possibile diagnosi. La patologia gioca un ruolo chiave nel determinare la causalità nella diagnosi delle malattie infettive. L'istopatologia consente di correlare la presenza dell'agente infettivo con le lesioni microscopiche caratteristiche: in base alla disponibilità di anticorpi o sonde per rilevare rispettivamente la presenza di antigeni o del genoma di virus o batteri nelle sezioni istologiche, l'istopatologia è utile per determinare il nesso causale con la malattia. L'introduzione di questa tesi è incentrata sulla discussione del ruolo della patologia nelle malattie infettive del suino, seguita dalla descrizione del corretto campionamento per l'esame istopatologico nella diagnosi delle malattie respiratorie, enteriche e riproduttive. La sezione sperimentale riporta i risultati delle indagini diagnostiche in patologia suina condotte per definire il ruolo di PCV2 e PRRSV nel complesso delle malattie respiratorie del suino (PRDC)(capitolo 2) e per definire un percorso diagnostico per l'enteropatia proliferativa suina causata da Lawsonia intracellularis ai fini dell'implementazione dell'accuratezza diagnostica (capitolo 3). Il capitolo 4 descrive l'uso dell'istopatologia come componente metodologica essenziale per valutare l'efficacia protettiva dei vaccini negli studi di challenge vaccinazione-infezione. Il capitolo descrive i risultati ottenuti in due successive sperimentazioni per valutare l'efficacia di due vaccini sperimentali per PCV2, il primo formulato con ceppo PCV2b inattivato somministrato a differenti dosi di antigene; il secondo formulato con antigene "Cap" ricombinante non assemblato in particelle simil-virali (VLP).
Resumo:
INTRODUZIONE - La presente ricerca è incentrata sul monitoraggio dell’efficacia dei progetti di Educazione Avventura con adolescenti difficili, in particolare del progetto “Lunghi cammini educativi”. A partire da un’analisi della letteratura sull’educazione esperienziale nature-based e in particolare sull’Adventure Education con adolescenti difficili, è stata progettata una rilevazione empirica attraverso cui sperimentare un metodo di monitoraggio finalizzato a cogliere la dimensione processuale (che nella ricerca nell’ambito resta spesso inesplorata, poiché sono maggiormente diffusi i metodi di monitoraggio cosiddetti “black-box”), utilizzando un sistema integrato di diverse tecniche di rilevazione. Le due principali domande che hanno guidato la ricerca sono state: 1.Quali processi educativi significativi si innescano e possono essere osservati durante l’esperienza? 2.Il metodo dell’intervista camminata, integrato ad altri metodi, è utile per individuare e monitorare questi processi? METODO - Collocandosi all’interno di un framework metodologico qualitativo (influenzato da riflessioni post-qualitative, paradigma delle mobilità e sguardo fenomenologico), la ricerca prende la forma di uno studio di caso singolo con due unità di analisi, e prevede la triangolazione di diversi metodi di raccolta dei dati: analisi documentale; osservazione partecipante nei cammini e nelle riunioni di équipe; interviste (prima, durante, dopo il cammino) con differenti tecniche: camminata, “image-elicited”, tradizionale, online. RISULTATI - L’analisi tematica abduttiva delle interviste e delle osservazioni conferma quanto già evidenziato dalla letteratura circa la centralità della dilatazione del campo d’esperienza e del lavoro su alcune life skills (in particolare, competenze personali e growth mindset). Emergono anche alcuni key findings inattesi: il notevole “peso” dello stile educativo dell’accompagnatore; la “scoperta” del ruolo della quotidianità all’interno dell’esperienza straordinaria; la necessità di consapevolezza riguardo al potenziale educativo dell’ambiente (naturale e/o antropizzato), per una maggiore intenzionalità nelle scelte strategiche di cammino. L’intervista camminata, nonostante alcuni limiti, si conferma come metodo effettivamente utile a cogliere la dimensione processuale, e coerente con il contesto indagato.
Resumo:
L’applicazione del principio di buona fede oggettiva all’attività della pubblica amministrazione, sia contrattuale che provvedimentale, è attualmente fuori discussione, tuttavia i limiti e le modalità attraverso cui questo principio si articola sono ancora oggetto di dibattito dottrinale e giurisprudenziale, in particolare modo per quanto riguarda l’istituto della responsabilità precontrattuale della p.a. Tale ultimo istituto è oggetto di uno specifico approfondimento, che tenterà di analizzare i principali punti cruciali del dibattito: la tutela del legittimo affidamento del privato durante le trattative instaurate con la p.a., la natura giuridica della responsabilità precontrattuale e questioni di stampo più processuale, come il riparto di giurisdizione tra giudice ordinario e amministrativo. Al fine poi di comprendere pienamente le funzioni svolte dal principio di buona fede nell’ambito delle attività pubbliche, sia contrattuali che autoritative, la ricerca si è concentrata anche sulle diverse interpretazioni che gli studiosi del diritto hanno attribuito oggi al giudizio di buona fede, inteso sia come principio civile contrattuale che come nuovo principio amministrativo costituzionalmente orientato. Nel proseguo della dissertazione, infatti, si cerca di valutare l’applicabilità del giudizio di buona fede da un punto di vista interdisciplinare, civile e amministrativo, allo scopo di dimostrare come tale principio sia riuscito lentamente a pervadere anche la materia amministrativa, condizionando in senso garantista non solo il dictum giurisprudenziale, ma anche l’intervento normativo del legislatore.