403 resultados para Salario minimo
Resumo:
In un'epoca in cui l'informatizzazione si diffonde a macchia d'olio in ogni aspetto della vita quotidiana e la possibilità di essere connessi ad internet risulta vitale per aggiornarsi o anche semplicemente per mantenere contatti è possibile e allo stesso tempo necessario cercare di sfruttare la rete nel migliore dei modi in ambito lavorativo, per migliorare i propri prodotti e cercando di offrire all'utente beni e servizi sempre migliori, al passo coi tempi e col pensiero moderno. É in questo ambiente che la connettività si rende necessaria anche nel settore dell'automobile in modo da gestire in maniera efficiente l'enorme quantità di dati scambiati dalle varie sottoparti del sistema il cui compito è quello di supervisionare i componenti elettronici e meccanici. L'obiettivo è quello quindi di centralizzare ed elaborare le informazioni in modo da semplificare ed ottimizzare la gestione del veicoli per ottenere importanti vantaggi dalla fase di test fino a quella di utilizzo, passando per quella di manutenzione. Per questo risulta fondamentale, nell'epoca in cui viviamo, concedere la possibilità al veicolo di interagire con la rete internet in modo da poter sfruttare tutti i vantaggi comunicativi, siano essi con l'ambiente circostante o con persone, che essa prevede. Una volta quindi trovato il modo di interfacciarsi con la rete e sviluppato un software adeguato è fondamentale implementare fisicamente il dispositivo in modo da ottenere un dispositivo altamente integrabile nel sistema veicolo in modo da non alterare in maniera significativa la disposizione dei componenti di base (meccanici, elettrici ed elettronici) dell'automobile elettrica. È in quest'ottica che s'inserisce il progetto di una scheda per una vera e propria telemetria del veicolo elettrico con l'obiettivo di ottenere un sistema ad hoc, ma che mantenga una molteplicità di interfacce che permettano al dispositivo di rimanere aggiornato con l'evoluzione in atto relativa alle tecniche e ai protocolli (standard) di comunicazione permettendo quindi comunicazioni tramite rete ethernet, Wi-Fi o GPRS, cercando anche di sfruttare sistemi di posizionamento come il GPS. Per questo motivo si è cercato di realizzare la scheda seguendo la filosofia dei sistemi embedded, architetture il cui compito è quello di eseguire operazioni molto specifiche spesso con vincoli sull'esecuzione in tempo reale. Questo permette di ridurre al minimo l'hardware in termini di spazio, consumo e costo di realizzazione. Queste dispositivi si sono evoluti recentemente virando sulla creazione di architetture modulari che permettono il riutilizzo delle risorse disponibili; in questo modo si ottengono comunque dispositivi ottimizzati ma in grado di mantenere un certo tipo di flessibilità nello sviluppo delle applicazioni e allargando quindi lo spettro dei possibili impieghi. Secondo questi principi si è cercato quindi di realizzare la scheda in modo che implementasse e realizzasse il software dedicato alla comunicazione del veicolo con internet ma che, grazie all'hardware a disposizione, potesse essere programmata da mani esperte anche per numerosi utilizzi alternativi e resa quindi disponibile all'utente finale in possibili forme. In questo è risultato fondamentale l'utilizzo della piattaforma Arduino, basata sul microcontrollore ATmega328, che permette appunto una rapida espansione fisica del sistema.
Resumo:
Lo scopo di questa tesi di dottorato di ricerca consiste nel fornire la giusta collocazione della manutenzione fra le discipline dell'ingegneria, raccogliendo e formalizzando le metodologie di analisi di affidabilità e di pianificazione degli interventi all'interno di un unico processo di progettazione e di controllo. In linea di principio, un processo di analisi dei guasti e di programmazione della manutenzione deve essere in grado di fornire chiare e sicure risposte ai seguenti interrogativi: Quali sono le funzioni richieste e con quali criteri di prestazioni il sistema è chiamato ad assolverle? Qual'è l'andamento della disponibilità del sistema in funzione del tempo? Quanti guasti e di quale tipo si possono verificare durante la vita del sistema? Quali possono essere le conseguenze che ledono la sicurezza e la protezione ambientale? Quanti pezzi di ricambio sono necessari? Che tipo di interventi di manutenzione preventiva risultano tecnicamente fattibili? A quali scadenze devono essere programmati? A quanto ammonta la previsione del costo di esercizio del sistema? Quante squadre di manutenzione devono essere assegnate al sistema? Come deve essere organizzata la logistica di manutenzione? Con quali tecniche si prevede di riconoscere i guasti e quali procedure devono essere attivate per farvi fronte? E' possibile implementare tecniche di `condition monitoring' delle macchine? Su quali tempi di preavviso sui guasti si può contare? In tal senso, la manutenzione necessita delle tecniche e degli opportuni strumenti che siano in grado di misurarne l'efficacia e l'efficienza. L'efficacia in primo luogo, in quanto l'obiettivo principe consiste nel garantire che il sistema oggetto di studio continui a svolgere le proprie funzioni nei limiti di prestazioni accettabili, secondo le specifiche richieste degli utilizzatori. L'efficienza in secondo luogo, ma non per questo di minore importanza, in quanto perseguendo l'obiettivo di cui sopra, occorre impegnare il minimo di risorse possibili, organizzando con razionalità il supporto logistico del sistema al fine di raggiungere i massimi livelli di rendimento di gestione. La migliore strategia di manutenzione può essere pianificata, a priori, solo se si è in grado di prevedere con la necessaria precisione l'evoluzione del sistema nel suo contesto operativo futuro. E' allora possibile formulare un modello matematico del sistema, studiarne la dinamica ed osservare le reazioni alla simulazione di eventuali stimoli esterni. I metodi ed i modelli noti dell'ingegneria dei sistemi possono essere molto utili per la risoluzione di casi semplici, ma sovente richiedono la formulazione di ipotesi troppo restrittive che aumentano in modo inaccettabile la distanza del modello dalla realtà. Una strada alternativa ed affascinante, che ho percorso con entusiasmo durante questi tre anni di studi e ricerca, consiste nella simulazione numerica della vita del sistema, utilizzando il metodo Monte Carlo per la gestione dei processi stocastici di guasto e per l'esecuzione degli interventi di manutenzione. Ho quindi messo a punto il codice di simulazione RAMSES, perseguendo l'idea di costruire uno strumento di misura dell'efficacia e dell'efficienza di una politica di manutenzione simulata al calcolatore. Nella tesi si presentano i concetti di base dell'ingegneria dei sistemi applicata al caso della manutenzione e si introduce il formalismo della Reliability Centred Maintenance come miglior guida nella pianificazione delle schede di manutenzione. Si introducono le nozioni di base per fornire una struttura solida e corretta alla simulazione numerica dei sistemi riparabili e si presenta il codice RAMSES corredando le informazioni tecniche con i dovuti esempi ed applicazioni pratiche. Si conclude il lavoro, infine, con la presentazione di un modello di massima verosimiglianza particolarmente utile per le analisi dei dati sperimentali di guasto dei componenti.
Resumo:
La tesi di Dottorato studia il flusso sanguigno tramite un codice agli elementi finiti (COMSOL Multiphysics). Nell’arteria è presente un catetere Doppler (in posizione concentrica o decentrata rispetto all’asse di simmetria) o di stenosi di varia forma ed estensione. Le arterie sono solidi cilindrici rigidi, elastici o iperelastici. Le arterie hanno diametri di 6 mm, 5 mm, 4 mm e 2 mm. Il flusso ematico è in regime laminare stazionario e transitorio, ed il sangue è un fluido non-Newtoniano di Casson, modificato secondo la formulazione di Gonzales & Moraga. Le analisi numeriche sono realizzate in domini tridimensionali e bidimensionali, in quest’ultimo caso analizzando l’interazione fluido-strutturale. Nei casi tridimensionali, le arterie (simulazioni fluidodinamiche) sono infinitamente rigide: ricavato il campo di pressione si procede quindi all’analisi strutturale, per determinare le variazioni di sezione e la permanenza del disturbo sul flusso. La portata sanguigna è determinata nei casi tridimensionali con catetere individuando tre valori (massimo, minimo e medio); mentre per i casi 2D e tridimensionali con arterie stenotiche la legge di pressione riproduce l’impulso ematico. La mesh è triangolare (2D) o tetraedrica (3D), infittita alla parete ed a valle dell’ostacolo, per catturare le ricircolazioni. Alla tesi sono allegate due appendici, che studiano con codici CFD la trasmissione del calore in microcanali e l’ evaporazione di gocce d’acqua in sistemi non confinati. La fluidodinamica nei microcanali è analoga all’emodinamica nei capillari. Il metodo Euleriano-Lagrangiano (simulazioni dell’evaporazione) schematizza la natura mista del sangue. La parte inerente ai microcanali analizza il transitorio a seguito dell’applicazione di un flusso termico variabile nel tempo, variando velocità in ingresso e dimensioni del microcanale. L’indagine sull’evaporazione di gocce è un’analisi parametrica in 3D, che esamina il peso del singolo parametro (temperatura esterna, diametro iniziale, umidità relativa, velocità iniziale, coefficiente di diffusione) per individuare quello che influenza maggiormente il fenomeno.
Resumo:
La legge n. 146 del 1990 ha istituito la Commissione di garanzia per l’attuazione della legge sullo sciopero nei servizi pubblici essenziali, un’authority deputata al controllo dell’effettivo bilanciamento del diritto di sciopero con gli altri diritti della persona di rango costituzionale nel caso dei servizi pubblici essenziali. Ad essa spettano alcuni poteri tra di loro eterogenei. Accanto a poteri propulsivi e sanzionatori, essa possiede poteri di tipo normativo. La legge prevede, infatti, che le prestazioni indispensabili e le altre misure necessarie al contemperamento siano determinate da accordi tra il datore di lavoro e le associazioni sindacali, mentre per il lavoro autonomo da codici di autoregolamentazione forniti da ognuna delle categorie interessate. Gli accordi e i codici di autoregolamentazione devono essere, comunque, sottoposti al vaglio della Commissione di garanzia la quale in ultimo stabilisce se essi siano idonei a realizzare il bilanciamento dei diritti in questione. Quando i soggetti indicati dalla legge non provvedano alla redazione dei suddetti atti, la Commissione interviene con l’emanazione di una provvisoria regolamentazione, la quale possiede natura di regolamento, giacchè partecipa dei caratteri della generalità ed astrattezza propri delle norme di legge. In effetti, anche altre authorities possiedono un potere normativo, che si sostanzia alle volte in un regolamento indipendente, altre in un regolamento simile ai regolamenti delegati ed altre al regolamento esecutivo. Poiché la legge n. 146 del 1990 prevede quali siano gli istituti idonei a realizzare il bilanciamento (preavviso, proclamazione scritta, procedure di raffreddamento e conciliazione, intervallo minimo, misure indicative delle prestazioni indispensabili), la provvisoria regolamentazione possiede i caratteri del regolamento esecutivo.
Resumo:
Il core catalitico della DNA polimerasi III, composto dalle tre subunità α, ε e θ, è il complesso minimo responsabile della replicazione del DNA cromosomiale in Escherichia coli. Nell'oloenzima, α ed ε possiedono rispettivamente un'attività 5'-3' polimerasica ed un'attività 3'-5' esonucleasica, mentre θ non ha funzioni enzimatiche. Il presente studio si è concentrato sulle regioni del core che interagiscono direttamente con ε, ovvero θ (interagente all'estremità N-terminale di ε) e il dominio PHP di α (interagente all'estremità C-terminale di ε), delle quali non è stato sinora identificato il ruolo. Al fine di assegnare loro una funzione sono state seguite tre linee di ricerca parallele. Innanzitutto il ruolo di θ è stato studiato utilizzando approcci ex-vivo ed in vivo. I risultati presentati in questo studio mostrano che θ incrementa significativamente la stabilità della subunità ε, intrinsecamente labile. Durante gli esperimenti condotti è stata anche identificata una nuova forma dimerica di ε. Per quanto la funzione del dimero non sia definita, si è dimostrato che esso è attivamente dissociato da θ, che potrebbe quindi fungere da suo regolatore. Inoltre, è stato ritrovato e caratterizzato il primo fenotipo di θ associato alla crescita. Per quanto concerne il dominio PHP, si è dimostrato che esso possiede un'attività pirofosfatasica utilizzando un nuovo saggio, progettato per seguire le cinetiche di reazione catalizzate da enzimi rilascianti fosfato o pirofosfato. L'idrolisi del pirofosfato catalizzata dal PHP è stata dimostrata in grado di sostenere l'attività polimerasica di α in vitro, il che suggerisce il suo possibile ruolo in vivo durante la replicazione del DNA. Infine, è stata messa a punto una nuova procedura per la coespressione e purificazione del complesso α-ε-θ
Resumo:
Negli ultimi anni, parallelamente all’espansione del settore biologico, si è assistito a un crescente interesse per i modelli alternativi di garanzia dell’integrità e della genuinità dei prodotti biologici. Gruppi di piccoli agricoltori di tutto il mondo hanno iniziato a sviluppare approcci alternativi per affrontare i problemi connessi alla certificazione di terza parte. Queste pratiche sono note come Sistemi di Garanzia Partecipativa (PGS). Tali modelli: (i) si basano sugli standard di certificazione biologica dell’IFOAM, (ii) riguardano il complesso dei produttori di una comunità rurale, (iii) comportano l’inclusione di una grande varietà di attori e (iv) hanno lo scopo di ridurre al minimo burocrazia e costi semplificando le procedure di verifica e incorporando un elemento di educazione ambientale e sociale sia per i produttori sia per i consumatori. Gli obiettivi di questo lavoro di ricerca: • descrivere il funzionamento dei sistemi di garanzia partecipativa; • indicare i vantaggi della loro adozione nei Paesi in via di sviluppo e non; • illustrare il caso della Rede Ecovida de Agroecologia (Brasile); • offrire uno spunto di riflessione che riguarda il consumatore e la relativa fiducia nel modello PGS. L’impianto teorico fa riferimento alla Teoria delle Convenzioni. Sulla base del quadro teorico è stato costruito un questionario per i consumatori con lo scopo di testare l’appropriatezza delle ipotesi teoriche. I risultati finali riguardano la stima del livello di conoscenza attuale, la fiducia e la volontà d’acquisto dei prodotti PGS da parte dei consumatori nelle aree considerate. Sulla base di questa ricerca sarà possibile adattare ed esportare il modello empirico in altri paesi che presentano economie diverse per cercare di comprendere il potenziale campo di applicazione dei sistemi di garanzia partecipativa.
Resumo:
Il diritto a un minimo decente di assistenza sanitaria – spesso chiamato, più semplicemente, diritto alla salute – fa parte dei cosiddetti diritti di seconda generazione, cioè quelli che richiedono un impegno attivo da parte dello stato per assicurare ad ogni cittadino la possibilità di una vita dignitosa. Il diritto alla salute si trova enunciato nei più importanti documenti internazionali, a partire dalla Dichiarazione universale dei diritti dell’uomo (1948), e nella maggior parte delle costituzioni nazionali, compresa quella italiana. Tuttavia, nel Sud del mondo, la sua applicazione è ostacolata da un gran numero di fattori (povertà, guerre, corruzione politica, ecc.); cosicché la maggior parte degli esseri umani vive in società prive di un sistema sanitario nazionale, cadendo vittima di malattie facilmente curabili o prevenibili. Per affrontare questo problema, la cooperazione sanitaria internazionale ha sperimentato nel tempo due diverse forme di intervento: una incentrata sulla diffusione dell’assistenza sanitaria di base (come raccomandato dalla Conferenza di Alma-Ata del 1978), l’altra sui cosiddetti “programmi verticali”, i quali agiscono su singole malattie o branche della sanità. Nessuno dei due approcci però ha prodotto i risultati sperati. L’Ong italiana Emergency propone un modello di cooperazione sanitaria per molti aspetti innovativo: esso si fonda su progetti autogestiti e totalmente gratuiti (che vanno dalla pediatria alla chirurgia di guerra alla cardiochirurgia) ed è capace di incidere sul tessuto sociale nel quale si inserisce, fino ad influenzare le scelte politiche delle autorità locali. Solamente intervenendo in un modo simile sui determinanti sociali della salute, sembra possibile migliorare realmente lo stato di salute delle popolazioni più povere e garantire così la prima delle condizioni necessarie perché ogni persona abbia la possibilità di vivere una vita decente.
Resumo:
Over the past years fruit and vegetable industry has become interested in the application of both osmotic dehydration and vacuum impregnation as mild technologies because of their low temperature and energy requirements. Osmotic dehydration is a partial dewatering process by immersion of cellular tissue in hypertonic solution. The diffusion of water from the vegetable tissue to the solution is usually accompanied by the simultaneous solutes counter-diffusion into the tissue. Vacuum impregnation is a unit operation in which porous products are immersed in a solution and subjected to a two-steps pressure change. The first step (vacuum increase) consists of the reduction of the pressure in a solid-liquid system and the gas in the product pores is expanded, partially flowing out. When the atmospheric pressure is restored (second step), the residual gas in the pores compresses and the external liquid flows into the pores. This unit operation allows introducing specific solutes in the tissue, e.g. antioxidants, pH regulators, preservatives, cryoprotectancts. Fruit and vegetable interact dynamically with the environment and the present study attempts to enhance our understanding on the structural, physico-chemical and metabolic changes of plant tissues upon the application of technological processes (osmotic dehydration and vacuum impregnation), by following a multianalytical approach. Macro (low-frequency nuclear magnetic resonance), micro (light microscopy) and ultrastructural (transmission electron microscopy) measurements combined with textural and differential scanning calorimetry analysis allowed evaluating the effects of individual osmotic dehydration or vacuum impregnation processes on (i) the interaction between air and liquid in real plant tissues, (ii) the plant tissue water state and (iii) the cell compartments. Isothermal calorimetry, respiration and photosynthesis determinations led to investigate the metabolic changes upon the application of osmotic dehydration or vacuum impregnation. The proposed multianalytical approach should enable both better designs of processing technologies and estimations of their effects on tissue.
Resumo:
La chirurgia con ultrasuoni focalizzati guidati da MRI (MR-g-FUS) è un trattamento di minima invasività, guidato dal più sofisticato strumento di imaging a disposizione, che utilizza a scopo diagnostico e terapeutico forme di energia non ionizzante. Le sue caratteristiche portano a pensare un suo possibile e promettente utilizzo in numerose aree della patologia umana, in particolare scheletrica. L'osteoma osteoide affligge frequentemente pazienti di giovane età, è una patologia benigna, con origine ed evoluzione non chiare, e trova nella termoablazione con radiofrequenza continua sotto guida CT (CT-g-RFA) il suo trattamento di elezione. Questo lavoro ha valutato l’efficacia, gli effetti e la sicurezza del trattamento dell’osteoma osteoide con MR-g-FUS. Sono stati presi in considerazione pazienti arruolati per MR-g-FUS e, come gruppo di controllo, pazienti sottoposti a CT-g-RFA, che hanno raggiunto un follow-up minimo di 18 mesi (rispettivamente 6 e 24 pazienti). Due pazienti erano stati esclusi dal trattamento MR-g-FUS per claustrofobia (2/8). Tutti i trattamenti sono stati portati a termine con successo tecnico e clinico. Non sono state registrate complicanze o eventi avversi correlati all’anestesia o alle procedure di trattamento, e tutti i pazienti sono stati dimessi regolarmente dopo 12-24 ore. La durata media dei trattamenti di MR-g-FUS è stata di 40±21 min. Da valori di score VAS pre-trattamento oscillanti tra 6 e 10 (su scala 0-10), i trattamenti hanno condotto tutti i pazienti a VAS 0 (senza integrazioni farmacologiche). Nessun paziente ha manifestato segni di persistenza di malattia o di recidiva al follow-up. Nonostante la neurolisi e la risoluzione dei sintomi, la perfusione del nidus è stata ritrovata ancora presente in oltre il 70% dei casi sottoposti a MR-g-FUS (4/6 pazienti). I risultati derivati da un'analisi estesa a pazienti più recentemente arruolati confermano questi dati. Il trattamento con MR-g-FUS sembra essere efficace e sicuro nel risolvere la sintomatologia dell'osteoma osteoide.
Resumo:
L’organizzazione mondiale della sanità stima che il 10% della popolazione nel mondo presenta una malattia epatica cronica. L’insufficienza epatica fulminante porta alla morte entro novantasei ore in assenza di trapianto. Questa patologia colpisce circa 2500 persone l’anno e il trapianto di fegato è l’unico trattamento efficiente, ma la mancanza di donatori ha causato un elevato tasso di mortalità in pazienti in lista di attesa per l’organo compatibile. Negli ultimi anni è cresciuta sempre più la lista d’attesa per il trapianto, mentre il numero degli innesti disponibili rimane ridotto. Non tutti i pazienti sono candidati al trapianto. Questo tipo di intervento è rischioso e richiede un trattamento d’immunosoppressione per tutta la vita. Si cercano quindi soluzioni sostitutive, ma lo sviluppo di dispositivi efficaci di assistenza epatica rimane uno dei più alti sforzi dell’ingegneria biomedica. Il fegato, infatti, svolge più di 500 funzioni diverse che sono difficili da riprodurre artificialmente. Un dispositivo di assistenza epatica deve sostituire o integrare la funzione epatica quando scende al di sotto della soglia critica del 30% del normale funzionamento. Per garantire il normale funzionamento dell’organismo, la massa di epatociti disponibile in un paziente adulto deve essere approssimativamente di circa 400g. Se questa massa è disponibile si può avere rigenerazione epatica spontanea. Questo spiega la necessità di raggiungere e garantire, comunque, un livello minimo di funzionalità epatica, al di sotto del quale non si ha né rigenerazione di epatociti (impossibilità di ripristinare l’attività metabolica del fegato), né funzionamento di altri organi del corpo, che dipendono dall’attività epatica. La ricerca e lo sviluppo di dispositivi di assistenza epatica è tesa al raggiungimento e al mantenimento della soglia minima di funzionalità; in questo modo si permette al paziente di sopravvivere fino al trapianto, quando questo è l’unica terapia possibile, oppure di poter raggiungere le condizioni di autorigenerazione spontanea nelle patologie meno gravi. La ricerca sui dispositivi di assistenza epatica risale agli anni 50, e sin da allora sono state sviluppate diverse soluzioni, che possiamo distinguere in sistemi meccanici (sistemi non biologici) e sistemi biochimici o biomeccanici (sistemi biologici). I sistemi non biologici possono avere un ruolo nel trattamento di forme specifiche d’insufficienza epatica. L’obiettivo è di fornire purificazione del sangue, ossia rimuovere tutte le sostanze che si accumulano nel sangue durante la disfunzione epatica, causando anomalie neurologiche, lesioni del fegato e di altri organi e inibizione della rigenerazione epatica. I sistemi biologici possono essere utili nel trattamento d’insufficienza epatica, in cui l’obiettivo primario è quello di fornire tutte le funzioni del fegato che sono state compromesse o perse.
Resumo:
in the everyday clinical practice. Having this in mind, the choice of a simple setup would not be enough because, even if the setup is quick and simple, the instrumental assessment would still be in addition to the daily routine. The will to overcome this limit has led to the idea of instrumenting already existing and widely used functional tests. In this way the sensor based assessment becomes an integral part of the clinical assessment. Reliable and validated signal processing methods have been successfully implemented in Personal Health Systems based on smartphone technology. At the end of this research project there is evidence that such solution can really and easily used in clinical practice in both supervised and unsupervised settings. Smartphone based solution, together or in place of dedicated wearable sensing units, can truly become a pervasive and low-cost means for providing suitable testing solutions for quantitative movement analysis with a clear clinical value, ultimately providing enhanced balance and mobility support to an aging population.
Resumo:
Le lesioni cerebrali possono generare danni permanenti e richiedono trattamenti immediati e a lungo termine. L’ipotermia cerebrale di 1 o 2°C inibisce il rilascio di aminoacidi neuro eccitatori e interrompe la risposta infiammatoria. L'effetto è maggiore se il raffreddamento viene eseguito immediatamente dopo il trauma. Oggi il raffreddamento viene effettuato in ospedale, raramente sul luogo dell’incidente (con ghiaccio). Tale soluzione è ostacolata dall’applicazione dei collari cervicali ed è condizionata dagli effetti a breve termine del ghiaccio. In questo studio è stata effettuata un’analisi di fattibilità di un dispositivo che, alle tecnologie per l’immobilizzazione cervicale, associ l'induzione terapeutica controllata e prolungata di una lieve ipotermia cerebrale (2-3°C), tramite raffreddamento transcutaneo del sangue nelle arterie carotidee. Il lavoro è suddiviso in due fasi: 1) modellizzazione teorica del fenomeno in esame; 2) verifica dei modelli teorici mediante test in vitro. Mediante i modelli numerici, sono state calcolate le temperature e i tempi per produrre un raffreddamento di 3°C. Considerando lo scambio di calore attraverso il collo, i vasi sanguigni e i tessuti cerebrali è stato calcolato un tempo minimo di circa 50 minuti per produrre il ΔT richiesto, con l’applicazione all’esterno del collo di un dispositivo che mantenga la temperatura a 5°C. Per la verifica è stata utilizzata una carotide sintetica ed una in tessuto biologico: queste sono state immerse in un contenitore isolato contenente acqua e connesse ad un simulatore dell’apparato circolatorio. Mantenendo costante la temperatura dell’acqua circolante mediante un termostato, sono stati misurati gli abbassamenti di temperatura nel vaso in funzione di quella esterna applicata. Il raffreddamento dei tessuti è stato realizzato con una cella di Peltier. La verifica dei modelli ha evidenziato un ΔT di -2°C. Il valore è inferiore a quello ipotizzato ma può ritenersi già efficace in ambito clinico e può essere migliorato ottimizzando il sistema di raffreddamento.
Resumo:
La ripresa degli studi sulla manualistica del recupero ha contribuito, attraverso una lettura tecnica vista in prospettiva storica, a diffondere sensibilità conoscitiva e consapevolezza del patrimonio premoderno. Tuttavia l’esigenza di superare il tracciato delineato dall’uso dei manuali di recupero – da molti intesi, semplicisticamente, come cataloghi per soluzioni architettoniche di ripristino e ricostruzione – ha reso indispensabile una riflessione sul reale bisogno di questi strumenti e sulle loro ripercussioni operative. Se i manuali, spesso, esprimono una visione statica e totalizzante dell’edilizia storica, l’atlante dichiara una concezione dinamica e “sempre aperta”, in cui ogni elemento rilevato è caso a sé. L’atlante fa, quindi, riferimento ad una concezione “geografica” in cui la catalogazione non è esaustiva e dogmatica ma, contrariamente, dà luogo ad un repertorio di casi criticamente analizzati nell’ottica della conoscenza e della conservazione. L’obiettivo della ricerca non è consistito, pertanto, nel descrivere la totalità dei caratteri costruttivi e delle loro combinazioni, ma nell’individuare casi singoli che sono letti ed interpretati all’interno del loro contesto storico-costruttivo e che valgono quale monito per un’azione progettuale consapevole, orientata al minimo intervento e alla compatibilità fisico-meccanica, figurativa e filologica. Nello specifico la ricerca, collocata in un riferimento temporale compreso tra il XIII e il XIX secolo, ha approfondito i seguenti caratteri: solai lignei, appartato decorativo in cotto e portali. Attraverso un approccio interdisciplinare lo studio si è proposto di contribuire alla costituzione di una metodologia di ricerca sulle tecniche costruttive storiche, ravvisando nel momento conoscitivo la prima fase del progetto di conservazione. È indiscusso, infatti, il solido legame che esiste tra conoscenza, progetto ed operatività. Solo attraverso la consapevolezza storica e architettonica del manufatto è possibile individuare scelte conservative criticamente vagliate ed operare in funzione della specificità del caso in esame e delle sue reali necessità.
Resumo:
In questa tesi è stato trattato il problema della ricostruzione di immagini di tomografia computerizzata considerando un modello che utilizza la variazione totale come termine di regolarizzazione e la norma 1 come fidelity term (modello TV/L1). Il problema è stato risolto modificando un metodo di minimo alternato utilizzato per il deblurring e denoising di immagini affette da rumore puntuale. Il metodo è stato testato nel caso di rumore gaussiano e geometria fan beam e parallel beam. Infine vengono riportati i risultati ottenuti dalle sperimentazioni.
Resumo:
L'analisi storico-critica delle vicende costruttive risulta di fondamentale importanza per operare sul manufatto edilizio in maniera consapevole. Soltanto interrogando l'edificio si è in grado di comprenderne le singolarità qualitative, la vulnerabilità ed i punti critici, per agire dove necessario con tecniche compatibili e non invasive seguendo il criterio del minimo intervento. Gli interventi progettuali di miglioramento strutturale proposti si pongono a coronamento del percorso conoscitivo di ricerca svolto.