1000 resultados para metodi di autenticazione a chiave pubblica e privata protocollo di Schnorr
Resumo:
Questo studio, che è stato realizzato in collaborazione con Hera, è un'analisi della gestione dei rifiuti a Bologna. La ricerca è stata effettuata su diversi livelli: un livello strategico il cui scopo è quello di identificare nuovi metodi per la raccolta dei rifiuti in funzione delle caratteristiche del territorio della città, un livello analitico che riguarda il miglioramento delle applicazioni informatiche di supporto, e livello ambientale che riguarda il calcolo delle emissioni in atmosfera di veicoli adibiti alla raccolta e al trasporto dei rifiuti. innanzitutto è stato necessario studiare Bologna e lo stato attuale dei servizi di raccolta dei rifiuti. È incrociando questi componenti che in questi ultimi tre anni sono state effettuate modifiche nel settore della gestione dei rifiuti. I capitoli seguenti sono inerenti le applicazioni informatiche a sostegno di tali attività: Siget e Optit. Siget è il programma di gestione del servizio, che attualmente viene utilizzato per tutte le attività connesse alla raccolta di rifiuti. È un programma costituito da moduli diversi, ma di sola la gestione dati. la sperimentazione con Optit ha aggiunto alla gestione dei dati la possibilità di avere tali dati in cartografia e di associare un algoritmo di routing. I dati archiviati in Siget hanno rappresentato il punto di partenza, l'input, e il raggiungimento di tutti punti raccolta l'obiettivo finale. L'ultimo capitolo è relativo allo studio dell'impatto ambientale di questi percorsi di raccolta dei rifiuti. Tale analisi, basata sulla valutazione empirica e sull'implementazione in Excel delle formule del Corinair mostra la fotografia del servizio nel 2010. Su questo aspetto Optit ha fornito il suo valore aggiunto, implementando nell'algoritmo anche le formule per il calcolo delle emissioni.
Resumo:
I crescenti volumi di traffico che interessano le pavimentazioni stradali causano sollecitazioni tensionali di notevole entità che provocano danni permanenti alla sovrastruttura. Tali danni ne riducono la vita utile e comportano elevati costi di manutenzione. Il conglomerato bituminoso è un materiale multifase composto da inerti, bitume e vuoti d'aria. Le proprietà fisiche e le prestazioni della miscela dipendono dalle caratteristiche dell'aggregato, del legante e dalla loro interazione. L’approccio tradizionalmente utilizzato per la modellazione numerica del conglomerato bituminoso si basa su uno studio macroscopico della sua risposta meccanica attraverso modelli costitutivi al continuo che, per loro natura, non considerano la mutua interazione tra le fasi eterogenee che lo compongono ed utilizzano schematizzazioni omogenee equivalenti. Nell’ottica di un’evoluzione di tali metodologie è necessario superare questa semplificazione, considerando il carattere discreto del sistema ed adottando un approccio di tipo microscopico, che consenta di rappresentare i reali processi fisico-meccanici dai quali dipende la risposta macroscopica d’insieme. Nel presente lavoro, dopo una rassegna generale dei principali metodi numerici tradizionalmente impiegati per lo studio del conglomerato bituminoso, viene approfondita la teoria degli Elementi Discreti Particellari (DEM-P), che schematizza il materiale granulare come un insieme di particelle indipendenti che interagiscono tra loro nei punti di reciproco contatto secondo appropriate leggi costitutive. Viene valutata l’influenza della forma e delle dimensioni dell’aggregato sulle caratteristiche macroscopiche (tensione deviatorica massima) e microscopiche (forze di contatto normali e tangenziali, numero di contatti, indice dei vuoti, porosità, addensamento, angolo di attrito interno) della miscela. Ciò è reso possibile dal confronto tra risultati numerici e sperimentali di test triassiali condotti su provini costituiti da tre diverse miscele formate da sfere ed elementi di forma generica.
Resumo:
Obiettivo: Valutare l’accuratezza reciproca dell’ecografia “esperta” e della risonanza magnetica nelle diagnosi prenatale delle anomalie congenite. Materiali e metodi: Sono stati retrospettivamente valutati tutti i casi di malformazioni fetali sottoposte a ecografia “esperta” e risonanza magnetica nel nostro Policlinico da Ottobre 2001 a Ottobre 2012. L’età gestazionale media all’ecografia e alla risonanza magnetica sono state rispettivamente di 28 e 30 settimane. La diagnosi ecografica è stata confrontata con la risonanza e quindi con la diagnosi postnatale. Risultati: sono stati selezionati 383 casi, con diagnosi ecografica o sospetta malformazione fetale “complessa” o anamnesi ostetrica positiva infezioni prenatali, valutati con ecografia “esperta”, risonanza magnetica e completi di follow up. La popolazione di studio include: 196 anomalie del sistema nervoso centrale (51,2%), 73 difetti toracici (19,1%), 20 anomalie dell’area viso-collo (5,2%), 29 malformazioni del tratto gastrointestinale (7,6%), 37 difetti genito-urinari (9,7%) e 28 casi con altra indicazione (7,3%). Una concordanza tra ecografia, risonanza e diagnosi postnatale è stata osservata in 289 casi (75,5%) ed è stata maggiore per le anomalie del sistema nervoso centrale 156/196 casi (79,6%) rispetto ai difetti congeniti degli altri distretti anatomici 133/187 (71,1%). La risonanza ha aggiunto importanti informazioni diagnostiche in 42 casi (11%): 21 anomalie del sistema nervoso centrale, 2 difetti dell’area viso collo, 7 malformazioni toraciche, 6 anomalie del tratto gastrointestinale, 5 dell’apparato genitourinario e 1 caso di sospetta emivertebra lombare. L’ecografia è stata più accurata della risonanza in 15 casi (3,9%). In 37 casi (9,7%) entrambe le tecniche hanno dato esito diverso rispetto agli accertamenti postnatali. Conclusioni: l’ecografia prenatale rimane a tutt’oggi la principale metodica di imaging fetale. In alcuni casi complessi e/o dubbi sia del sistema nervoso centrale sia degli altri distretti anatomici la risonanza può aggiungere informazioni rilevanti.
Resumo:
La diffusione nelle strutture sanitarie di un numero sempre crescente di apparecchiature biomediche e di tecnologie "avanzate" per la diagnosi e la terapia ha radicalmente modificato l'approccio alla cura della salute. Questo processo di "tecnologizzazione" rende evidente la necessità di fare ricorso a competenze specifiche e a strutture organizzative adeguate in modo da garantire un’efficiente e corretta gestione delle tecnologie, sia dal punto di vista tecnico che economico, bisogni a cui da circa 40 anni risponde l’Ingegneria Clinica e i Servizi di Ingegneria Clinica. Nei paesi industrializzati la crescita economica ha permesso di finanziare nuovi investimenti e strutture all'avanguardia dal punto di vista tecnologico, ma d'altra parte il pesante ingresso della tecnologia negli ospedali ha contribuito, insieme ad altri fattori (aumento del tenore di vita, crescente urbanizzazione, invecchiamento della popolazione, ...) a rendere incontrollabile e difficilmente gestibile la spesa sanitaria. A fronte quindi di una distribuzione sempre più vasta ed ormai irrinunciabile di tecnologie biomediche, la struttura sanitaria deve essere in grado di scegliere le appropriate tecnologie e di impiegare correttamente la strumentazione, di garantire la sicurezza dei pazienti e degli operatori, nonché la qualità del servizio erogato e di ridurre e ottimizzare i costi di acquisto e di gestione. Davanti alla necessità di garantire gli stessi servizi con meno risorse è indispensabile utilizzare l’approccio dell’Health Technology Assessment (HTA), ossia la Valutazione delle Tecnologie Sanitarie, sia nell’introduzione di innovazioni sia nella scelta di disinvestire su servizi inappropriati od obsoleti che non aggiungono valore alla tutela della salute dei cittadini. Il seguente elaborato, dopo la definizione e classificazione delle tecnologie sanitarie, un’analisi del mercato di tale settore e delle spesa sanitaria sostenuta dai vari paesi Ocse, pone l’attenzione ai Servizi di Ingegneria Clinica e il ruolo chiave che essi hanno nel garantire efficienza ed economicità grazie anche all’ausilio dei profili HTA per la programmazione degli acquisti in sanità.
Resumo:
La sostituzione di materie prime provenienti da risorse fossili con biomasse rinnovabili, utilizzando un processo a basso impatto ambientale, è una delle più importanti sfide della "Green Chemistry". Allo stesso tempo, la sintesi di resine epossidiche fornisce la chiave per la realizzazione di materiali ad alto valore aggiunto. Tuttavia, ad oggi, il 90% della produzione di resine epossidiche è basato sull'uso di bisfenolo A, che ha effetti di xenoestrogeno, ed epicloridrina, tossica e cancerogena. Su queste basi, è stata individuata una strategia sintetica per la sintesi di prepolimeri innovativi per resine epossidiche, che utilizza come substrato di reazione diidrossibenzeni di origine naturale ed evita l'uso di epicloridrina e altri reagenti tossici o pericolosi. La suddetta strategia sintetica è basata sulla sequenza: allilazione dei diidrossibenzeni - epossidazione dei doppi legami ottenuti. In questa procedura non vengono utilizzati drastiche condizioni di reazione e il solvente è acqua, con una catalisi di trasferimento di fase o, in aggiunte di acetonitrile, in un sistema bifasico. La resa complessiva dei due “step” dipende dalla posizione dei due ossidrili nei diidrossibenzeni. Il reagente che porta la resa massima è l’idrochinone (1,4 diidrossibenzene), che, come riportato in letteratura, permette la formazione di resine epossidiche con proprietà simili alle resine di epicloridrina e bisfenolo A. The substitution of raw materials from fossil fuels with renewable biomass using a low environmental impact process is one of the greatest challenges of the "Green Chemistry". At the same time, the synthesis of epoxy resins provides the key to the realization of high added value materials. However, 90% of the production of epoxy resins is based on the use of bisphenol A, a xenoestrogen, and epichlorohydrin, that is toxic and carcinogenic. On these bases, a synthetic strategy for the synthesis of innovative prepolymers of epoxy resins, that uses dihydroxybenzenes of natural origin as reaction substrates and avoids the use of epichlorohydrin and other toxic or dangerous reagents has been identified. The above synthetic strategy is based on the sequence: allylation of dihydroxybenzenes - epoxidation of the double bonds obtained. In this procedure, drastic reaction conditions are dismissed and the solvent used is water with a phase transfer catalysis or, in addition, acetonitrile in a biphasic system. The overall yield of the two steps depends on the position of the two hydroxyls of the dihydroxybenzenes. The reagent that leads to the highest yield is hydroquinone (1,4 dihydroxybenzene), which, as reported in literature, allows the formation of epoxy resins with similar properties to the resins from bisphenol A and epichlorohydrin.
Resumo:
Il forte incremento della popolazione mondiale, la continua crescita del tenore di vita e del livello di consumi hanno portato negli ultimi decenni ad un enorme aumento della richiesta mondiale di energia. Diviene pertanto fondamentale ricercare nuovi metodi altamente efficienti di produzione, trasporto ed utilizzo di energia, che migliorino la qualità della vita dell’uomo e nello stesso tempo salvaguardino il clima e l’ambiente. Proprio a questo proposito, in questi ultimi anni, vi è un crescente interesse nei riguardi della molecola di idrogeno, H2. Ad oggi è impossibile sostituire i combustibili fossili con l’idrogeno, per motivi prettamente tecnologici (difficoltà nello stoccaggio e nel trasporto) e per motivi legati alla sua produzione. Infatti, l’idrogeno è sì uno degli elementi più presenti in natura, ma non come sostanza gassosa pura bensì in forma combinata, generalmente acqua, quindi per produrlo è necessario rompere il legame con l’elemento con cui è combinato, consumando energia; questo spiega il motivo per cui l’idrogeno viene considerato un vettore di energia e non una fonte di energia. La produzione di idrogeno, o meglio del suo equivalente costituito da un flusso di elettroni e protoni, dall’acqua è un processo che avviene in natura, precisamente nelle cellule vegetali durante la prima fase della fotosintesi clorofilliana. Tale processo mostra l’importanza dei complessi bio-inorganici che vi partecipano, ai quali si ispira la ricerca di nuovi efficienti catalizzatori per la produzione di idrogeno mediante scissione catalitica dell’acqua (water splitting). Una classe di enzimi particolarmente studiata, in quest’ambito, è costituita dalle idrogenasi; la maggior parte di questi enzimi contengono un frame dinucleare Ni-Fe o Fe-Fe. Numerosi gruppi di ricerca sono fortemente impegnati nell’obiettivo di sintetizzare complessi simili a questi enzimi (enzyme mimics), e con prestazioni paragonabili, in modo da produrre idrogeno in modo efficiente e rispettando i principi di sostenibilità ambientale ed economica. Il gruppo di ricerca presso il quale è stato svolto il tirocinio oggetto del presente elaborato si occupa dello studio di complessi metallorganici caratterizzati dalla presenza di un “core” metallico costituito da due atomi di Ferro adiacenti coordinati tra loro mediante leganti a ponte diversamente funzionalizzati. Obiettivo del tirocinio è stato quello di verificare l’efficienza catalitica di alcuni di questi complessi nel promuovere il processo di interconversione H+/H2; per fare ciò, si è fatto ricorso ad un approccio elettrochimico, sfruttando la tecnica della voltammetria ciclica.
Resumo:
A causa delle questioni economiche ed ambientali legate alla sostenibilità dei processi petrolchimici, recentemente l'industria chimica ha focalizzato il proprio interesse nello sviluppo di processi per la produzione di chemicals, che utilizzino materiali di partenza rinnovabili. L'etanolo, prodotto per via fermentativa, sembra essere uno dei bio-building block più promettenti e versatili e può essere utilizzato per numerose applicazioni. È noto da tempo che l’etanolo può reagire su catalizzatori costituiti da ossidi misti con caratteristiche acido-base a dare numerosi composti chimici tra cui acetaldeide, 1,3-butadiene, 1-butanolo e 2-butenale. Nonostante il lungo impiego dell’etanolo nell’industria chimica, il meccanismo di formazione di composti C4 a partire da etanolo è ancora però materia di dibattito. Il meccanismo generalmente accettato si basa sulle seguenti reazioni chiave: deidrogenazione di etanolo ad acetaldeide e condensazione aldolica di due molecole di acetaldeide. Tuttavia in letteratura sono riportate anche altre proposte alternative. In questo lavoro è stato studiato il processo di trasformazione di etanolo su catalizzatori a base di MgO e sistemi misti Mg/SiO, attraverso esperimenti di reattività condotti in un micro-impianto da laboratorio, al fine di fare chiarezza sul meccanismo di formazione di composti C4 a partire da etanolo. In particolare è stato condotto uno studio meccanicistico utilizzando MgO come catalizzatore modello, materiale che possiede esclusivamente proprietà basiche, ritenute essenziali per catalizzare la condensazione di molecole C2. Inoltre, è stata investigata l’influenza delle caratteristiche acido-base del catalizzatore sulla selettività del processo di conversione di etanolo, studiandone la reattività su materiali costituiti da ossidi misti Mg/Si/O, con diverso rapporto atomico tra i due cationi.
Resumo:
Introduzione L’attività fisica moderata seguita da improvvisa interruzione può influenzare le caratteristiche biologiche del tendine. Lo scopo del lavoro è stato quello di valutare l’attività cellulare, le caratteristiche istologiche, istomorfometriche e microstrutturali del tendine patellare e della sua entesi in condizioni di non allenamento (sedentarietà), allenamento ed improvviso arresto dell’attività fisica. E’ stato ipotizzato che un’iniezione peri-tendinea di acido ialuronico nelle settimane successive all’improvviso arresto dell’attività fisica potesse mantenere l’integrità strutturale e biologica del tendine patellare. Materiali e Metodi 24 ratti Sprague Dawley maschi di 8 settimane sono stati suddivisi in tre gruppi, allenati per 10 settimane, fino a 60-80% VO2max. I ratti sono stati suddivisi in tre gruppi: Non Allenati (6), Allenati (6), Disallenati (12). A 6 dei 12 ratti del gruppo Detrained, è stata praticata un’infiltrazione peri-tendinea a nel tendine patellare destro di 300 μl di acido ialuronico, mentre nei rimanenti 6, è stata praticata l’infiltrazione con soluzione fisiologica. I tendini rotulei espiantati sono stati valutati con coltura cellulare, valutazione biologica molecolare, valutazioni morfologiche microstrutturali, proliferazione, conta ed attività cellulare. Risultati I risultati in vitro hanno evidenziato vitalità e conta cellulare simili fra i Gruppi Trained e Detrained-HA con un incremento significativo del metabolismo cellulare rispetto agli altri Gruppi. La cellularità ha mostrato valori maggiori nei Gruppi Non Allenati e Detrained-NaCl ove si è osservata una biosintesi del collagene III superiore ai Gruppi Trained e Detrained-HA. Contrariamente, la produzione di collagene I e II presentava valori maggiori nei Gruppi Trained e Detrained-HA suggerendo una superiore efficienza tessutale e metabolica di questi ultimi. Conclusioni Questi risultati confermano che l’allenamento ed il suo improvviso arresto hanno effetti sulla struttura tendinea patellare di ratto e che l’iniezione peritendinea di acido ialuronico nel periodo di inattività ha effetti significativi su metabolismo cellulare e sul tendine rispetto al trattamento con soluzione fisiologica.
Resumo:
La farmacogenetica fornisce un importante strumento utile alla prescrizione farmacologica, migliorando l’efficacia terapeutica ed evitando le reazioni avverse. Il citocromo P450 gioca un ruolo centrale nel metabolismo di molti farmaci utilizzati nella pratica clinica e il suo polimorfismo genetico spiega in gran parte le differenze interindividuali nella risposta ai farmaci. Con riferimento alla terapia della narcolessia, occorre premettere che la narcolessia con cataplessia è una ipersonnia del Sistema Nervoso Centrale caratterizzata da eccessiva sonnolenza diurna, cataplessia, paralisi del sonno, allucinazioni e sonno notturno disturbato. Il trattamento d’elezione per la narcolessia include stimolanti dopaminergici per la sonnolenza diurna e antidepressivi per la cataplessia, metabolizzati dal sistema P450. Peraltro, poiché studi recenti hanno attestato un’alta prevalenza di disturbi alimentari nei pazienti affetti da narcolessia con cataplessia, è stata ipotizzata una associazione tra il metabolismo ultrarapido del CYP2D6 e i disturbi alimentari. Lo scopo di questa ricerca è di caratterizzare il polimorfismo dei geni CYP2D6, CYP2C9, CYP2C19, CYP3A4, CYP3A5 e ABCB1 coinvolti nel metabolismo e nel trasporto dei farmaci in un campione di 108 pazienti affetti da narcolessia con cataplessia, e valutare il fenotipo metabolizzatore in un sottogruppo di pazienti che mostrano un profilo psicopatologico concordante con la presenza di disturbi alimentari. I risultati hanno mostrato che il fenotipo ultrarapido del CYP2D6 non correla in maniera statisticamente significativa con i disturbi alimentari, di conseguenza il profilo psicopatologico rilevato per questo sottogruppo di pazienti potrebbe essere parte integrante del fenotipo sintomatologico della malattia. I risultati della tipizzazione di tutti i geni analizzati mostrano un’alta frequenza di pazienti con metabolismo intermedio, elemento potenzialmente in grado di influire sulla risposta terapeutica soprattutto in caso di regime politerapico, come nel trattamento della narcolessia. In conclusione, sarebbe auspicabile l’esecuzione del test farmacogenetico in pazienti affetti da narcolessia con cataplessia.
Resumo:
La neuroriabilitazione è un processo attraverso cui individui affetti da patologie neurologiche mirano al conseguimento di un recupero completo o alla realizzazione del loro potenziale ottimale benessere fisico, mentale e sociale. Elementi essenziali per una riabilitazione efficace sono: una valutazione clinica da parte di un team multidisciplinare, un programma riabilitativo mirato e la valutazione dei risultati conseguiti mediante misure scientifiche e clinicamente appropriate. Obiettivo principale di questa tesi è stato sviluppare metodi e strumenti quantitativi per il trattamento e la valutazione motoria di pazienti neurologici. I trattamenti riabilitativi convenzionali richiedono a pazienti neurologici l’esecuzione di esercizi ripetitivi, diminuendo la loro motivazione. La realtà virtuale e i feedback sono in grado di coinvolgerli nel trattamento, permettendo ripetibilità e standardizzazione dei protocolli. È stato sviluppato e valutato uno strumento basato su feedback aumentati per il controllo del tronco. Inoltre, la realtà virtuale permette l’individualizzare il trattamento in base alle esigenze del paziente. Un’applicazione virtuale per la riabilitazione del cammino è stata sviluppata e testata durante un training su pazienti di sclerosi multipla, valutandone fattibilità e accettazione e dimostrando l'efficacia del trattamento. La valutazione quantitativa delle capacità motorie dei pazienti viene effettuata utilizzando sistemi di motion capture. Essendo il loro uso nella pratica clinica limitato, una metodologia per valutare l’oscillazione delle braccia in soggetti parkinsoniani basata su sensori inerziali è stata proposta. Questi sono piccoli, accurati e flessibili ma accumulano errori durante lunghe misurazioni. È stato affrontato questo problema e i risultati suggeriscono che, se il sensore è sul piede e le accelerazioni sono integrate iniziando dalla fase di mid stance, l’errore e le sue conseguenze nella determinazione dei parametri spaziali sono contenuti. Infine, è stata presentata una validazione del Kinect per il tracking del cammino in ambiente virtuale. Risultati preliminari consentono di definire il campo di utilizzo del sensore in riabilitazione.
Resumo:
The quality of fish products is indispensably linked to the freshness of the raw material modulated by appropriate manipulation and storage conditions, specially the storage temperature after catch. The purpose of the research presented in this thesis, which was largely conducted in the context of a research project funded by Italian Ministry of Agricultural, Food and Forestry Policies (MIPAAF), concerned the evaluation of the freshness of farmed and wild fish species, in relation to different storage conditions, under ice (0°C) or at refrigeration temperature (4°C). Several specimens of different species, bogue (Boops boops), red mullet (Mullus barbatus), sea bream (Sparus aurata) and sea bass (Dicentrarchus labrax), during storage, under the different temperature conditions adopted, have been examined. The assessed control parameters were physical (texture, through the use of a dynamometer; visual quality using a computer vision system (CVS)), chemical (through footprint metabolomics 1H-NMR) and sensory (Quality Index Method (QIM). Microbiological determinations were also carried out on the species of hake (Merluccius merluccius). In general obtained results confirmed that the temperature of manipulation/conservation is a key factor in maintaining fish freshness. NMR spectroscopy showed to be able to quantify and evaluate the kinetics for unselected compounds during fish degradation, even a posteriori. This can be suitable for the development of new parameters related to quality and freshness. The development of physical methods, particularly the image analysis performed by computer vision system (CVS), for the evaluation of fish degradation, is very promising. Among CVS parameters, skin colour, presence and distribution of gill mucus, and eye shape modification evidenced a high sensibility for the estimation of fish quality loss, as a function of the adopted storage conditions. Particularly the eye concavity index detected on fish eye showed a high positive correlation with total QIM score.
Resumo:
La regolazione dei sistemi di propulsione a razzo a propellente solido (Solid Rocket Motors) ha da sempre rappresentato una delle principali problematiche legate a questa tipologia di motori. L’assenza di un qualsiasi genere di controllo diretto del processo di combustione del grano solido, fa si che la previsione della balistica interna rappresenti da sempre il principale strumento utilizzato sia per definire in fase di progetto la configurazione ottimale del motore, sia per analizzare le eventuali anomalie riscontrate in ambito sperimentale. Variazioni locali nella struttura del propellente, difettosità interne o eterogeneità nelle condizioni di camera posso dare origine ad alterazioni del rateo locale di combustione del propellente e conseguentemente a profili di pressione e di spinta sperimentali differenti da quelli previsti per via teorica. Molti dei codici attualmente in uso offrono un approccio piuttosto semplificato al problema, facendo per lo più ricorso a fattori correttivi (fattori HUMP) semi-empirici, senza tuttavia andare a ricostruire in maniera più realistica le eterogeneità di prestazione del propellente. Questo lavoro di tesi vuole dunque proporre un nuovo approccio alla previsione numerica delle prestazioni dei sistemi a propellente solido, attraverso la realizzazione di un nuovo codice di simulazione, denominato ROBOOST (ROcket BOOst Simulation Tool). Richiamando concetti e techiche proprie della Computer Grafica, questo nuovo codice è in grado di ricostruire in processo di regressione superficiale del grano in maniera puntuale, attraverso l’utilizzo di una mesh triangolare mobile. Variazioni locali del rateo di combustione posso quindi essere facilmente riprodotte ed il calcolo della balistica interna avviene mediante l’accoppiamento di un modello 0D non-stazionario e di uno 1D quasi-stazionario. L’attività è stata svolta in collaborazione con l’azienda Avio Space Division e il nuovo codice è stato implementato con successo sul motore Zefiro 9.
Resumo:
Il primo studio ha verificato l'affidabilità del software Polimedicus e gli effetti indotti d'allenamento arobico all’intensità del FatMax. 16 soggetti sovrappeso, di circa 40-55anni, sono stati arruolati e sottoposti a un test incrementale fino a raggiungere un RER di 0,95, e da quel momento il carico è stato aumentato di 1 km/ h ogni minuto fino a esaurimento. Successivamente, è stato verificato se i valori estrapolati dal programma erano quelli che si possono verificare durante a un test a carico costante di 1ora. I soggetti dopo 8 settimane di allenamento hanno fatto un altro test incrementale. Il dati hanno mostrato che Polimedicus non è molto affidabile, soprattutto l'HR. Nel secondo studio è stato sviluppato un nuovo programma, Inca, ed i risultati sono stati confrontati con i dati ottenuti dal primo studio con Polimedicus. I risultati finali hanno mostrato che Inca è più affidabile. Nel terzo studio, abbiamo voluto verificare l'esattezza del calcolo del FatMax con Inca e il test FATmaxwork. 25 soggetti in sovrappeso, tra 40-55 anni, sono stati arruolati e sottoposti al FATmaxwork test. Successivamente, è stato verificato se i valori estrapolati da INCA erano quelli che possono verificarsi durante un carico di prova costante di un'ora. L'analisi ha mostrato una precisione del calcolo della FatMax durante il carico di lavoro. Conclusione: E’ emersa una certa difficoltà nel determinare questo parametro, sia per la variabilità inter-individuale che intra-individuale. In futuro bisognerà migliorare INCA per ottenere protocolli di allenamento ancora più validi.
Resumo:
La ricerca esamina il ruolo delle imprese che svolgono attività di sicurezza privata in Italia (oggi definita anche "sussidiaria" o "complementare") in relazione allo sviluppo delle recenti politiche sociali che prevedono il coinvolgimento di privati nella gestione della sicurezza in una prospettiva di community safety. Nel 2008/2009 le politiche pubbliche di sicurezza legate al controllo del territorio hanno prodotto norme con nuovi poteri “di polizia” concessi agli amministratori locali e la previsione di associazione di cittadini per la segnalare eventi dannosi alla sicurezza urbana (“ronde”). Nello stesso periodo è iniziata un’importante riforma del settore della sicurezza privata, ancora in fase di attuazione, che definisce le attività svolte dalle imprese di security, individua le caratteristiche delle imprese e fissa i parametri per la formazione del personale. Il quadro teorico del lavoro esamina i concetti di sicurezza/insicurezza urbana e di società del rischio alla luce delle teorie criminologiche legate alla prevenzione situazionale e sociale e alla community policing. La ricerca sul campo si basa sull’analisi del contenuto di diverse interviste in profondità con esponenti del mondo della sicurezza privata (imprenditori, dirigenti, studiosi). Le interviste hanno fatto emergere che il ruolo della sicurezza privata in Italia risulta fortemente problematico; anche la riforma in corso sulla normativa del settore è considerata con scarso entusiasmo a causa delle difficoltà della congiuntura economica che rischia di compromettere seriamente la crescita. Il mercato della sicurezza in Italia è frastagliato e scarsamente controllato; manca un’azione di coordinamento fra le diverse anime della sicurezza (vigilanza privata, investigazione, facility/security management); persiste una condizione di subalternità e di assenza di collaborazione con il settore pubblico che rende la sicurezza privata relegata in un ruolo marginale, lontano dalle logiche di sussidiarietà.
Resumo:
Characteristics of modern food demand force retailers to acquire more information about product process along the food supply chain to ensure that product are in accordance with consumer preference. Therefore, the product process involves more information flows between buyer and supplier which requires collaborative efforts. These changes translate into several studies on the inter-organizational relationship in agri-food systems. Studies on inter-organizational relationships have been conducted in various academic disciplines, including sociology, psychology, law, economics, marketing, management, and combination of these. Inter-organizational relationships is an interaction between organizations which involved firms horizontally, as well as, vertically. In this study we deal with vertical, buyer-seller relationship which are sometimes referred to chain relationships. We define vertical business relationship in the agriculture-food based sector as “agri-food chain relationships”. The focus is on sustainable inter-organizational relationships in a way that they can be scientifically investigated. We study characteristics which ensure that a relationship is long-lasting and rewarding for all involved parties in the sardinian dairy. We test the theoretical model using structural equation modeling. The results suggest that the most important determinant for the relationships is technology and the price isn’t significant for the relationship governance.