1000 resultados para metodi di autenticazione a chiave pubblica e privata protocollo di Schnorr
Resumo:
I sistemi di raccomandazione per come li conosciamo nascono alla fine del XX secolo, e si sono evoluti fino ai giorni nostri approcciandosi a numerosi campi, tra i quali analizzeremo l’ingegneria del software, la medicina, la gestione delle reti aziendali e infine, come argomento focale della tesi, l’e-Learning. Dopo una rapida panoramica sullo stato dell’arte dei sistemi di raccomandazione al giorno d’oggi, discorrendo velocemente tra metodi puri e metodi ibridi ottenuti come combinazione dei primi, analizzeremo varie applicazioni pratiche per dare un’idea al lettore di quanto possano essere vari i settori di utilizzo di questi software. Tratteremo nello specifico il funzionamento di varie tecniche per la raccomandazione in ambito e-Learning, analizzando tutte le problematiche che distinguono questo settore da tutti gli altri. Nello specifico, dedicheremo un’intera sezione alla descrizione della psicologia dello studente, e su come capire il suo profilo cognitivo aiuti a suggerire al meglio la giusta risorsa da apprendere nel modo più corretto. È doveroso, infine, parlare di privacy: come vedremo nel primo capitolo, i sistemi di raccomandazione utilizzano al massimo dati sensibili degli utenti al fine di fornire un suggerimento il più accurato possibile. Ma come possiamo tutelarli contro intrusioni e quindi contro violazioni della privacy? L’obiettivo di questa tesi è quindi quello di presentare al meglio lo stato attuale dei sistemi di raccomandazione in ambito e-Learning e non solo, in modo da costituire un riferimento chiaro, semplice ma completo per chiunque si volesse affacciare a questo straordinario ed affascinante mondo della raccomandazione on line.
Resumo:
Il problema della consegna di prodotti da un deposito/impianto ai clienti mediante una flotta di automezzi è un problema centrale nella gestione di una catena di produzione e distribuzione (supply chain). Questo problema, noto in letteratura come Vehicle Routing Problem (VRP), nella sua versione più semplice consiste nel disegnare per ogni veicolo disponibile presso un dato deposito aziendale un viaggio (route) di consegna dei prodotti ai clienti, che tali prodotti richiedono, in modo tale che (i) la somma delle quantità richieste dai clienti assegnati ad ogni veicolo non superi la capacità del veicolo, (ii) ogni cliente sia servito una ed una sola volta, (iii) sia minima la somma dei costi dei viaggi effettuati dai veicoli. Il VRP è un problema trasversale ad una molteplicità di settori merceologici dove la distribuzione dei prodotti e/o servizi avviene mediante veicoli su gomma, quali ad esempio: distribuzione di generi alimentari, distribuzione di prodotti petroliferi, raccolta e distribuzione della posta, organizzazione del servizio scuolabus, pianificazione della manutenzione di impianti, raccolta rifiuti, etc. In questa tesi viene considerato il Multi-Trip VRP, in cui ogni veicolo può eseguire un sottoinsieme di percorsi, chiamato vehicle schedule (schedula del veicolo), soggetto a vincoli di durata massima. Nonostante la sua importanza pratica, il MTVRP ha ricevuto poca attenzione in letteratura: sono stati proposti diversi metodi euristici e un solo algoritmo esatto di risoluzione, presentato da Mingozzi, Roberti e Toth. In questa tesi viene presentato un metodo euristico in grado di risolvere istanze di MTVRP in presenza di vincoli reali, quali flotta di veicoli non omogenea e time windows. L’euristico si basa sul modello di Prins. Sono presentati inoltre due approcci di local search per migliorare la soluzione finale. I risultati computazionali evidenziano l’efficienza di tali approcci.
Resumo:
Paracentrotus lividus è un echinoderma bentonico marino appartenente alla classe Echinoidea, comune in tutto il Mar Mediterraneo e lungo le coste atlantiche dalla Scozia al Marocco. Questa specie è estremamente importante dal punto di vista ecologico in quanto specie chiave nella strutturazione della comunità bentonica macroalgale. Inoltre in tempi recenti il mercato delle sue gonadi ha subito una forte espansione rendendolo una specie di interesse economico in numerosi paesi europei. Il crescente prelievo sta gradualmente portando al depauperamento della risorsa, per questo motivo il riccio di mare è oggetto di numerosi studi e programmi a fini conservazionistici. Una maggiore conoscenza del ciclo riproduttivo della specie potrebbe risultare utile per una migliore gestione della risorsa. Pertanto, questo studio si propone di indagare sulla biologia di P. lividus in due aree distinte della Sardegna: Su Pallosu, nella Penisola del Sinis Sardegna centro-occidentale, e nell’Area Marina Protetta di Tavolara – Punta Coda Cavallo, Sardegna nordorientale, al fine di far luce sulle dinamiche del ciclo riproduttivo. Le informazioni bibliografiche a riguardo evidenziano l’influenza dei fattori ambientali quali fotoperiodo, idrodinamismo, temperatura e tipologia di pascolo sull’andamento del ciclo biologico e il momento di spawning. Diversi autori hanno osservato in Mar Mediterraneo sia un unico ciclo riproduttivo che due eventi riproduttivi annuali a conferma dell’ampia variabilità dell’andamento gonadico. Nel presente lavoro al fine di mettere in relazione le caratteristiche dell’habitat con il ciclo riproduttivo delle popolazioni in oggetto è stato analizzato l’andamento dell’Indice Gonadosomatico (IGS) su individui di diverse taglie/età, come rapporto fra il peso delle gonadi e il peso dell’individuo; inoltre a conferma dello stadio di maturazione è stata effettuata l’analisi istologica delle gonadi su campioni fissati e inclusi in paraffina, sezionati a 7μm e colorati con ematossilina-eosina prima di essere osservati al microscopio ottico. Mediante analisi d’immagine di foto subacquee utilizzando il programma Seascape è stata caratterizzata la componente macroalgale bentonica e la componente abiotica degli habitat (sabbia e roccia non vegetata) con particolare attenzione al calcolo della percentuale di ricoprimento delle specie vegetali. Inoltre i siti sono stati caratterizzati rispetto all’esposizione dei venti dominanti con elaborazione dei dati del periodo di campionamento per direzione, frequenza e intensità.
Resumo:
Si riassumono le principali proprietà e applicazioni di dispositivi basati su nanofili. Si descrivono le tecniche utilizzate in laboratorio per analizzare livelli profondi in nanofili di Silicio con particolare attenzione ai concetti teorici alla base di questi metodi.
Resumo:
L’interesse della ricerca per le applicazioni dei materiali organici all’elettronica è cresciuto ampiamente negli ultimi anni e alcuni gruppi di ricerca hanno studiato la possibilità di sfruttare materiali organici per costruire rivelatori diretti di raggi X. Nel 2003 si immaginava che l’assenza di elementi con numero atomico alto, propria della maggior parte degli organici, scoraggiasse il loro impiego come rivelatori. Tuttavia, la recente scoperta delle proprietà di fotoassorbimento dei monocristalli di 4-idrossicianobenzene (4HCB) potrebbe smentire questa ipotesi e, anzi, suscitare un certo interesse applicativo. Tra i possibili vantaggi operativi del 4HCB come rivelatore ci potrebbero essere, oltre al basso costo, tensioni di funzionamento sull’ordine dei volt e una certa flessibilità meccanica. L’obiettivo del seguente lavoro di tesi è esplorare la risposta che forniscono i monocristalli di 4HCB ai raggi X quando vengono installati su matrici flessibili con elettrodi di contatto in geometrie particolari, interspaziati di 22 µm. Sono state condotte varie misure di risposta elettrica al buio e sotto un fascio di raggi X e nel seguito saranno presentati i risultati. Il primo capitolo è dedicato ad un’introduzione teorica alla struttura dei materiali organici e ai modelli di trasporto dei semiconduttori organici. È evidenziato il fatto che non esiste ad oggi una teoria comprensiva ed efficace come per gli inorganici e vengono discussi alcuni metodi per determinare sperimentalmente la mobilità. La teoria Space Charge Limited Current (SCLC), che modella le caratteristiche corrente-tensione di un solido di piccolo spessore, quando il materiale ha bassa conducibilità e il suo trasporto di carica è mediato sostanzialmente da portatori dello stesso segno, viene introdotta nel capitolo 2. L’importanza di questo modello sta nel fatto che fornisce un metodo efficace per determinare sperimentalmente la mobilità dei portatori in molti materiali organici. Il campo dei rivelatori organici diretti di raggi X è piuttosto recente, e non esiste ancora un’efficace inquadratura teorica. Per questo motivo il capitolo 3 espone lo stato attuale dei rivelatori di raggi X e presenta i meccanismi alla base dei rivelatori inorganici diretti a stato solido e poi discute dei rivelatori organici indiretti già esistenti, gli scintillatori. La descrizione degli apparati sperimentali utilizzati per le misure viene demandata al capitolo 4, mentre il quinto capitolo espone i risultati ottenuti.
Resumo:
La città medievale di Leopoli-Cencelle (fondata da Papa Leone IV nell‘854 d.C. non lontano da Civitavecchia) è stata oggetto di studio e di periodiche campagne di scavo a partire dal 1994. Le stratigrafie investigate con metodi tradizionali, hanno portato alla luce le numerose trasformazioni che la città ha subìto nel corso della sua esistenza in vita. Case, torri, botteghe e strati di vissuto, sono stati interpretati sin dall’inizio dello scavo basandosi sulla documentazione tradizionale e bi-dimensionale, legata al dato cartaceo e al disegno. Il presente lavoro intende re-interpretare i dati di scavo con l’ausilio delle tecnologie digitali. Per il progetto sono stati utilizzati un laser scanner, tecniche di Computer Vision e modellazione 3D. I tre metodi sono stati combinati in modo da poter visualizzare tridimensionalmente gli edifici abitativi scavati, con la possibilità di sovrapporre semplici modelli 3D che permettano di formulare ipotesi differenti sulla forma e sull’uso degli spazi. Modellare spazio e tempo offrendo varie possibilità di scelta, permette di combinare i dati reali tridimensionali, acquisiti con un laser scanner, con semplici modelli filologici in 3D e offre l’opportunità di valutare diverse possibili interpretazioni delle caratteristiche dell’edificio in base agli spazi, ai materiali, alle tecniche costruttive. Lo scopo del progetto è andare oltre la Realtà Virtuale, con la possibilità di analizzare i resti e di re-interpretare la funzione di un edificio, sia in fase di scavo che a scavo concluso. Dal punto di vista della ricerca, la possibilità di visualizzare le ipotesi sul campo favorisce una comprensione più profonda del contesto archeologico. Un secondo obiettivo è la comunicazione a un pubblico di “non-archeologi”. Si vuole offrire a normali visitatori la possibilità di comprendere e sperimentare il processo interpretativo, fornendo loro qualcosa in più rispetto a una sola ipotesi definitiva.
Resumo:
La presente indagine mira ad esaminare, in chiave innovativa, i rapporti tra l’Europa ed un reato prettamente europeo: il negazionismo. Sviluppatosi in maniera assolutamente predominante nel nostro continente, le ragioni della sua diffusione sono molteplici. Al di là della lotta a razzismo ed antisemitismo, il motivo principale va identificato nel ruolo “fondativo” che riveste la memoria dell’Olocausto in Europa, collocata nel cuore dell’universo valoriale su cui si reggono i due principali attori europei, ovverosia l’Unione europea e la Corte europea dei diritti dell’uomo. La ricerca, dunque, ruota attorno a due poli tematici. Da un lato, sono state esaminate le politiche normative dell’Unione europea in materia di razzismo e xenofobia, entro cui spicca la promozione dell’incriminazione del negazionismo “allargato”, cioè esteso alle condotte di negazione non solo dell’Olocausto, ma anche degli altri crimini internazionali. Dall’altro lato, l’analisi della trentennale giurisprudenza della Corte di Strasburgo in materia ha evidenziato come, con riguardo alle manifestazioni negazioniste, sia stato elaborato uno “statuto speciale”, che si risolve nel perentorio diniego di tutela per questa categoria di opinioni, sottratte a monte all’ordinario giudizio di bilanciamento in quanto giudicate incompatibili con i valori sottesi alla CEDU. Lo scopo di questo lavoro riposa nel tentativo di individuare le interazioni tra questi due sistemi istituzionali, per interpretare una tendenza che converge con nettezza verso un incremento della repressione penale della parola. Da questo complesso intreccio di norme e principi, di hard law e soft law, sarà possibile enucleare la natura giuridica ed il contenuto delle richieste di incriminazione rivolte agli Stati membri. Una volta appurato che agli Stati è concesso di restringere il campo di applicazione del reato di negazionismo, adottando degli indici di pericolosità delle condotte, sarà analizzata la tenuta di questi “elementi opzionali del reato” alla luce dei principi penalistici di tassatività, materialità, offensività e laicità.
Resumo:
Le considerazioni sviluppate in questo scritto si pongono come obiettivo quello di fare chiarezza sul delicato tema delle opere di urbanizzazione a scomputo. La normativa concernente la realizzazione delle opere pubbliche a scomputo totale o parziale degli oneri di urbanizzazione è stata oggetto di svariate modifiche e interpretazioni giurisprudenziali, che si sono susseguite dopo l'importante pronuncia della Corte di Giustizia Europea. E' con questa sentenza che i Giudici del Kirchberg introducono un particolare obbligo procedurale a carico dei privati: nel caso in cui singole opere superino i valori di rilevanza europea, esse devono essere affidate, applicando le procedure di gara previste dalla direttiva 37/93/CEE. Va precisato che sino a quel momento l'affidamento diretto delle opere al privato costituiva nell'ottica del Legislatore lo strumento per realizzare le infrastrutture necessarie per consentire gli insediamenti edilizi che la pubblica amministrazione spesso non era in grado di effettuare. In questo panorama legislativo la sentenza della Corte di Giustizia, appare del tutto dirompente. Infatti, introducendo il principio secondo cui anche la realizzazione diretta delle opere di urbanizzazione da parte del privato deve sottostare alle regole delle procedure europee in materia di appalti, mette inevitabilmente a confronto due normative, quella degli appalti pubblici e quella dell'urbanistica, che sino a quel momento erano riuscite a viaggiare in modo parallelo, senza dar luogo a reciproche sovrapposizioni. Il Legislatore nazionale ha, con molta fatica, recepito il principio comunitario ed è stato negli anni quasi costretto, attraverso una serie di modifiche legislative, ad ampliarne la portata. La presente ricerca, dopo aver analizzato i vari correttivi apportati al Codice degli appalti pubblici vuole, quindi, verificare se l'attuale quadro normativo rappresenti un vero punto di equilibrio tra le contrapposte esigenze di pianificazione del territorio e di rispetto dei principi comunitari di concorrenza nella scelta del contraente.
Resumo:
Il presente lavoro si propone principalmente di fornire un’analisi delle declinazioni assunte dal principio di continuità nel diritto amministrativo, tentando di metterne in luce al contempo le basi fondanti che caratterizzano ogni principio generale e le sfumature più attuali emerse dall’elaborazione della dottrina e della giurisprudenza più recenti. Partendo dal fondamentale presupposto secondo cui la maggior parte degli interpreti si è interessata al principio di continuità in campo amministrativo con prevalente riferimento all’ambito organizzativo-strutturale, si è tentato di estendere l’analisi sino a riconoscervi una manifestazione di principi chiave della funzione amministrativa complessivamente intesa quali efficienza, buon andamento, realizzazione di buoni risultati. La rilevanza centrale della continuità discende dalla sua infinita declinabilità, ma in questo lavoro si insiste particolarmente sul fatto che di essa possono darsi due fondamentali interpretazioni, tra loro fortemente connesse, che si influenzano reciprocamente: a quella che la intende come segno di stabilità perenne, capace di assicurare certezza sul modus operandi delle pubbliche amministrazioni e tutela degli affidamenti da esse ingenerati, si affianca una seconda visione che ne privilegia invece l’aspetto dinamico, interpretandola come il criterio che impone alla P.A. di assecondare la realtà che muta, evolvendo contestualmente ad essa, al fine di assicurare la permanenza del risultato utile per la collettività, in ossequio alla sua missione di cura. In questa prospettiva, il presente lavoro si propone di analizzare, nella sua prima parte, i risultati già raggiunti dall’elaborazione esegetica in materia di continuità amministrativa, con particolare riferimento alle sue manifestazioni nel campo dell’organizzazione e dell’attività amministrative, nonché ad alcune sue espressioni concrete nel settore degli appalti e dei servizi pubblici. La seconda parte è invece dedicata a fornire alcuni spunti ed ipotesi per nuove interpretazioni del principio in chiave sistematica, in relazione a concetti generali quali il tempo, lo spazio e il complessivo disegno progettuale della funzione amministrativa.
Resumo:
Resumo:
L’approccio performance-based nell’Ingegneria sismica è una metodologia di progetto che tiene esplicitamente in conto la performance dell’edificio tra i criteri progettuali. Nell’ambito dei metodi PBEE (Performance-Based Earthquake Engineering) di seconda generazione, quello proposto dal PEER (Pacific Earthquake Engineering Research Center) risulta essere il più diffuso. In esso la performance dell’edificio oggetto di studio viene valutata in termini quantitativi secondo le 3D’s (dollars, deaths, downtime – soldi, decessi, inutilizzo), quantità di notevole interesse per l’utente finale. Il metodo si compone di quattro step, indipendenti tra loro fino alla sintesi finale. Essi sono: l’analisi di pericolosità, l’analisi strutturale, l’analisi di danno, l’analisi delle perdite o di loss. Il risultato finale è la curva di loss, che assegna ad ogni possibile perdita economica conseguente all’evento sismico una probabilità di superamento nell’arco temporale di riferimento. Dopo la presentazione del metodo PEER, si è provveduto ad una sua applicazione su di un caso di studio, nella fattispecie un telaio piano di quattro campate, multipiano, in calcestruzzo armato, costruito secondo le norme del ’92. Per l’analisi di pericolosità si è fatto ricorso alle mappe di pericolosità disponibili sul sito INGV, mentre per l’analisi strutturale si è utilizzato il software open-source OpenSees. Le funzioni di fragilità e quelle di loss sono state sviluppate facendo riferimento alla letteratura scientifica, in particolare il bollettino Fib numero 68 “Probabilistic performance-based seismic design”. In questa sede ci si è concentrati unicamente sulla stima delle perdite economiche, tralasciando le altre due variabili decisionali. Al termine del procedimento si è svolta un’analisi di sensitività per indagare quali parametri influenzino maggiormente la curva di loss. Data la curva di pericolosità, il legame EDP(IM) e la deformazione ultima a collasso risultano essere i più rilevanti sul risultato dell’analisi.
Resumo:
Lo studio analizza il modo in cui la storia dell’arte e la visual culture vengono utilizzate all’interno delle medical humanities, e cerca di suggerire un metodo più utile rispetto a quelli fin qui proposti. Lo scritto è organizzato in due parti. Nella prima parte sono analizzate alcune teorie e pratiche delle scienze umane in medicina. In particolare, ci concentriamo sulla medicina narrativa e sugli approcci con cui la storia dell’arte viene inclusa nella maggioranza dei programmi di medical humanities. Dopodiché, proponiamo di riconsiderare questi metodi e di implementare il ruolo di un pensiero storico e visivo all’interno di tali insegnamenti. Nella seconda parte, alla luce di quanto emerso nella prima, ci dedichiamo a uno studio di caso: la rappresentazione della melanconia amorosa, o mal d’amore, in una serie di dipinti olandesi del Secolo d’Oro. Colleghiamo queste opere a trattati medico-filosofici dell’epoca che permettano di inquadrare il mal d’amore in un contesto storico; in seguito, analizziamo alcune interpretazioni fornite da studiosi e storici dell’arte a noi contemporanei. In particolare, esaminiamo lo studio pionieristico di Henry Meige, pubblicato sulla “Nouvelle iconographie de la Salpêtrière” nel 1899, da cui emerge la possibilità di un confronto critico sia con le posizioni iconodiagnostiche di Charcot e Richer sia con quelle della prima psicoanalisi.
Resumo:
La ricerca sul «Dionisismo nelle comunità fenicie e puniche: il caso di Mozia» prende in considerazione le diverse attestazioni del dionisismo quale si evidenziano, con le sue ricadute politiche e cultuali, nelle comunità fenicie e puniche della Sicilia, della Sardegna e della stessa Cartagine. Accanto ad una lettura testuale utile alla storicizzazione contestualizzata del fenomeno, fra cui lo stesso pitagorismo, si propone un corpus che comprende prodotti delle categorie artigianali che restituiscono iconografie di’ambientazione dionisiaca, testimonî dell'adozione sociale e pubblica di una cultualità la cui origine si mostra sempre più vicina a contesti vicino-orientali. Da una rilettura storicizzata del dionisismo, quindi, si mettono in evidenza con un approccio multidisciplinare e comparativistico le caratteristiche del culto, di cui si sottolinea fra l’altro la componente ctonia. In particolare il santuario tofet, con le sue recenti riletture di santuario cittadino e pluricultuale, sembra proporre analogie fra il mlk e la ritualità dionisiaca. Analogie che confermano la vocazione mediterranea ed interculturali delle comunità fenicie e puniche e che in più di un caso daranno luogo a sincretismi che si trasmetteranno sino ed oltre l’età romana. In questo colloquio interetnico Mozia svolge un ruolo non secondario insieme a Selinunte, vero e proprio laboratorio del sincretismo cultuale della Sicilia Occidentale pre-romana, dove i culti di Zeus Melichios e di Demetra si pongono come realtà rituali fra le più utili alla coesione sociale, quell’analoga coesione solciale elitaria perseguita dal dionisismo.
Resumo:
La presente ricerca si fonda su un’attenta ed approfondita analisi della normativa vigente in Italia in materia di procreazione medicalmente assistita (P.M.A.), con particolare riferimento al divieto assoluto di P.M.A. eterologa, di cui all’art. 4, comma 3, L. 19 febbraio 2004, n. 40, consentita invece – sia pure con la previsione di limitazioni differenti – nella quasi totalità dei paesi europei. Dopo aver esaminato la “questione etica” del ricorso alle tecniche di fecondazione assistita e le normative vigenti in Europa in materia di P.M.A. eterologa, il presente lavoro analizza i profili civilistici della L. n. 40/2004 ed i conseguenti dubbi interpretativi che la normativa italiana pone in materia di fecondazione eterologa, con specifico riguardo al consenso prestato dai coniugi o conviventi, al divieto di disconoscimento di paternità e di anonimato della madre ed, infine, al diritto del nato da fecondazione eterologa di conoscere le proprie origini biologiche. Ne consegue che, in una materia che coinvolge la sfera più intima e personale della vita privata e familiare, quale quella della P.M.A., il legislatore avrebbe dovuto intervenire con misura, individuando soluzioni ragionevoli ed equilibrate nel rispetto della pluralità di etiche contrapposte ed interessi in conflitto. Attraverso una capillare analisi della recente giurisprudenza nazionale ed europea, la presente ricerca mira, dunque, a valutare possibili prospettive di superamento del divieto assoluto di P.M.A. eterologa previsto dalla L. n. 40/2004. I risultati a cui la presente indagine ha consentito di pervenire dimostrano quanto sia opportuna l’adozione in Italia di un “modello liberale”, in cui sia lecita anche la fecondazione eterologa (con la previsione di limiti e condizioni volti a tutelare primariamente il superiore interesse del nascituro), onde consentire l’adeguamento al nuovo concetto di “genitorialità” ormai prevalente e l’arresto del cd. “turismo procreativo”.
Resumo:
La figura del designer detiene un ruolo chiave nella progettazione di un nuovo prodotto: a lui spetta l'importante compromesso fra scelte ingegneristiche, di mercato e di stile. Lo studio qui condotto analizza da un punto di vista qualitativo e quantitativo le linee di carattere che delineano il profilo base di un'autovettura, in riferimento al particolare segmento automobilistico ed al suo stile. In tal modo si vuole porre una base alla "genetica dello stile", ovvero la caratterizzazione matematica dello stile.