891 resultados para gruppi di omotopia di ordine superiore cobordismo con framing gruppi di omotopia delle sfere


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’elaborato si propone di analizzare il ruolo di CONSIP, centrale di committenza nazionale per gli acquisti di beni e servizi per la pubblica amministrazione, nell’ambito del Programma di razionalizzazione degli acquisti, con particolare attenzione ai vantaggi ed alle criticità emerse nell’attuazione del sistema di centralizzazione. Il corpo del testo, articolato per capitoli, è preceduto da un Glossario contenente le definizioni e la specificazione di alcuni dei concetti trattati. In appendice sono state inserite le sintesi di tre ricerche, ritenute di interesse per approfondire l’argomento trattato. Il Capitolo 1 descrive l’evoluzione del ruolo e delle attività assegnate a CONSIP in relazione alle modifiche intervenute nel contesto normativo di riferimento. Nel Capitolo 2 vengono trattate in dettaglio le attività di CONSIP, con particolare riguardo al ruolo strategico che la stessa è chiamata a svolgere nel sistema nazionale di e-Procurement e nell’ambito del Programma di razionalizzazione degli acquisti, anche in funzione delle misure previste dalle recenti norme in tema di spending review. Nel Capitolo 3 sono descritti gli strumenti che CONSIP mette a disposizione delle pubbliche amministrazioni, attraverso la piattaforma informatica www.acquistinretepa.it, appositamente predisposta per l’attuazione del Programma di cui al Capitolo precedente, con particolare attenzione al sistema delle convenzioni. Il Capitolo 4 è dedicato all’analisi dei vantaggi e delle criticità riguardanti l’attuazione del Programma di razionalizzazione degli acquisti, con riferimento al sistema di centralizzazione ed all’utilizzo degli strumenti CONSIP, nell’ambito del processo di approvvigionamento delle pubbliche amministrazioni (public procurement). Infine, il Capitolo 5 propone l’esperienza del Progetto di razionalizzazione degli acquisti informatici del Comune di Bologna come caso da cui trarre spunti di riflessione sull’impatto, anche interno, alla singola amministrazione, della centralizzazione degli acquisti e dell’utilizzo delle convenzioni e del mercato elettronico (MEPA) messi a disposizione da CONSIP.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il traffico dei veicoli sulla rete stradale è un fenomeno molto vario e complesso ma cresce sempre di più l'esigenza di monitoraggio e controllo. La difficoltà di studio secondo norme codificate porta a risultati diversi e disomogenei, si è quindi resa necessaria l'esigenza di definire una metodologia standardizzata agli analisti e operatori del settore. Lo scopo principale di questo tipo di analisi è quello di innalzare il livello di sicurezza stradale, creando degli archivi sulla base dei dati registrati dal sistema, per fare ciò vi è stata la necessità di: 1. Istallare dispositivi di rilevamento del flusso veicolare per trovare i punti di maggiore congestione del traffico. 2. Istallare dispositivi per misurare la quantità di agenti atmosferici e acustici inquinanti. Lo studio in questione nasce inoltre da ulteriori esigenze, sia da parte degli addetti alla sicurezza stradale, che dagli stessi utenti/automobilisti per rispondere a determinate esigenze quali: • Regolazione del traffico stradale • Conoscenza globale delle strade • Rilevamento di infrazioni • Assistenza agli utenti • Sicurezza delle infrastrutture stradali (gallerie, passaggi a livello, ecc.) • Manutenzione della strada • Studio e ricerca Oltre ai sistemi che hanno come scopo principale la sicurezza, è nata l'esigenza di progettare sistemi utili agli automobilisti per avere informazioni immediate, aggiornate e per conoscere in tempo reale le condizioni di scorrevolezza delle strade e quindi di risparmiare risorse in termini di tempo e carburante ed aumentare la coordinazione tra i veicoli. Il requisito fondamentale dei sistemi basati su questo tipo di funzionalità è quello di registrare in tempo reale le segnalazioni pervenute e di renderle immediatamente disponibili a tutti gli utenti/utilizzatori del sistema allo scopo di avere informazioni rilevanti riguardanti lo stato del traffico che consentano a questi ultimi di effettuare la scelta ottimale e quindi migliorare la mobilità generale in termini di riduzione della congestione, risparmio di consumi energetici e di conseguenza di emissioni di inquinanti ambientali. I sistemi di questo tipo possono essere definiti adattivi, cioè in grado di modificarsi in base a condizioni esterne al fine di coordinare efficacemente il flusso veicolare. Lo scopo di questi software è sopratutto funzionale, stimando infatti i tempi di percorrenza in determinate strade gli utenti avranno piena consapevolezza delle condizioni di quei segmenti quasi istantaneamente e potranno quindi agire di conseguenza in modo da migliorare i tempi di percorrenza.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'elaborato affronta le varie fasi progettuali relative alle opere di riqualifica delle infrastrutture di volo dell'aeroporto Marco Polo di venezia. Partendo da nozioni di carattere teorico, come i vari metodi di dimensionamento di una sovrastruttura aeroportuale, si è arrivati ad affrontare in modo pratico il calcolo di verifica delle pavimentazioni esistenti e quello di dimensionamento di due soluzioni progettuali ipotizzate. Infine è stato considerato anche l'aspetto ecosostenibile della progettazione, ipotizzando la possibilità di riutilizzare il materiale fresato dalla vecchia pavimentazione esistente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi ho voluto descrivere il Timing Attack al sistema crittografico RSA, il suo funzionamento, la teoria su cui si basa, i suoi punti di forza e i punti deboli. Questo particolare tipo di attacco informatico fu presentato per la prima volta da Paul C. Kocher nel 1996 all’“RSA Data Security and CRYPTO conferences”. Nel suo articolo “Timing Attacks on Implementations of Diffie-Hellman, RSA, DSS, and Other Systems” l’autore svela una nuova possibile falla nel sistema RSA, che non dipende da debolezze del crittosistema puramente matematiche, ma da un aspetto su cui nessuno prima di allora si era mai soffermato: il tempo di esecuzione delle operazioni crittografiche. Il concetto è tanto semplice quanto geniale: ogni operazione in un computer ha una certa durata. Le variazioni dei tempi impiegati per svolgere le operazioni dal computer infatti, necessariamente dipendono dal tipo di algoritmo e quindi dalle chiavi private e dal particolare input che si è fornito. In questo modo, misurando le variazioni di tempo e usando solamente strumenti statistici, Kocher mostra che è possibile ottenere informazioni sull’implementazione del crittosistema e quindi forzare RSA e altri sistemi di sicurezza, senza neppure andare a toccare l’aspetto matematico dell’algoritmo. Di centrale importanza per questa teoria diventa quindi la statistica. Questo perché entrano in gioco molte variabili che possono influire sul tempo di calcolo nella fase di decifrazione: - La progettazione del sistema crittografico - Quanto impiega la CPU ad eseguire il processo - L’algoritmo utilizzato e il tipo di implementazione - La precisione delle misurazioni - Ecc. Per avere più possibilità di successo nell’attaccare il sistema occorre quindi fare prove ripetute utilizzando la stessa chiave e input differenti per effettuare analisi di correlazione statistica delle informazioni di temporizzazione, fino al punto di recuperare completamente la chiave privata. Ecco cosa asserisce Kocher: “Against a vulnerable system, the attack is computationally inexpensive and often requires only known ciphertext.”, cioè, contro sistemi vulnerabili, l’attacco è computazionalmente poco costoso e spesso richiede solo di conoscere testi cifrati e di ottenere i tempi necessari per la loro decifrazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro ha ad oggetto l’esame della disciplina dell’arresto in flagranza e del fermo di indiziato di delitto: istituti profondamente “utili” e “d’impatto” (anche mass-mediatico) perché ontologicamente tesi, soprattutto il primo, all’immediata repressione del fenomeno criminale. Scopo e ragione di questo studio, è dunque l’individuazione di altre e più profonde finalità di tali istituti, passando per una piena comprensione del ruolo loro assegnato nel vigente impianto codicistico. La ricerca, dunque, si è sviluppata lungo tre direttrici, ciascuna rappresentata – anche dal punto di vista grafico-strutturale – nelle tre parti cin cui è diviso l’elaborato finale e ciascuna singolarmente riferibile, in un’immaginaria linea del tempo, allo ieri (e ai principi), all’oggi e al domani della disciplina delle misure coercitive di polizia giudiziaria. Nella prima parte, infatti, partendo dall’analisi storica degli istituti in esame, si è proceduto all’esame della disciplina e della giurisprudenza costituzionale in tema di strumenti di polizia giudiziari provvisoriamente limitativi della libertà personale; l’obiettivo primo di tale approfondimento, cui poi sarà informato l’analisi della dinamica degli istituti, è proprio l’individuazione delle finalità – conformi a Costituzione – dell’arresto e del fermo di indiziato di delitto. Seguirà l’analisi del concetto di libertà personale, e dei margini consentiti per la sua limitazione, in seno al sistema della Convenzione europea per la salvaguardia dei diritti dell’uomo. La seconda parte contiene un’analisi critica degli istituti dell’arresto in flagranza, del fermo di indiziato di delitto e dell’arresto urgente a fini estradizionale. Infine, la terza e ultima parte ha ad oggetto l’ulteriore di linea di ricerca che si è sviluppata a mo’ di conclusione delle predette analisi, riguardante la possibilità di utilizzare lo strumento del fermo, ampliandone le maglie applicative, come viatico per l’introduzione del contraddittorio anticipato rispetto all’applicazione delle misure cautelari personali

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La prova informatica richiede l’adozione di precauzioni come in un qualsiasi altro accertamento scientifico. Si fornisce una panoramica sugli aspetti metodologici e applicativi dell’informatica forense alla luce del recente standard ISO/IEC 27037:2012 in tema di trattamento del reperto informatico nelle fasi di identificazione, raccolta, acquisizione e conservazione del dato digitale. Tali metodologie si attengono scrupolosamente alle esigenze di integrità e autenticità richieste dalle norme in materia di informatica forense, in particolare della Legge 48/2008 di ratifica della Convenzione di Budapest sul Cybercrime. In merito al reato di pedopornografia si offre una rassegna della normativa comunitaria e nazionale, ponendo l’enfasi sugli aspetti rilevanti ai fini dell’analisi forense. Rilevato che il file sharing su reti peer-to-peer è il canale sul quale maggiormente si concentra lo scambio di materiale illecito, si fornisce una panoramica dei protocolli e dei sistemi maggiormente diffusi, ponendo enfasi sulla rete eDonkey e il software eMule che trovano ampia diffusione tra gli utenti italiani. Si accenna alle problematiche che si incontrano nelle attività di indagine e di repressione del fenomeno, di competenza delle forze di polizia, per poi concentrarsi e fornire il contributo rilevante in tema di analisi forensi di sistemi informatici sequestrati a soggetti indagati (o imputati) di reato di pedopornografia: la progettazione e l’implementazione di eMuleForensic consente di svolgere in maniera estremamente precisa e rapida le operazioni di analisi degli eventi che si verificano utilizzando il software di file sharing eMule; il software è disponibile sia in rete all’url http://www.emuleforensic.com, sia come tool all’interno della distribuzione forense DEFT. Infine si fornisce una proposta di protocollo operativo per l’analisi forense di sistemi informatici coinvolti in indagini forensi di pedopornografia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Studio e realizzazione di un modello dinamico, in Simulink, del sistema propulsivo di un aeromodello, dotato di un autopilota e di un'elettronica di bordo. Tali caratteristiche consentono al drone di effettuare delle operazioni di volo in piena autonomia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il primo obiettivo di questo lavoro di tesi è quello di sviluppare il primo modello matematico di potenziale d'azione pacemaker umano: è vero che gli studi elettrofisiologici pubblicati sull'uomo non hanno ancora raggiunto la mole di risultati ottenuti, invece, sugli altri mammiferi da laboratorio, ma i tempi possono ritenersi "maturi", in quanto i dati disponibili in letteratura sono sufficienti e adeguati allo scopo. Il secondo obiettivo di questo lavoro di tesi nasce direttamente dall'esigenza clinica di definire le relazioni causa-effetto tra la mutazione T78M della proteina caveolina-3 e le varie forme di aritmie cardiache riscontrate, ad essa associate. Lo scopo è quello di stabilire quale sia il link tra genotipo della mutazione e fenotipo risultante, ovvero colmare il gap esistente tra i dati sperimentali in vitro in possesso ed i meccanismi di alterazione delle correnti ioniche affette, per arrivare a osservare l'effetto che ne deriva sull'attività elettrica delle cellule. Proprio in relazione a quest'ultimo punto, i due obiettivi del lavoro convergono: l'analisi degli effetti indotti dalla mutazione T78M è, infatti, effettuata sul modello di potenziale d'azione di nodo senoatriale umano sviluppato (oltre che su altri modelli atriali).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nella tesi viene affrontato l'argomento della gestione delle risorse umane all'interno di un progetto. Vengono individuate le criticità e tramite un elenco di metodi e strumenti di gestione delle risorse umane si vuole indirizzare il project manager ad attivare quelli più inerenti alla risoluzione dei problemi che generalmente si presentano durante l'esecuzione di un progetto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Progettare e realizzare un sistema di catalogazione delle varie tipologie di eterogeneità tissutale di lesioni neoplastiche polmonari, a partire dall’analisi di immagini TCp, in quanto non risulta presente in letteratura una classificazione dell’eterogeneità basata sull’analisi visuale del radiologo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il mio elaborato è focalizzato sulla storia dell’Estonia durante l’occupazione nazista, il periodo che ricoprì gli anni tra il 1941 al 1944. Il lavoro parte dalla descrizione della panoramica storica generale della seconda guerra mondiale in Estonia per passare al racconto dettagliato di uno degli strumenti di terrore utilizzato dai nazisti: i campi di concentramento. In questo lavoro mi soffermo sulle peculiarità dell’organizzazione dei più importanti campi di concentramento, che erano in funzione in tutto il territorio del paese in vari periodi della guerra e sulle categorie degli internati, dedicando una particolare attenzione ai deportati ebrei e all’Olocausto. Nonostante l’insieme dei campi estoni sia solo una piccola macchia nella mappa di tutti i campi creati dai nazisti nei territori occupati, esso fa parte di una delle tappe storiche più tragiche per il paese. La cosa che spesso viene dimenticata in Estonia e completamente sconosciuta all’estero. Pertanto, l’obiettivo che mi ero prefissata era quello di avvicinare il lettore italiano alla storia della seconda guerra mondiale in Estonia, non tramite una descrizione generale del regime, ma focalizzandosi sulla piccola realtà dei deportati nei campi di concentramento. Il tema del mio elaborato è strettamente legato agli aspetti del collaborazionismo, della memoria e dell’interpretazione della storia del paese. Sono gli argomenti che, come si vedrà, causano ancora problematiche nel paese baltico e pertanto sono molto attuali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Gli avvenimenti politico-istituzionali degli ultimi anni hanno determinato un vivace dibattito sulla questione dei cc.dd. “governi del Presidente”, con cui si suole far riferimento ad Esecutivi il cui procedimento di formazione e le cui crisi registrano un interventismo del Presidente della Repubblica superiore a quello richiesto e/o consentito dal dettato costituzionale. Obiettivo dell’elaborato è duplice: fornire un tentativo definitorio della categoria “governi del Presidente”, nonché valutare la compatibilità di questa con la forma di governo parlamentare, soprattutto in considerazione dei recenti sviluppi delle dinamiche politico-istituzionali italiane. Sulla base di questo presupposto, nel presente lavoro si procede a una ricostruzione dell’evoluzione della prassi e delle consuetudini costituzionali in merito all’esercizio dei poteri presidenziali nella gestione delle crisi di governo, con particolare riferimento al procedimento di formazione dell’Esecutivo. La tesi si presenta articolata in due parti, corrispondenti a due differenti periodi storici (cc.dd. Prima e Seconda Repubblica), organizzate per capitoli, relativi alle principali fasi di evoluzione del sistema politico attraversate nel corso della storia della Repubblica. Questa scelta si giustifica in ragione del fatto che il modus operandi del Presidente della Repubblica risulta fortemente condizionato dai mutamenti del contesto politico-istituzionale. Nei singoli paragrafi, dedicati ai presidenti, vengono trattati l’elezione del Presidente, le modalità di formazione dei governi nominati, nonché ulteriori temi la cui disamina è stata ritenuta opportuna allo scopo di fornire una contestualizzazione più adeguata dell’analisi svolta (utilizzo del potere di esternazione e di scioglimento delle Camere, gestione delle attività di politica interna e politica estera, principali avvenimenti dei periodi storici considerati, e così via).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Una breve trattazione dei principali meccanismi di emissione delle galassie a spirale nelle varie bande dello spettro elettromagnetico

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi si occupa dello studio delle sorgenti radio extragalattiche. Il presente lavoro è divisibile in due parti distinte. La prima parte descrive la morfologia e la struttura delle varie tipologie degli oggetti AGN, i fenomeni relativistici riguardo al moto delle radiosorgenti, il modello unificato, che consiste nel descrivere tutti i tipi di radiosorgenti presentati come la stessa tipologia di oggetto. La seconda parte vede l'analisi di due campioni: uno di radiogalassie, l'altro di BL Lacs. L'obiettivo consiste nel confrontare i valori di core dominance(rapporto tra potenza osservata e attesa) dei due campioni e dimostrare come la core domincance degli oggetti BL Lacertae sia maggiore di quella delle radiogalassie, al fine di mettere in evidenza un fattore a sostegno della teoria dei modelli unificati. Infine sono state inserite due appendici:l'una descrive un importante meccanismo di emissione come la radiazione di sincrotrone, l'altra presenta la tecnica di interferometria VLBI.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’oggetto principale delle attività di tesi è la caratterizzazione numerico-sperimentale di processi di colata in sabbia di ghisa sferoidale. Inizialmente è stata effettuata un’approfondita indagine bibliografica per comprendere appieno le problematiche relative all’influenza dei parametri del processo fusorio (composizione chimica, trattamento del bagno, velocità di raffreddamento) sulle proprietà microstrutturali e meccaniche di getti ottenuti e per valutare lo stato dell’arte degli strumenti numerici di simulazione delle dinamiche di solidificazione e di previsione delle microstrutture. Sono state definite, realizzate ed impiegate attrezzature sperimentali di colata per la caratterizzazione di leghe rivolte alla misura ed alla differenziazione delle condizioni di processo, in particolare le velocità di raffreddamento, ed atte a validare strumenti di simulazione numerica e modelli previsionali. Inoltre sono stati progettati ed impiegati diversi sistemi per l’acquisizione ed analisi delle temperature all’interno di getti anche di grandi dimensioni. Lo studio, mediante analisi metallografica, di campioni di materiale ottenuto in condizioni differenziate ha confermato l’effetto dei parametri di processo considerati sulle proprietà microstrutturali quali dimensioni dei noduli di grafite e contenuto di ferrite e perlite. In getti di grandi dimensioni si è riscontrata anche una forte influenza dei fenomeni di macrosegregazione e convezione della lega su microstrutture e difettologie dei getti. Le attività si sono concentrate principalmente nella simulazione numerica FEM dei processi fusori studiati e nell’impiego di modelli empirico-analitici per la previsione delle microstrutture. I dati misurati di temperature di processo e di microstrutture sono stati impiegati per la validazione ed ottimizzazione degli strumenti numerici previsionali impiegati su un ampio intervallo di condizioni di processo. L’impiego di strumenti affidabili di simulazione del processo fusorio, attraverso l’implementazione di correlazioni sperimentali microstrutture-proprietà meccaniche, permette la valutazione di proprietà e difettologie dei getti, fornendo un valido aiuto nell’ottimizzazione del prodotto finito e del relativo processo produttivo.