962 resultados para numeri primi criteri divisibilità Euclide Goldbach Eulero Lagrange Mersenne Fürstenberg
Resumo:
Questa tesi si propone di offrire una visione approfondita della situazione del servizio di interpretazione giudiziaria nel Regno Unito. In particolare, alla luce della la Direttiva 2010/64/UE del Parlamento Europeo e del Consiglio sul diritto all'interpretazione e alla traduzione, analizza il fallimentare passaggio di gestione dei servizi di legal interpreting dal National Register of Public Service Interpreters (NRPSI) a Capita Translation and Interpreting (Capita TI). Il lavoro è strutturato in tre capitoli. Il primo tratta i contenuti della direttiva relativi all'ambito di indagine: l'istituzione di registri, la figura dell'interprete giudiziario suggerita e il ruolo degli Stati membri. Il secondo capitolo contiene invece l'analisi dei due sistemi: NRPSI, organizzazione no-profit, indipendente e volontaria, e Capita TI, azienda fornitrice di servizi linguistici. Si vedrà, nello specifico, come sono composte, come lavorano, come funzionano i loro registri, secondo quali criteri vengono selezionati gli interpreti e in che modo corrispondono alle direttive dell'Unione Europea. Nel terzo e ultimo capitolo, si presenta la situazione dell'interpretazione giudiziaria nel Regno Unito. Si ricostruiscono inizialmente le motivazioni che hanno portato il Ministero della Giustizia inglese ad appaltare a terzi la gestione del servizio di interpretazione giudiziaria, In seguito, si espongono le problematiche insorte sin dalla firma del contratto tra Capita TI e il Ministry of Justice e le conseguenti reazioni dei servizi pubblici coinvolti e degli interpreti che hanno deciso di boicottare la nuova disposizione. Dopo aver illustrato le misure che, nel 2013, Capita e l'MoJ si sono impegnati ad attuare per invertire la disastrosa tendenza iniziale, si vedrà infine in quale modo queste hanno influito sull'ancora irrisolta situazione attuale.
Resumo:
La geolocalizzazione è il processo tramite il quale è possibile mettere in relazione una certa informazione con un punto specifico della superficie terrestre, individuato tramite metodi di localizzazione (quindi il reperimento delle coordinate latidudinali e longitudinali) di un apparato elettronico, sfruttandone le caratteristiche fisiche o ricevendo informazioni dettagliate dallo strumento stesso. Nello specifico il concetto di geolocalizzazione enfatizza l’aspetto dinamico, riferendosi ad informazioni che possono essere aggiornate di frequente come la posizione e la velocità. La possibilità di rendere dinamico il reperimento di tali informazioni e di poterle rilevare in maniera sempre più dettagliata deriva dalla combinazione di diverse tecnologie che si sono sviluppare nel ventunesimo secolo e che danno ora la possibilità ad ogni dispositivo di poterle comunicare in tempo reale. Grazie alle caratteristiche sopracitate di correlare con immediatezza le informazioni al singolo dispositivo e alla sua posizione geografica, è considerata tra i più rivoluzionari campi di sviluppo in ambito sociale ed economico, pur avendo potenziali problemi legati alla privacy e libertà individuale di non semplice soluzione. In questa tesi analizzerò i vari metodi di posizionamento fino ad oggi studiati, sia indoor (all’interno di edifici) che outdoor (all’esterno). Nel primo capitolo il documento presenta una riflessione storica sull’evoluzione del concetto di localizzazione, partendo dai primi tentativi di navigazione, fino ad arrivare ai più moderni sistemi tecnologici. Nel terzo e quarto capitolo esploro le tecniche esistenti rispettivamente per situazioni indoor e outdoor, tra cui GPS, localizzazione cellulare, sistemi a infrarossi, sistemi a onde radio e a ultrasuoni.Mi soffermerò inoltre sui vantaggi offerti da nuovi dispositivi con gli smartphones. Nel quinto capitolo analizzerò le caratteristiche di ogni istema, comparandole tra di loro. Farò poi riferimento ad alcuni casi reali di utilizzo di tali tecnologie, prima di concludere con alcune considerazioni personali.
Resumo:
La tesi affronta la vita e la riflessione politica di Beatrice Potter collocandola all’interno del pensiero politico britannico ed europeo della fine dell’Ottocento e dei primi decenni del Novecento. Rispetto alla maggior parte della bibliografia disponibile, risulta un’autonomia e un’originalità anche rispetto alla riflessione del marito Sidney Webb. La riflessione politica di Potter è caratterizzata in primo luogo dalla ricerca del significato immediatamente politico di quella scienza sociale, che si sta affermando come approccio scientifico dominante nell’intero panorama europeo. Il lavoro è diviso in tre ampi capitoli così suddivisi: il primo ricostruisce l’eredità intellettuale di Potter, con particolare attenzione al rapporto con la filosofia evoluzionista di Herbert Spencer, suo mentore e amico. In questo capitolo vengono anche discussi i contributi di John Stuart Mill, Joseph Chamberlain, Alfred Marshall e Karl Marx e la loro influenza sull’opera di Potter. Il secondo capitolo prende in esame la sua opera prima dell’incontro con il marito e mostra come lo studio della povertà, del lavoro, della metropoli, della cooperazione e delle condizioni delle donne getti le basi di tutta la produzione successiva della partnership. Lo studio politico della povertà, cioè la messa a punto di una scienza amministrativa del carattere sociale del lavoro, rappresenta uno degli elementi principali di quella che viene qui definita un’epistemologia della democrazia. Il terzo capitolo riprende il tema cruciale della democrazia nella sua accezione «industriale» e indaga il ruolo funzionale dello Stato, anche in relazione alla teoria pluralista di Harold Laski, al socialismo guildista di George D. H. Cole e all’idealismo di Bernard Bosanquet. Centrale in questo confronto del pensiero di Potter con il più ampio dibattito degli anni venti e trenta sulla sovranità è la concezione della decadenza della civiltà capitalista e dell’emergere di una new civilisation, dopo la conversione al comunismo sovietico.
Resumo:
Descrizione dell'algoritmo crittografico AES, criteri adottati dal NIST per la scelta di AES e considerazioni sulla sua sicurezza.
Resumo:
Questa tesi descrive una prima serie di misure effettuate per caratterizzare le prestazioni di un rivelatore di fotoni MCP-PMT a multi anodo, con particolare enfasi sulla risoluzione temporale e spaziale. I risultati sono stati confrontati con quelli relativi a tre ulteriori rivelatori (un MCP-PMT a singolo anodo e due fotomoltiplicatori a silicio). Le misure sono state effettuate presso i Laboratori dell’Istituto Nazionale di Fisica Nucleare (INFN - Sezione di Bologna) per conto del Dipartimento di Fisica dell’Università di Bologna. La rivelazione della luce ha sempre occupato un posto fondamentale nella Fisica Nucleare e Subnucleare. Il principio base della rivelazione consiste nel trasformare la luce incidente in un segnale elettrico misurabile e i primi strumenti storicamente utilizzati furono i fotomoltiplicatori. Successivamente furono introdotti dei nuovi rivelatori di fotoni chiamati Micro Channel Plates, composti da un array di canali di dimensioni microscopiche, ciascuno in grado di moltiplicare gli elettroni prodotti per effetto fotoelettrico dai fotoni incidenti. Questo nuovo modello presenta ottime prestazioni in particolare per quanto riguarda la risoluzione temporale, e questa insieme ad altre caratteristiche (come la segmentazione degli anodi, che permette una risoluzione spaziale migliore), ha spinto a studiarne il funzionamento.
Resumo:
L'oggetto di studio di questa tesi e' l'analisi degli ammassi di galassie (galaxy clusters) e delle loro proprieta', attraverso un introduttiva analisi morfologica e dinamica, considerazioni sulle proprieta' termiche (con caratteristiche collegate direttamente dalla temperatura), ed infine l'ispezione dei meccanismi che generano le emissioni non termiche e le loro sorgenti. Cercheremo delle relazioni fra le une e le altre. In particolare studieremo specifiche conformazioni del mezzo intergalattico (ICM, intracluster medium) all'interno degli ammassi, quali Aloni, Relitti e Mini Aloni, attraverso le radiazioni che essi sprigionano nella banda dei raggi X e onde radio. Le prime osservazioni sugli ammassi di galassie sono state effettuate gia' alla fine del '700 da Charles Messier, che, al fine di esaminare il cielo alla ricerca di comete, forni un catalogo di 110 oggetti cosmici che, pur apparendo nebulosi per via della limitatezza di risoluzione dei telescopi di allora, non erano sicuramente comete. Fra questi oggetti vi erano anche ammassi di galassie. I primi studi approfonditi si ebbero soltanto con il rapido incremento tecnologico del XX secolo che permise di capire che quelle formazioni confuse altro non erano che agglomerati di galassie. Telescopi piu' grandi, e poi interferometri, radiotelescopi osservazioni agli X hanno sostanzialmente aperto il mondo dell'astrofisica. In particolare Abell stabili' nel primo dopoguerra il primo catalogo di ammassi su determinazione morfologica. Altri astronomi ampliarono poi i parametri di classificazione basandosi su caratteristiche ottiche e meccaniche. Le analisi piu' recenti infine basano le loro conclusioni sullo studio delle bande non ottiche dello spettro, principalmente i raggi X e onde Radio.
Resumo:
Obiettivo del presente elaborato è quello di condurre un’analisi critica degli interventi atti a ridurre la vulnerabilità sismica di edifici esistenti in muratura al fine di individuare una metodologia che consenta di stimare l’intervento o la serie di interventi con il miglior rapporto diminuzione di vulnerabilità/costo d’intervento. Partendo dalla definizione dello United Nations Disaster Relief Coordination Office, con il termine vulnerabilità intenderò il grado di perdita di funzionalità, che può essere espresso in una scala da zero, che significa nessun danno, o cento, che significa perdita totale. Tale perdita si può produrre su un certo elemento o su un gruppo di elementi esposti a rischio al seguito del verificarsi di un evento calamitoso, nel caso specifico, il sisma. La normativa vigente individua, nel definire i criteri generali per la valutazione della sicurezza e per la progettazione, l’esecuzione ed il collaudo degli interventi sulle costruzioni esistenti, le seguenti categorie di intervento: 1)interventi di adeguamento atti a conseguire i livelli di sicurezza previsti dalla normativa stessa, 2)interventi di miglioramento atti ad aumentare la sicurezza strutturale esistente, pur senza necessariamente raggiungere i livelli richiesti dalla normativa, 3)riparazioni o interventi locali che interessino elementi isolati, e che comunque non comportino un miglioramento delle condizioni di sicurezza preesistenti. Nel proseguo, circoscriverò pertanto lo studio esclusivamente agli interventi di miglioramento, ovvero a quegli interventi che siano comunque finalizzati ad accrescere la capacità di resistenza delle strutture esistenti alle azioni considerate. Tuttavia, poiché gli interventi di riparazione del danno raramente sono solo fini a se stessi in quanto comportano sempre anche una componente di miglioramento, e dunque di riduzione della vulnerabilità sismica dell’edificio, la metodologia che verrà presentata potrà essere adottata sia nel caso di edifici che non hanno subito eventi sismici, e quindi non danneggiati, sia per gli edifici danneggiati da un evento sismico, scorporando, per questi ultimi, la quota parte del costo dell’intervento attribuibile alla sola riparazione del danno da quella attribuibile al miglioramento. Successivamente, partendo dalla descrizione delle schede di 2° livello GNDT (Gruppo Nazionale Difesa Terremoti), si procederà alla definizione di un indice di vulnerabilità degli edifici in muratura che tenga conto delle classi di vulnerabilità associate ai parametri riportati in dette schede in funzione delle carenze strutturali rilevate in fase di sopralluogo. Detto indice verrà poi utilizzato per valutare possibili ipotesi di intervento da applicarsi su un edificio in muratura esistente scelto come caso di studio. Per ciascun intervento ipotizzato, verrà calcolato il rapporto tra la riduzione di vulnerabilità ed i costi degli interventi stessi individuando, in un’ottica di analisi costi-benefici, l’ipotesi d’intervento più idonea.
Resumo:
Da anni l’insegnamento “trasmissivo” delle scienze è messo in discussione e le ricerche condotte su grandi numeri di studenti di diverso livello scolare ne stanno dimostrando la scarsa efficacia. Si è cercato di documentare e interpretare le difficoltà esistenti per trovare soluzioni che garantiscano un apprendimento significativo. Il lavoro di tesi cerca di mettere a punto una proposta efficace per una formazione iniziale su un concetto matematico significativo: la funzione. Il percorso che presentiamo si sviluppa a partire da un’esperienza didattica in una terza secondaria inferiore in cui il passaggio dalla fase percettiva a quella più formale è affiancato dalla rappresentazione grafica relativa al moto del proprio corpo. L’attività ha permesso di avvicinare gli studenti ai fenomeni partendo da situazioni reali, di indagare le regolarità dei grafici, interpretare la relazione tra le grandezze e ha permesso a ciascuno di costruirsi un modello intuitivo. La proposta didattica si rivolge agli studenti più grandi del biennio della secondaria superiore ed è risultato abbastanza naturale adattare le prime fasi alla pre-sperimentazione. Si introduce la dipendenza lineare tra due variabili associandola ad un grafico rettilineo e si definisce la relazione che lega le variabili spazio temporali. Il passaggio al concetto di limite viene delineato attraverso l’ingrandimento e l’approssimazione della curva senza necessariamente introdurre rigore e formalismo ma sottolineando la finezza del significato matematico e il senso del procedimento. Tale proposta è un intreccio di contenuti matematici e fisici che avvicina gli studenti allo studio e alla comprensione della realtà di cui fanno parte.
Resumo:
La tesi riprende un tema che è stato oggetto in passato di studi anche molto approfonditi; oggi sembra essere tornato alla ribalta grazie ad alcuni contributi che hanno nuovamente stimolato la dottrina a confrontarsi su aspetti così delicati anche alla luce della crisi economica. E'stato da sempre rilevato che la buona scrittura delle norme è un fattore fondamentale per il rilancio dell’economia del paese, per la semplificazione e per garantire ordine, coerenza e chiarezza all’ordinamento giuridico. La prima parte è incentrata su una ricostruzione storica e giuridica delle fonti che hanno disciplinato le “regole per la qualità delle regole”, oltre ad una panoramica della dottrina che si è occupata in passato del tema. Segue l’individuazione specifica di quali sono le regole formali e sostanziali di drafting. In particolare, una parte è dedicata alla giurisprudenza costituzionale per comprendere se esiste o meno un aggancio per la Corte Costituzionale da permetterle il sindacato sulle “regole oscure” e dichiararle illegittime. La seconda parte analizza le pressai, in particolare si è scelto di analizzare il rapporto tra Governo e Parlamento nelle problematiche principali che attengono al procedimento legislativo e alla cornice entro la quale viene esplicato in relazione alla decretazione d’urgenza, maxiemendamenti, questione di fiducia, istruttoria in commissione, gruppi di pressione. Ciò che è stato rilevato, è una scarsa aderenza ai principi e ai criteri di better regulation, peraltro difficilmente giustiziabili da parte della Corte costituzionale e sottratti al controllo di chi, al contrario, ha competenza in questo settore, ossia il Comitato per la legislazione e il DAGL. Le conclusioni, pertanto, prendono le mosse da una serie di criticità rilevate e tentano di tracciare una strada da percorrere che sia rispettosa dei canoni della “better regulation” anche alla luce delle riforme costituzionali e dei regolamenti parlamentari in corso di approvazione.
Resumo:
Studio storiografico condotto su fonti archivistiche, filmiche e sulla stampa locale e specializzata che ricostruisce dettagliatamente l'ambiente cittadino d'inizio Novecento nel quale si sono diffusi i primi spettacoli cinematografici, determinandone le caratteristiche e tracciandone l'evoluzione fra 1896 e 1925. L'avvento della cinematografia è strettamente connesso a un processo di modernizzazione del volto urbano, degli stili di vita, delle idee e il cinema si salda a queste istanze di rinnovamento, con una precisa ricaduta sull'immagine della città e sull'esperienza dei suoi cittadini appartenenti alle diverse classi sociali.
Resumo:
Questo lavoro si concentra su un particolare aspetto della sfaccettata ricerca scientifica di Johannes Kepler (1571-1630), ossia quello teorico-musicale. I pensieri dell’astronomo tedesco riguardanti tale campo sono concentrati – oltre che in alcuni capitoli del Mysterium cosmographicum (1596) ed in alcune sue lettere – nel Libro III dell’Harmonices mundi libri quinque (1619), che, per la sua posizione mediana all’interno dell’opera, tra i primi due libri geometrici e gli ultimi due astronomici, e per la sua funzione di raccordo tra la «speculazione astratta» della geometria e la concretizzazione degli archetipi geometrici nel mondo fisico, assume la struttura di un vero e proprio trattato musicale sul modello di quelli rinascimentali, nel quale la «musica speculativa», dedicata alla teoria delle consonanze e alla loro deduzione geometrica precede la «musica activa», dedicata alla pratica del canto dell’uomo nelle sue differenze, generi e modi. La tesi contiene la traduzione italiana, con testo latino a fronte, del Libro III dell’Harmonice, e un’ampia introduzione che percorre le tappe fondamentali del percorso biografico e scientifico che hanno portato alla concezione di quest’opera – soffermandosi in particolare sulla formazione musicale ricevuta da Keplero, sulle pagine di argomento musicale del Mysterium e delle lettere, e sulle riflessioni filosofico-armoniche sviluppate negli anni di ricerca – e offre gli elementi fondamentali per poter comprendere l’Harmonice mundi in generale e il Libro III in particolare. A ciò si aggiunge, in Appendice, la traduzione, anch’essa con testo latino a fronte, della Sectio V, dedicata alla musica, del Liber IX dell’Almagestum novum (1651) di Giovanni Battista Riccioli (1598-1671), interessante sia dal punto di vista della recezione delle teorie di Keplero che dal punto di vista della storia delle idee musicali.
Resumo:
La tesi indaga l’esperienza del teatro comunitario, una delle espressioni artistiche più originali e pressoché sconosciute nel panorama teatrale novecentesco, che ha avuto in Argentina un punto di riferimento fondamentale. Questo fenomeno, che oggi conta cinquanta compagnie dal nord al sud del paese latinoamericano, e qualcuna in Europa, affonda le sue radici nella Buenos Aires della post-dittatura, in una società che continua a risentire degli esiti del terrore di Stato. Il teatro comunitario nasce dalla necessità di un gruppo di persone di un determinato quartiere di riunirsi in comunità e comunicare attraverso il teatro, con l'obiettivo di costruire un significato sociale e politico. La prima questione messa a fuoco riguarda la definizione della categoria di studio: quali sono i criteri che consentono di identificare, all’interno della molteplicità di pratiche teatrali collettive, qualcosa di sicuramente riconducibile a questo fenomeno. Nel corso dell’indagine si è rivelata fondamentale la comprensione dei conflitti dell’esperienza reale e l’individuazione dei caratteri comuni, al fine di procedere a un esercizio di generalizzazione. La ricerca ha imposto la necessità di comprendere i meccanismi mnemonici e identitari che hanno determinato e, a loro volta, sono stati riattivati dalla nascita di questa esperienza. L’analisi, supportata da studi filosofici e antropologici, è volta a comprendere come sia cambiata la percezione della corporeità in un contesto di sparizione dei corpi, dove il lavoro sulla memoria riguarda in particolare i corpi assenti (desaparecidos). L’originalità del tema ha imposto la riflessione su un approccio metodologico in grado di esercitare una adeguata funzione euristica, e di fungere da modello per studi futuri. Sono stati pertanto scavalcati i confini degli studi teatrologici, con particolare attenzione alle svolte culturali e storiche che hanno preceduto e affiancato l’evoluzione del fenomeno.
Resumo:
L’obiettivo primario di questo lavoro è quello di esplorare un insieme di documentari corti italiani di tipo etnografico e sociologico. Questi film hanno ricevuto pochissima attenzione critica, mentre sono essenziali alla comprensione del periodo di storia italiana compreso fra gli ultimi anni del Regime fascista e la fine del “Miracolo economico”. La prima parte della tesi è dedicata alla descrizione del contesto economico, sociologico, politico in cui questi lavori sono stati prodotti. La seconda parte si concentra su circa un centinaio di documentari corti analizzati sulla base di tre diversi criteri. Innanzitutto li abbiamo considerati a partire da un punto di vista autoriale, secondariamente a partire dalle loro caratteristiche produttive e distributive e infine sulla base di un criterio regionale. A partire dalla discussione antropologica coeva riguardante la scomparsa dei mondi contadini e su una precisa ricerca d’archivio focalizzata sullo stesso tema, abbiamo poi comparato il risultato dell’analisi del corpus con altre forme filmiche di rappresentazione dello stesso soggetto. Oltre a far riemergere un gruppo di autori e film quasi dimenticati, questo lavoro intende lanciare uno sguardo sul veloce, conflittuale e sbilanciato cambiamento compreso fra i mondi rurali tradizionali e la modernità, che ha caratterizzato la società italiana degli anni Cinquanta e Sessanta.
Resumo:
Questa ricerca indaga come il “caso Ustica” si è articolato nell’opinione pubblica italiana negli anni compresi tra il 1980 e il 1992. Con l'espressione “caso Ustica” ci si riferisce al problema politico determinato dalle vicende legate all’abbattimento dell’aereo civile DC-9 dell’Itavia, avvenuto il 27 giugno 1980 in circostanze che, come noto, furono chiarite solamente a distanza di molti anni dal fatto. L’analisi intende cogliere le specificità del processo che ha portato la vicenda di Ustica ad acquisire rilevanza politica nell’ambito della sfera pubblica italiana, in particolare prendendo in considerazione il ruolo svolto dall’opinione pubblica in un decennio, quale quello degli anni ’80 e dei primi anni ’90 italiani, caratterizzato da una nuova centralità dei media rispetto alla sfera politica. Attraverso l’analisi di un’ampia selezione di fonti a stampa (circa 1500 articoli dei principali quotidiani italiani e circa 700 articoli tratti dagli organi dei partiti politici italiani) si sono pertanto messe in luce le dinamiche mediatiche e politiche che hanno portato alla tematizzazione di una vicenda che era rimasta fino al 1986 totalmente assente dall’agenda politica nazionale. L’analisi delle fonti giudiziarie ha permesso inoltre di verificare come la politicizzazione del caso Ustica, costruita intorno alla tensione opacità/trasparenza del potere politico e all’efficace quanto banalizzante paradigma delle “stragi di Stato”, sia risultata funzionale al raggiungimento, dopo il 1990, dei primi elementi di verità sulla tragedia e all’ampiamento del caso a una dimensione internazionale.
Resumo:
Primi elementi della teoria dei semigruppi di operatori lineari e applicazione del metodo dei semigruppi alle equazioni differenziali alle derivate parziali di tipo parabolico.