242 resultados para problemi additivi sui numeri primi
Resumo:
L'elaborato si incentra sulla figura di Wilfred Von Oven (1912-2008), addetto stampa personale di Joseph Goebbels che, a guerra finita, si trasferì in Argentina, dove lavorò come giornalista e visse fino alla morte. Il ritratto di Von Oven che viene presentato si basa su due principali documenti: un'intervista in lingua spagnola realizzata per la televisione argentina e conservata nell'Archivio Storico dell'Istituto Luce Cinecittà a Roma e la sua autobiografia in lingua tedesca, consultata presso la sede di Francoforte della Biblioteca Nazionale Tedesca. A partire da queste fonti, e da altri documenti, l'elaborato ricostruisce la biografia di Von Oven e analizza tratti della sua personalità e mentalità, con particolare riferimento alle posizioni nazionalsocialiste e revisioniste del suo pensiero. L'elaborato, in mancanza di documentazione in lingua italiana su Wilfred Von Oven, si propone di presentare i primi risultati di una ricerca su questo personaggio storico, ricerca che non può dirsi conclusa dati i molti punti interrogativi che rimangono intorno ad alcuni aspetti della vita e della mentalità di Von Oven.
Resumo:
La volontà di ritornare a un'Italia completamente unita sotto un'unica fede religiosa, quella cattolica, costituisce uno degli elementi che caratterizzarono il regime fascista. Sorge spontaneo chiedersi quali furono le sorti delle altre denominazioni religiose, insediatesi relativamente da poco tempo sul suolo italiano, e come esse reagirono di fronte a questo nuovo potere che cercò di screditarle e limitarle fino a farle scomparire. Si parla spesso della religione ebraica, la minoranza più colpita dalla dittatura: essa dovette subire numerosi provvedimenti che finirono per sfociare in un'aperta persecuzione. Tuttavia, parlare della realtà ebraica durante il regime fascista di Benito Mussolini sarebbe un argomento decisamente troppo esteso per questo mio breve elaborato finale. Mi concentrerò quindi sulle altre minoranze religiose esistenti all'epoca in Italia, tutte riconducibili al protestantesimo, per riflettere sui loro rapporti con il regime e sulle conseguenze che derivarono da determinati provvedimenti presi dal governo. Le mie considerazioni sulle minoranze religiose durante il fascismo inizieranno dai primi atti del nuovo regime, come gli episodi della marcia su Roma e l'attentato all'onorevole Matteotti, fino ad arrivare ad analizzare gli effetti di alcune azioni messe in atto dal governo in ambito religioso e la posizione assunta dalle diverse fedi. Infine, non potendomi soffermare su ogni singola denominazione e sul loro comportamento alla fine della Seconda guerra mondiale, osserverò in linea generale la realtà della Chiesa avventista, indicando i cambiamenti salienti che avvennero nel secondo dopoguerra.
Resumo:
Analisi degli stereotipi femminili sul corpo e sui ruoli, in particolare quelli del mondo televisivo.
Resumo:
Il sostantivo nelle costruzioni “идти в солдаты” è declinato all’accusativo. La sua animatezza in queste composizioni cambia nel seguente modo: diventa morfologicamente inanimato e sintatticamente parzialmente animato debole.
Resumo:
In questa analisi si cercherà di comprendere cosa caratterizza questa l'ondata di progresso tecnologico che sta cambiando il mercato del lavoro. Il principale aspetto negativo di questo progresso si chiama "Technological Unemployment". Benché gli esperti si trovino in disaccordo su quali siano le cause della persistente alta disoccupazione, Brynjolfsson e McAfee puntano il dito contro l'automazione che ha soppiantato i lavori ripetitivi delle aziende. Tuttavia, è anche vero che il progresso ha sempre portato aumenti di produttività, e soprattutto nuovi tipi di occupazioni che hanno compensato la perdita di posti di lavoro, nel medio-lungo termine. Keynes evidenzia che la disoccupazione dovuta alla scoperta di strumenti economizzatori di manodopera procede con ritmo più rapido di quello con cui riusciamo a trovare nuovi impieghi per la manodopera stessa. Da ciò si crea ansia per il futuro, più o meno motivata. Gli stessi esperti sono spaccati a metà tra chi ha fiducia nei possibili risvolti positivi del progresso e chi invece teme possa comportare scenari catastrofici. Le macchine ci rubano lavoro o ci liberano da esso? Con questa ricerca ci si pone l'obiettivo di analizzare le effettive prospettive dei prossimi decenni. Nel capitolo 2 che è il corpo della tesi prenderemo soprattutto in conto il lavoro accademico di Frey ed Osborne dell'Oxford Martin School, intitolato "The future of employment: how susceptible are jobs to computerisation?" (2013). Essi sono stati tra i primi a studiare e quantificare cosa comporteranno le nuove tecnologie in termini di impiego. Il loro obiettivo era individuare le occupazioni a rischio, da qui a vent'anni, nel mercato del lavoro degli Stati Uniti e la relazione che intercorre tra la loro probabilità di essere computerizzati e i loro salari e livello d'istruzione medi, il tutto valutato attraverso l'ausilio di una nuova metodologia che si vedrà nel dettaglio. A conclusioni simili alle loro, per certi aspetti, è successivamente giunto anche Autor; tra l'altro viene spesso citato per altre sue opere dagli stessi Frey e Osborne, che usano le sue categorizzazioni per impostare la struttura del loro calcolo dell'automatizzabilità dei lavori utilizzando i recenti miglioramenti nelle scienze ingegneristiche quali ML (Machine Learning ad esempio Data mining, Machine vision, Computational statistics o più in generale AI) e MR (Mobile robotics) come strumenti di valutazione. Oltre alle sue ricerche, si presenteranno brevemente i risultati di un recente sondaggio tenuto dal Pew Research Center in cui importanti figure dell'informatica e dell'economia esprimono il loro giudizio sul futuro panorama del mondo del lavoro, considerando l'imminente ondata di innovazioni tecnologiche. La tesi si conclude con un'elaborazione personale. In questo modo si prenderà coscienza dei problemi concreti che il progresso tecnologico potrebbe procurare, ma anche dei suoi aspetti positivi.
Resumo:
Nel campo della Ricerca Operativa e dei problemi di ottimizzazione viene presentato un problema, denominato Bus Touring Problem (BTP), che modella una problematica riguardante il carico e l’instradamento di veicoli nella presenza di di vincoli temporali e topologici sui percorsi. Nel BTP, ci si pone il problema di stabilire una serie di rotte per la visita di punti di interesse dislocati geograficamente da parte di un insieme di comitive turistiche, ciascuna delle quali stabilisce preferenze riguardo le visite. Per gli spostamenti sono disponibili un numero limitato di mezzi di trasporto, in generale eterogenei, e di capacitá limitata. Le visite devono essere effettuate rispettando finestre temporali che indicano i periodi di apertura dei punti di interesse; per questi, inoltre, é specificato un numero massimo di visite ammesse. L’obiettivo é di organizzare il carico dei mezzi di trasporto e le rotte intraprese in modo da massimizzare la soddisfazione complessiva dei gruppi di turisti nel rispetto dei vincoli imposti. Viene presentato un algoritmo euristico basato su Tabu Search appositamente ideato e progettato per la risoluzione del BTP. Vengono presentati gli esperimenti effettuati riguardo la messa appunto dei parametri dell'algoritmo su un insieme di problemi di benchmark. Vengono presentati risultati estesi riguardo le soluzioni dei problemi. Infine, vengono presentate considerazioni ed indicazioni di sviluppo futuro in materia.
Resumo:
L’introduzione della tomografia computerizzata nelle applicazioni oncologiche è stata rivoluzionaria per la diagnostica delle immagini di molti organi e apparati, superando i limiti della radiologia convenzionale. Questa tecnica rappresenta, infatti, un efficace strumento nella diagnosi e caratterizzazione di numerosi tumori, in quanto questo tipo di applicazione perfusionale amalgama informazioni di natura morfologica, tipiche della TC tradizionale, con studi funzionali sui tessuti in esame. Tuttavia, diversi problemi, tra cui la mancanza di un protocollo standard sia durante la fase di acquisizione dei dati, sia durante la fase di elaborazione dei dati, costituiscono un ostacolo per la trasposizione in clinica della TCp. In questo lavoro di Tesi si è trattato principalmente della modalità di analisi dei dati: ad oggi, infatti, non è ancora stato formulato un protocollo che stabilisca in modo univoco una tecnica di analisi delle mappe perfusionali risultanti dall’elaborazione delle immagini TCp. In particolare, si è tentato di affiancare ai classici metodi di analisi di immagini noti in letteratura un ulteriore tecnica che si basa sull’analisi voxel-by-voxel della regione d’interesse su più slice e non solo su quella di riferimento. Questo studio è stato fortemente motivato dall’elevato grado di eterogeneità che caratterizza molti tessuti neoplastici. A tal proposito, l’elaborato mira ad analizzare in modo qualitativo le mappe perfusionali di slice adiacenti a quella di riferimento e a verificare se queste possano restituire informazioni aggiuntive che risultino indispensabili ai fini della formulazione di una corretta diagnosi e scelta del piano terapeutico da applicare al paziente.
Studio dell'interazione tra un plasma jet nanopulsato con substrati metallici, dielettrici e liquidi
Resumo:
Il plasma è denominato quarto stato della materia ed è generalmente definito come un gas ionizzato costituito da elettroni e ioni. In ambito industriale i plasmi hanno trovato impiego per diversi tipi di applicazione quali il trattamento di superfici, la degradazione e lo smaltimento di rifiuti, il taglio di materiali, primi fra tutti i metalli. In particolare i plasmi atmosferici di non equilibrio, che possiedono la caratteristica di mantenere una temperatura macroscopica paragonabile a quella ambiente, sono studiati anche per applicazioni in campo biomedicale, oltre che in quello industriale. Da alcuni anni sono quindi oggetto di indagine per le caratteristiche di sterilizzazione di fluidi o solidi, per la coagulazione e il trattamento di lesioni e lacerazioni, per trattamenti su superfici quali la pelle, per il trattamento di cellule tumorali e staminali o per interfacce dispositivi biomedicali – corpo umano. Questo nuovo settore di ricerca, in grande sviluppo, viene comunemente definito Plasma & Medicine. Poiché in ambito biomedicale, un trattamento plasma può interessare diverse tipologie di substrati biologici e materiali, è stato scelto come obiettivo della tesi la caratterizzazione di una sorgente di plasma di non equilibrio a pressione atmosferica, denominata Plasma Jet, posta ad interagire con substrati di diversa natura (metallico, dielettrico, liquido). La sorgente utilizzata è in grado di produrre un plasma freddo e biocompatibile, generando diverse specie chimiche che garantiscono effetti molto interessanti (sterilizzazione, accelerazione della coagulazione sanguigna, cura di infezioni) per un utilizzo a contatto con il corpo umano o con componenti ingegneristiche che devono venire ad interagire con esso, quali stent, cateteri, bisturi. La caratterizzazione è stata effettuata mediante l’ausilio di due tecniche diagnostiche: la Schlieren Imaging, che permette di studiare la fluidodinamica del gas, OES (Optical Emission Spettroscopy), che permette di analizzare la composizione chimica della piuma di plasma e di determinare le specie chimiche che si producono. Questo elaborato si propone quindi di fornire una breve introduzione sul mondo dei plasmi e sulle loro caratteristiche, citando alcuni dei settori in cui viene utilizzato, industriali e biomedicali, con particolare attenzione per questi ultimi. Successivamente saranno riportati i setup utilizzati per le acquisizioni e una discussione sui risultati ottenuti dalle diverse tecniche diagnostiche utilizzate sul Jet durante i trattamenti. In ultimo sono poi riportate le conclusioni in modo da presentare le caratteristiche più importanti del comportamento della sorgente.
Resumo:
Lo studio ha lo scopo di valutare e confrontare l'efficienza del packaging in “LID” con atmosfera modificata a confronto con il confezionamento più tradizionale in “stretch” con atmosfera ordinaria, sulla shelf-life di diversi prodotti avicoli quali petti e sovracosce di pollo e fese di tacchino. A tal fine sui prodotti diversamente confezionati sono state valutate le variazioni di alcuni parametri qualitativi analizzando e confrontando alcuni aspetti tecnologici (pH, colore, texture, capacità di ritenzione idrica) durante un periodo di stoccaggio di 15 giorni in diverse condizioni di refrigerazione: durante i primi 3 giorni a 0-2°C, dal terzo al quindicesimo giorno a 6-8°C, al fine di simulare condizioni di abuso termico ed accelerare i fenomeni di deterioramento.
Resumo:
Analisi di un sistema per il posizionamento e la movimentazione di sensori in galleria del vento. In particolare l’analisi è stata focalizzata sul sistema di movimentazione sonde (traversing) presente nel long-pipe in CICLoPE (Center for International Cooperation in Long Pipe Experiments). La struttura menzionata nasce per far fronte ad alcuni dei limiti presenti negli attuali laboratori fluidodinamici per lo studio della turbolenza ad alti numeri di Reynolds. Uno degli obiettivi del centro è quello di caratterizzare le più piccole strutture caratteristiche della turbolenza. Al fine di permettere tale studio era necessario migliorare il traversing esistente per ottenere movimenti ad alta precisione, in modo da raggiungere lo stesso ordine di grandezza delle scale più piccole della turbolenza. Il miglioramento di tale strumentazione è stato necessario anche per fornire un valido supporto alle metodologie esistenti per la determinazione della distanza tra sonde e parete, che resta una delle difficoltà nello studio della turbolenza di parete. L’analisi del traversing, svolta attraverso più test, ha fatto emergere problemi sia nella struttura del sistema, sia nel software che gestisce il motore per la movimentazione. La riprogrammazione del software e la rettifica di alcuni componenti del sistema hanno permesso di eliminare gli errori emersi. Le piccole imprecisioni restanti durante la movimentazione, non eliminabili con un’implementazione software, verranno totalmente superate grazie all’impiego del nuovo motore dotato di un encoder rotativo che sarà in grado di retroazionare il sistema, fornendo il reale spostamento effettuato.
Resumo:
Il lavoro di questa tesi riguarda principalmente l'upgrade, la simulazione e il test di schede VME chiamate ReadOut Driver (ROD), che sono parte della catena di elaborazione ed acquisizione dati di IBL (Insertable B-Layer). IBL è il nuovo componente del Pixel Detector dell'esperimento ATLAS al Cern che è stato inserito nel detector durante lo shut down di LHC; fino al 2012 infatti il Pixel Detector era costituito da tre layer, chiamati (partendo dal più interno): Barrel Layer 0, Layer 1 e Layer 2. Tuttavia, l'aumento di luminosità di LHC, l'invecchiamento dei pixel e la richiesta di avere misure sempre più precise, portarono alla necessità di migliorare il rivelatore. Così, a partire dall'inizio del 2013, IBL (che fino a quel momento era stato un progetto sviluppato e finanziato separatamente dal Pixel Detector) è diventato parte del Pixel Detector di ATLAS ed è stato installato tra la beam-pipe e il layer B0. Questa tesi fornirà innanzitutto una panoramica generale dell'esperimento ATLAS al CERN, includendo aspetti sia fisici sia tecnici, poi tratterà in dettaglio le varie parti del rivelatore, con particolare attenzione su Insertable B-Layer. Su quest'ultimo punto la tesi si focalizzerà sui motivi che ne hanno portato alla costruzione, sugli aspetti di design, sulle tecnologie utilizzate (volte a rendere nel miglior modo possibile compatibili IBL e il resto del Pixel Detector) e sulle scelte di sviluppo e fabbricazione. La tesi tratterà poi la catena di read-out dei dati, descrivendo le tecniche di interfacciamento con i chip di front-end, ed in particolare si concentrerà sul lavoro svolto per l'upgrade e lo sviluppo delle schede ReadOut Drivers (ROD) introducendo le migliorie da me apportate, volte a eliminare eventuali difetti, migliorare le prestazioni ed a predisporre il sistema ad una analisi prestazionale del rivelatore. Allo stato attuale le schede sono state prodotte e montate e sono già parte del sistema di acquisizione dati del Pixel Detector di ATLAS, ma il firmware è in continuo aggiornamento. Il mio lavoro si è principalmente focalizzato sul debugging e il miglioramento delle schede ROD; in particolare ho aggiunto due features: - programmazione parallela delle FPGA} delle ROD via VME. IBL richiede l'utilizzo di 15 schede ROD e programmandole tutte insieme (invece che una alla volta) porta ad un sensibile guadagno nei tempi di programmazione. Questo è utile soprattutto in fase di test; - reset del Phase-Locked Loop (PLL)} tramite VME. Il PLL è un chip presente nelle ROD che distribuisce il clock a tutte le componenti della scheda. Avere la possibilità di resettare questo chip da remoto permette di risolvere problemi di sincronizzazione. Le ReadOut Driver saranno inoltre utilizzate da più layer del Pixel Detector. Infatti oltre ad IBL anche i dati provenienti dai layer 1 e 2 dei sensori a pixel dell’esperimento ATLAS verranno acquisiti sfruttando la catena hardware progettata, realizzata e testata a Bologna.
Resumo:
Il concetto di inflazione e' stato introdotto nei primi anni ’80 per risolvere alcuni problemi del modello cosmologico standard, quali quello dell’orizzonte e quello della piattezza. Le predizioni dei piu' semplici modelli inflazionari sono in buon accordo con le osservazioni cosmologiche piu'recenti, che confermano sezioni spaziali piatte e uno spettro di fluttuazioni primordiali con statistica vicina a quella gaussiana. I piu' recenti dati di Planck, pur in ottimo accordo con una semplice legge di potenza per lo spettro a scale k > 0.08 Mpc−1 , sembrano indicare possibili devi- azioni a scale maggiori, seppur non a un livello statisticamente significativo a causa della varianza cosmica. Queste deviazioni nello spettro possono essere spiegate da modelli inflazionari che includono una violazione della condizione di lento rotolamento (slow-roll ) e che hanno precise predizioni per lo spettro. Per uno dei primi modelli, caratterizzato da una discontinuita' nella derivata prima del potenziale proposto da Starobinsky, lo spettro ed il bispettro delle fluttuazioni primordiali sono noti analiticamente. In questa tesi estenderemo tale modello a termini cinetici non standard, calcolandone analiticamente il bispettro e confrontando i risultati ottenuti con quanto presente in letteratura. In particolare, l’introduzione di un termine cinetico non standard permettera' di ottenere una velocita' del suono per l’inflatone non banale, che consentira' di estendere i risultati noti, riguardanti il bispettro, per questo modello. Innanzitutto studieremo le correzioni al bispettro noto in letteratura dovute al fatto che in questo caso la velocita' del suono e' una funzione dipendente dal tempo; successivamente, cercheremo di calcolare analiticamente un ulteriore contributo al bispettro proporzionale alla derivata prima della velocita' del suono (che per il modello originale e' nullo).
Resumo:
Studio delle opzioni Americani e dell’utilizzo del modello ad albero binomiale per risolvere a livello pratico i problemi legati a tali strumenti finanziari. Dopo una breve introduzione sulla nascita e la diffusione della Finanza Matematica e dei principali argomenti di studio, nel primo capitolo vengono esposti i concetti chiave della materia e vengono analizzati i primi problemi legati all'utilizzo delle opzioni. Il capitolo successivo affronta in modo analitico e rigoroso il tema delle opzioni Americane concentrandosi sulla risoluzione teorica di copertura, valutazione e strategia ottimale. Infine vengono descritte le modalità con cui il modello binomiale consente nella pratica la risoluzione delle suddette problematiche. Sono esposti in appendice i requisiti matematici necessari per una buona comprensione dell’elaborato.
Resumo:
La ricerca condotta per questa tesi è incentrata sulla cosmesi naturale e rappresenta il risultato di un tirocinio avanzato svolto in collaborazione con l'azienda Remedia di Quarto di Sarsina (FC), i cui settori principali sono l'erboristeria e la cosmesi naturale. Lo scopo del progetto consiste nella preparazione di un interprete ad una conferenza sul tema della cosmesi naturale per le lingue italiano e tedesco. L'enfasi viene posta sul metodo da adottare per acquisire sia la terminologia sia le nozioni basilari del dominio in un arco di tempo limitato. Si tratta quindi di una ricerca linguistica incentrata sui termini e sulla fraseologia che ricorrono con maggiore frequenza nel corpus in italiano sul tema trattato. La tesi è suddivisa in quattro capitoli. Il primo capitolo tratta la pelle, la cosmesi tradizionale, gli ingredienti più controversi, i principali marchi di certificazione biologica per la cosmesi, infine descrive l'azienda e i metodi utilizzati per la trasformazione delle piante officinali. Il secondo capitolo introduce la metodologia adottata e i problemi riscontrati nel corso del progetto. Tratta inoltre la linguistica dei corpora connessa agli studi di terminologia, il ruolo svolto dall'esperto, la creazione di corpora specialistici e paragonabili nelle lingue di lavoro, nonchè l'analisi dei termini più ricorrenti e dei loro equivalenti interlinguistici nel loro contesto naturale. Infine introduco il prototipo di tesauro utilizzato per registrare 300 dei termini che ricorrono più frequentemente nel corpus in italiano. Il terzo capitolo presenta una disamina degli aspetti generali della terminologia, delle sue origini e delle principali scuole, in particolare la scuola di Vienna e il contributo di Eugen Wüster. Affronta inoltre le caratteristiche della comunicazione specialistica, ponendo l'accento su tecnicismi collaterali, equivalenza e variazione. Il quarto capitolo tratta nel dettaglio i risultati del progetto corredati da alcune osservazioni a livello cognitivo e terminologico.
Resumo:
In questa tesi si analizza in parte il Wi-Fi Protected Setup (WPS), standard creato con l’obiettivo di configurare in maniera semplice, sicura e veloce reti Wi-Fi. Dopo avere introdotto lo standard ne vengono presentate le vulnerabilità progettuali ed anche quelle relative a problematiche implementative. In seguito viene mostrato il programma che si è sviluppato per eseguire una delle tipologie di attacchi presentati.