334 resultados para moderni eurooppalainen sivilisaatio
Resumo:
Nel corso degli anni il calcio italiano, dalla storia e tradizioni invidiabili, ha perso terreno nella battaglia competitiva del calcio europeo sia per quanto riguarda il risultato sportivo sia per quanto riguarda il risultato economico. La cultura calcistica però appassiona e unisce italiani come nient’altro. Dopo decenni di prestazioni all’insegna di tutti, nell’attuale scenario l’Italia calcistica si trova in una diversa posizione, con lo sguardo verso nuovi orizzonti. Il calcio italiano professionistico avrebbe bisogno di una strategia o di un modello di successo da imitare, innanzitutto nella veste del suo campionato di punta, la Serie A, per ripartire e diventare competitiva in primo luogo nel contesto europeo molto competitivo. Nonostante tutti gli scandali e problemi di natura finanziaria che hanno caratterizzato la storia del calcio italiano – oltreché i problemi attuali, per esempio, riguardo all’età media dei giocatori di Serie A – il suo profondo bagaglio culturale calcistico rimane, in sostanza, un punto di partenza fermo senza molti paragoni al mondo. La responsabilità di sviluppare e rivitalizzare il ‘prodotto’ calcio ha bisogno di idee nuove e investimenti al pari dei competitori principali. I problemi di prima importanza da risolvere sono la moltiplicazione e la ristrutturazione del modello di ricavi e gli impianti sportivi urgentemente da privatizzare e ristrutturare per renderli moderni e più profittabili. I tifosi di calcio, che si contano in decine di milioni solo in Italia (oggi come oggi addirittura 4 italiani su 10 si definiscono “tifosi militanti”), avrebbero bisogno di un ‘prodotto’ rivitalizzato che ha conservato il suo orgoglio e le caratteristiche nazionali uniche, tra cui, la parte sana della cultura dei tifosi organizzati chiamati ‘ultras’, di cui il modo di tifare ma in parte anche il linguaggio e le caratteristiche simboliche, sono divenuti, nel corso degli anni, conosciuti e imitati in larga parte del mondo. Tuttavia, in prospettiva non si può e non si deve trascurare l’impatto e le possibili opportunità finanziarie che il sempre più ampio e crescente mercato del calcio internazionale potrebbe offrire, nonostante ne soffrisse un po’ l’identità tradizionale del calcio italiano.
Resumo:
La geolocalizzazione è l’insieme di metodi e tecniche che permette di mettere in relazione una certa informazione con un punto specifico della superficie terrestre. Il punto è generalmente indicato in maniera assoluta tramite coordinate latitudinali e longitudinali, oppure in maniera relativa ad altri punti noti. Nello specifico il concetto di geolocalizzazione enfatizza l’aspetto dinamico, riferendosi ad informazioni in tempo reale relative alla posizione, direzione e velocità del soggetto analizzato, e la conseguente analisi di percorso e comportamento. Tutto questo rende possibile la realizzazione di un sistema di localizzazione efficiente. La geolocalizzazione è considerata tra i più rivoluzionari campi di sviluppo in ambito sociale ed economico, pur avendo potenziali problemi legati alla privacy e libertà individuale di non semplice soluzione. In particolare è di interesse di ricerca e in ambito di commercio trovare un sistema di localizzazione adeguato non solo per l’esterno ma anche per situazioni indoor. In questa tesi verranno analizzati i vari metodi di posizionamento fino ad oggi studiati, sia indoor che outdoor per arrivare a proporre un sistema di localizzazione indoor basato su geomagnetismo dell’ambiente. Nel primo capitolo il documento presenta una riflessione storica sull’evoluzione del concetto di localizzazione, partendo dai primi tentativi di navigazione, fino ad arrivare ai più moderni sistemi tecnologici. Vedremo quindi nello specifico quali sono gli ultimi studi e tecnologie per un sistema di localizzazione indoor, concentrandosi sull’analisi dei vantaggi offerti da nuovi dispositivi con gli smartphones. Infine verrà descritto nel dettaglio il lavoro effettuato per la realizzazione di un prototipo di sistema di localizzazione indoor basato su geomagnetismo in sede aziendale GetConnected, dove si è svolta l’attività di tesi, e presso un grosso centro commerciale come caso d’uso pratico.
Resumo:
Il presente elaborato si propone di analizzare i moderni sistemi d’isolamento sismico. In particolare si studiano il funzionamento e le procedure di calcolo degli isolatori a pendolo scorrevole, facendo riferimento alle prescrizioni dell’attuale normativa tecnica e si analizza l’affidabilità sismica di una struttura isolata con tali dispositivi. Nell’ottica di voler introdurre i concetti base della progettazione antisismica, nel primo capitolo, vengono descritte le origini del fenomeno sismico, per arrivare alla definizione di accelerogramma di un terremoto. Per comprendere il passaggio da accelerogramma a spettro dell’azione sismica, si introduce la dinamica dei sistemi ad un grado di libertà per poi arrivare a definire gli spettri di risposta previsti dall’attuale normativa. Nel secondo capitolo vengono illustrati gli scopi e le funzionalità dell’isolamento sismico per poi passare in rassegna le principali tipologie di dispositivi antisismici attualmente in commercio. Nel terzo capitolo si analizza nel dettaglio il funzionamento degli isolatori a pendolo scorrevole, studiandone la modellazione matematica alla base e le procedure di calcolo previste dall’Eurocodice 8 e dalle NTC 08. Nello stesso capitolo viene progettato un dispositivo di isolamento a pendolo scorrevole, secondo l'analisi lineare equivalente. Nel quarto capitolo viene illustrata l’analisi sismica effettuata dagli ingegneri Castaldo, Palazzo e Della Vecchia, dell’università di Salerno, i cui risultati sono riportati nella rivista scientifica Engeneering structures, n. 95, 2015, pp. 80-93. Lo studio è effettuato sul modello strutturale tridimensionale di un edificio in calcestruzzo armato, isolato alla base con dispositivi a pendolo scorrevole.
Resumo:
I moderni processori multi-core ad elevate prestazioni sono alimentati da regolatori di tensione integrati direttamente sul chip. Questi regolatori forniscono a ciascun power domain la tensione ottimale sulla base della sua attività, monitorata da una Power Control Unit. Questo consente da un lato di ottenere una riduzione dei consumi, dall'altro di avere un boost delle prestazioni in particolari contesti. Tali regolatori integrati sul die sono affetti da guasti e fenomeni di aging, che possono compromettere il corretto funzionamento del circuito. Questi problemi non sono tollerabili in contesti caratterizzati da esigenze di elevata reliability, come l'autonomous driving. Dunque, è stato sviluppato un monitor per rivelare on-line eventuali guasti che possono verificarsi durante il normale funzionamento sul campo. In caso di guasto il monitor è in grado di dare un'indicazione d'errore, che può essere utilizzata per attivare delle procedure di recovery. La soluzione proposta, basata su un approccio completamente differente rispetto a quello suggerito dallo standard ISO 26262, beneficia, rispetto a quest'ultima, di costi nettamente inferiori e prestazioni superiori. Il monitor può essere calibrato automaticamente per compensare le variazioni dei parametri di processo ed i fenomeni di aging che possono affliggere il monitor stesso. È stata verificata la self-checking ability del monitor rispetto a guasti di tipo transistor stuck-on, transistor stuck-open e bridging resistivo, risultando Totally Self-Checking rispetto all'insieme di guasti considerato.
Resumo:
Il processo di intensificazione dell’allevamento suinicolo ha comportato conseguenze importanti dal punto di vista sanitario. Nei moderni sistemi di produzione la salute è compromessa a causa di malattie multifattoriali e l'identificazione degli agenti casuali di malattia non può basarsi esclusivamente sul risultato di un unico test diagnostico. La maggior parte dei patogeni è ubiquitaria, quindi l'identificazione di un agente infettivo suggerisce solo una possibile diagnosi. La patologia gioca un ruolo chiave nel determinare la causalità nella diagnosi delle malattie infettive. L'istopatologia consente di correlare la presenza dell'agente infettivo con le lesioni microscopiche caratteristiche: in base alla disponibilità di anticorpi o sonde per rilevare rispettivamente la presenza di antigeni o del genoma di virus o batteri nelle sezioni istologiche, l'istopatologia è utile per determinare il nesso causale con la malattia. L'introduzione di questa tesi è incentrata sulla discussione del ruolo della patologia nelle malattie infettive del suino, seguita dalla descrizione del corretto campionamento per l'esame istopatologico nella diagnosi delle malattie respiratorie, enteriche e riproduttive. La sezione sperimentale riporta i risultati delle indagini diagnostiche in patologia suina condotte per definire il ruolo di PCV2 e PRRSV nel complesso delle malattie respiratorie del suino (PRDC)(capitolo 2) e per definire un percorso diagnostico per l'enteropatia proliferativa suina causata da Lawsonia intracellularis ai fini dell'implementazione dell'accuratezza diagnostica (capitolo 3). Il capitolo 4 descrive l'uso dell'istopatologia come componente metodologica essenziale per valutare l'efficacia protettiva dei vaccini negli studi di challenge vaccinazione-infezione. Il capitolo descrive i risultati ottenuti in due successive sperimentazioni per valutare l'efficacia di due vaccini sperimentali per PCV2, il primo formulato con ceppo PCV2b inattivato somministrato a differenti dosi di antigene; il secondo formulato con antigene "Cap" ricombinante non assemblato in particelle simil-virali (VLP).
Resumo:
La ricerca, divisa in tre parti, analizza il frammento superstite del film collocandolo nell’ambito del filone dei film “seriali “che si affermano, anche in Italia, parallelamente alle più note esperienze americane, dove emerge un nuovo modello di donna audace ed indipendente. Lo studio si concentra sul restauro e sulla fonte letteraria del film, il romanzo scritto da Carolina Invernizio nel 1909, nonché sul contesto dei romanzi d’appendice a lungo denigrati dalla critica letteraria e oggetto di analisi storiografica e narratologica solo a partire dagli anni Settanta del Novecento. Viene inoltre esaminata la figura della poliziotta dilettante, progenitrice delle detective donne che popolano i prodotti della serialità contemporanea. Si constata che la dimensione filmica libera il personaggio della protagonista dalle maglie ancora retrive della letteratura d’appendice, restituendoci un'immagine femminile dai tratti dinamici e moderni.
Resumo:
Diversi studi in didattica della matematica sostengono che la performance sia influenzata non solo da fattori cognitivi ma anche da fattori affettivi. È ormai assodato che ogni individuo si approccia ai saperi da acquisire e da insegnare in modi dipendenti da aspetti come le emozioni che ha provato e che prova nei confronti della disciplina, le competenze che crede di possedere, le convinzioni sui contenuti disciplinari da apprendere o da spiegare. La matematica che si studia nella scuola secondaria di secondo grado è lontana dalla matematica contemporanea e dalla ricerca attuale. Questo, unito al fatto che quasi mai si sottolinea il percorso storico che ha portato allo sviluppo di certi strumenti matematici, fa sì che l’idea che uno studente si fa di questa disciplina sia irrealistica: una materia arida, immobile, con risultati indiscutibili e stabiliti nell’antichità più remota. Alla luce di ciò si può pensare di proporre agli studenti di scuola secondaria attività che li stimolino e li motivino, nell’ottica di modificare l'insieme delle loro convinzioni sulla matematica. In questo lavoro mi sono occupata della classificazione delle varietà bidimensionali per poi affrontare il passaggio alle 3-varietà. Si tratta di un problema che presenta diversi motivi di interesse: classico ma risolto in tempi moderni, frutto di un processo di pensiero collettivo e che mostra come la matematica sia una materia in costante evoluzione, nella quale l’approccio interdisciplinare può essere vincente rispetto a quello settoriale. Una prima parte del lavoro è stata dedicata allo studio dei temi topologici e geometrici con riferimento non solo alla genesi e, quando possibile, alla strategia dimostrativa, ma anche alla loro valenza didattica. Una seconda parte è stata dedicata alla selezione e all’analisi di come alcuni di questi contenuti si possano declinare in modo fruibile e fertile per gli studenti di scuola secondaria e alla progettazione di un possibile percorso didattico.
Resumo:
Gli Insider Threat sono una problematica complessa e rappresentano una delle problematiche più costose per le organizzazioni: questi ultimi possono, potenzialmente, realizzare grandi guadagni dalle informazioni sottratte danneggiando i clienti e provocando danni irreparabili all’organizzazione. Screening effettuati prima dell’assunzione e la costruzione di un relazione di fiducia basata sulla collaborazione rimangono fondamentali ma, spesso, non sono sufficienti ed è bene integrare il processo di difesa da insider threat all’interno delle business operation. Date queste precondizioni, l’obiettivo di questa tesi è stato quello di cercare un approccio sistematico per affrontare il problema dell’Insider Threat e di fornire nuovi strumenti per la sua detection altamente specializzati nel campo della cyber-security. Dato il campo applicativo, risulta fondamentale rendere questo processo totalmente trasparente al potenziale insider threat. Le più moderne tecniche di hiding, prese dai moderni malware, sono state implementate utilizzando eBPF rendendo possibile unire una quasi totale invisibilità unita alla stabilità garantita da questa tecnologia.
Resumo:
La memoria semantica, e la sua correlazione con il linguaggio, sono alla base di molti studi di neuroscienze cognitive e della formulazione di diverse teorie volte a comprendere la loro organizzazione, le unità neurali coinvolte e i meccanismi di apprendimento. In passato si cercava di rispondere a queste domande attraverso lo studio anatomico di lesioni della corteccia cerebrale in relazione al danno mnemonico che ne derivava per andare ad ipotizzare in quale area del cervello una determinata informazione veniva immagazzinata. Ricerche sempre più recenti hanno introdotto nel metodo di studio strumenti ed apparecchiature volte ad aiutare l’indagine e la ricerca, in modo da poter osservare e visualizzare quale area della corteccia viene attivata o disattivata in funzione ad uno specifico stimolo esterno. Infatti, l’attenzione dei ricercatori sui sintomi dei disturbi e sui disturbi stessi della memoria semantica, ha dato luce a molti aspetti importanti riguardo i meccanismi cerebrali fondamentali per la funzione corretta di tale memoria. Nel corso degli anni quindi attraverso questi studi sono stati sviluppati diversi modelli teorici con lo scopo di analizzare e studiare i meccanismi alla base delle diverse memorie, in questo caso della memoria semantica. È grazie a questi modelli che si può cercare di comprendere come la conoscenza del significato di parole e concetti sia immagazzinata nel sistema nervoso e successivamente utilizzata. Pertanto, si esaminano i modelli computazionali tradizionali nell'ambito dei modelli di rete (basati su associazioni libere), dei modelli di caratteristiche (basati su norme di generazione di proprietà) e dei modelli distributivi, discutendo il loro contributo a importanti dibattiti in letteratura sulla rappresentazione della conoscenza e apprendimento. Inoltre, si valuta come i moderni modelli computazionali, ad esempio modelli basati sul recupero, stanno rivisitando il tradizionale concetto di memoria "statica".
Resumo:
Fino a 15 anni fa, era possibile aumentare il numero di transistor su un singolo chip e contemporaneamente la sua frequenza di clock mantenendo la densità di potenza costante. Tuttavia dal 2004 non è più possibile mantenere invariata la potenza dissipata per unità d’area a causa di limitazioni fisiche. Al fine di aumentare le performance dei processori e di impedire una diminuzione delle frequenze di clock, i processori moderni integrano on-die dei Power Controller Subsystems (PCS) come risorsa hardware dedicata che implementa complesse strategie di gestione di temperatura e potenza. In questo progetto di tesi viene progettata l'architettura dell'interfaccia di comunicazione di ControlPULP, un PCS basato su ISA RISC-V, per la connessione verso un processore HPC. Tale interfaccia di comunicaione integra il supporto hardware per lo scambio di messaggi secondo la specifica SCMI. L'interfaccia sviluppata viene successivamente validata attraverso simulazione ed emulazione su supporto hardware FPGA. Tale supporto hardware viene inoltre utilizzato per la caratterizzazione dell'utilizzo di risorse dell'architettura progettata. Oltre allo sviluppo dell'interfaccia hardware viene sviluppato e caratterizzato un firmware per la decodifica dei messaggi SCMI conforme ai requisiti di esecuzione su un sistema real-time.
Resumo:
Lo scopo di questa attività di tesi è quello di rilevare dinamicamente la posizione di ostacoli mediante radar FMCW. I radar a onda continua modulati in frequenza sono alla base dei moderni sensori in ambito automotive, in quanto consentono allo stesso tempo di rilevare la distanza, l’angolazione e la velocità di un corpo detto target analizzando gli scostamenti temporali e in frequenza tra i segnali (detti chirp) trasmessi e quelli riflessi dai corpi. Nel lavoro di tesi si analizza sperimentalmente come il radar a onda continua MIMO (multiple input multiple output) RBK2, presente presso il laboratorio TLC del Campus di Cesena, può essere utilizzato per ricavare la velocità relativa di un target, che si avvicina o si allontana dal radar. Innanzitutto, vengono settati i parametri per l’acquisizione e per il processing necessario per ottenere una matrice Angolo-Range che caratterizza staticamente il target. Il mixer interno al radar, a seguito della ricezione di un segnale di eco, produce un segnale a frequenza intermedia il cui spettro presenta un picco in corrispondenza della distanza del target che lo ha riflesso. A questo punto si conosce la posizione del corpo e si procede con la stima della velocità sfruttando l’effetto Doppler: analizzando i chirp riflessi dallo stesso target in istanti successivi si ottengono una serie di picchi nella stessa posizione ma con fasi differenti, e da tale sfasamento si ricava la componente radiale della velocità del target. Sono stati studiati sia il caso di misure outdoor che quello di misure indoor, infine è stato elaborato un codice Matlab in grado di fornire un feedback riguardante una possibile collisione in seguito alla stima della velocità del corpo. Tale tecnologia gioca quindi un ruolo fondamentale nell’ambito della sicurezza stradale potendo prevenire incidenti.
Resumo:
Il presente elaborato mira a far conoscere e comprendere l’arte di Shao Yan (n. 1962), rinomato calligrafo cinese, grazie a una previa panoramica sull’origine e lo sviluppo della calligrafia cinese con particolare attenzione ai movimenti moderni e contemporanei.
Resumo:
L’importanza sempre crescente dell’elettronica è accompagnata da una crescente necessità di compattezza ed efficienza energetica. Una parte sostanziale del costo e delle dimensioni dei moderni dispositivi elettronici è legata ai sistemi di conversione di potenza, il cui volume è dominato dai passivi. Per poter affrontare la miniaturizzazione dei circuiti elettronici di potenza sono dunque necessari metodi di design e tecnologie che permettano di ridurre i requisiti di immagazzinamento di energia. Un possibile approccio è aumentare la frequenza di commutazione nel range delle decine di MHz facendo in modo che l’efficienza non venga penalizzata dall’aumento delle perdite in commutazione. Ciò è reso possibile dall’impiego di topologie di convertitori risonanti che implementano la condizione ZVS. Oltre all’impiego di convertitori risonanti, l’aumento della frequenza operativa, mantenendo elevata l’efficienza, è abilitato dall’impiego di dispositivi a semiconduttore a largo band-gap come il nitruro di gallio (GaN), i quali mostrano performance superiori al silicio in termini di temperature operative, frequenze di funzionamento e densità di potenza. Inoltre, ad elevate frequenze di commutazione, l’utilizzo di magnetici coreless diventa una valida alterativa ai magnetici tradizionali, con vantaggi in termini di costo, ingombro e di efficienza. Il focus di questa tesi è il progetto di un convertitore DC-DC risonante con isolamento coreless ad alta efficienza e ad alta frequenza in tecnologia GaN a 650 V pensato per applicazioni wall-adapter. A seguito dello studio di alcune topologie di inverter risonanti e dei rispettivi rettificatori, si è scelta la topologia phi2 per il design del convertitore DC-DC double phi2 isolato (simulato con LTspice). È stato poi effettuato il design di un trasformatore coreless su PCB tramite simulatore elettromagnetico (ADS Keysight Momentum). Il convertitore complessivo presenta un’efficienza del 95,8% con una efficienza del link del 98%.
Resumo:
Il mondo della moda è in continua e costante evoluzione, non solo dal punto di vista sociale, ma anche da quello tecnologico. Nel corso del presente elaborato si è studiata la possibilità di riconoscere e segmentare abiti presenti in una immagine utilizzando reti neurali profonde e approcci moderni. Sono state, quindi, analizzate reti quali FasterRCNN, MaskRCNN, YOLOv5, FashionPedia e Match-RCNN. In seguito si è approfondito l’addestramento delle reti neurali profonde in scenari di alta parallelizzazione e su macchine dotate di molteplici GPU al fine di ridurre i tempi di addestramento. Inoltre si è sperimentata la possibilità di creare una rete per prevedere se un determinato abito possa avere successo in futuro analizzando semplicemente dati passati e una immagine del vestito in questione. Necessaria per tali compiti è stata, inoltre, una approfondita analisi dei dataset esistenti nel mondo della moda e dei metodi per utilizzarli per l’addestramento. Il presente elaborato è stato svolto nell’ambito del progetto FA.RE.TRA. per il quale l'Università di Bologna svolge un compito di consulenza per lo studio di fattibilità su reti neurali in grado di svolgere i compiti menzionati.
Resumo:
Il crescente numero di attacchi condotti contro sistemi e servizi informatici richiede nuove strategie per la cybersicurezza. In questa tesi si prende in considerazione uno degli approcci più moderni per questa attività, basato su architetture Zero Trust, che deperimetrizzano i sistemi e mirano a verificare ogni tentativo di accesso alle risorse indipendentemente dalla provenienza locale o remota della richiesta. In tale ambito, la tesi propone una nuova forma di microsegmentazione agent-based basata su overlay network, con l'obiettivo di migliorare la scalabilità e la robustezza delle soluzioni esistenti, ad oggi messe in secondo piano in favore della facilità di configurazione. Una consistente serie di test dimostra che l'approccio descritto, attuabile in molteplici tipologie di sistemi cloud, è in grado di garantire, oltre alla sicurezza, scalabilità al crescere dei nodi partecipanti, robustezza evitando punti unici di fallimento e semplicità di configurazione.