993 resultados para Discalculia DSA scuola secondaria strumenti compensativi software didattici


Relevância:

30.00% 30.00%

Publicador:

Resumo:

I depositi di liquidi infiammabili sono stabilimenti industriali in cui avvengono spesso incendi di grandi dimensioni a causa degli ingenti quantitativi di sostanze infiammabili detenute. Gli incendi tipici dei liquidi infiammabili sono gli incendi di pozza in caso di rilascio del liquido al suolo e gli incendi di serbatoio in caso di ignizione del liquido all’interno del serbatoio stesso. Tali incendi hanno la potenzialità di danneggiare le apparecchiature limitrofe, determinandone il cedimento e dunque l’incremento delle dimensioni dell’incendio e dell’area di danno; tale fenomeno è detto effetto domino. Per la modellazione degli incendi sono disponibili diversi strumenti, divisibili essenzialmente in due categorie: modelli semplici, ovvero basati su correlazioni semi-empiriche e modelli avanzati, costituiti dai codici CFD. L’obiettivo principale del presente lavoro di tesi è il confronto tra le diverse tipologie di strumenti disponibili per la modellazione degli incendi di liquidi infiammabili. In particolare sono stati confrontati tra loro il codice FDS (Fire Dynamics Simulator), il metodo del TNO ed il modello per gli incendi di pozza incorporato nel software ALOHA. Il codice FDS è un modello avanzato, mentre il metodo del TNO ed il modello implementato nel software ALOHA sono modelli semplici appartenenti alla famiglia dei Solid Flame Models. La prima parte del presente lavoro di tesi è dedicata all’analisi delle caratteristiche e delle problematiche di sicurezza dei depositi di liquidi infiammabili, con specifico riferimento all’analisi storica. Nella seconda parte invece i tre metodi sopra citati sono applicati ad un parco serbatoi di liquidi infiammabili ed è effettuato il confronto dei risultati, anche ai fini di una valutazione preliminare dell’effetto domino. La tesi è articolata in 6 capitoli. Dopo il Capitolo 1, avente carattere introduttivo, nel Capitolo 2 vengono richiamati i principali concetti riguardanti gli incendi e vengono analizzate le caratteristiche e le problematiche di sicurezza dei depositi di liquidi infiammabili. Il Capitolo 3 è dedicato alla discussione delle caratteristiche degli incendi di pozza, alla presentazione delle tipologie di strumenti a disposizione per la loro modellazione ed alla descrizione di dettaglio dei modelli utilizzati nel presente lavoro di tesi. Il Capitolo 4 contiene la presentazione del caso di studio. Nel Capitolo 5, che costituisce il cuore del lavoro, i modelli descritti sono applicati al caso di studio, con un’approfondita discussione dei risultati e una valutazione preliminare dell’effetto domino. Nel Capitolo 6 infine sono riportate alcune considerazioni conclusive.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questa tesi abbiamo provato a definire fino a che punto le misure di sensori siano affidabili, creando un simulatore che sia in grado di analizzare, qualitativamente e quantitativamente, le prestazioni di sensori inerziali facenti parte di sistemi di navigazione inerziale. Non ci siamo soffermati troppo sulle dinamiche dovute agli errori deterministici, che sono eliminabili facilmente mediante prove sperimentali e test, ma abbiamo puntato ad uno studio approfondito riguardante gli errori dovuti a processi stocastici casuali. Il simulatore, programmato sulla piattaforma MATLAB/Simulink, prende i dati grezzi contenuti all’interno dei datasheets dei sensori e li simula, riportando risultati numerici e grafici degli errori risultanti dall’utilizzo di quei specifici sensori; in particolare, esso mette in luce l’andamento degli errori di posizione, velocità ed assetto ad ogni istante di tempo della simulazione. L’analisi effettuata all’interno dell’elaborato ha successivamente condotto all’identificazione dei giroscopi laser come i sensori che soffrono meno di questi disturbi non-sistematici, portandoli ad un livello sopraelevato rispetto ai MEMS ed ai FOG.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dall'analisi dei big data si possono trarre degli enormi benefici in svariati ambiti applicativi. Uno dei fattori principali che contribuisce alla ricchezza dei big data, consiste nell'uso non previsto a priori di dati immagazzinati in precedenza, anche in congiunzione con altri dataset eterogenei: questo permette di trovare correlazioni significative e inaspettate tra i dati. Proprio per questo, il Valore, che il dato potenzialmente porta con sè, stimola le organizzazioni a raccogliere e immagazzinare sempre più dati e a ricercare approcci innovativi e originali per effettuare analisi su di essi. L’uso fortemente innovativo che viene fatto dei big data in questo senso e i requisiti tecnologici richiesti per gestirli hanno aperto importanti problematiche in materia di sicurezza e privacy, tali da rendere inadeguati o difficilmente gestibili, gli strumenti di sicurezza utilizzati finora nei sistemi tradizionali. Con questo lavoro di tesi si intende analizzare molteplici aspetti della sicurezza in ambito big data e offrire un possibile approccio alla sicurezza dei dati. In primo luogo, la tesi si occupa di comprendere quali sono le principali minacce introdotte dai big data in ambito di privacy, valutando la fattibilità delle contromisure presenti all’attuale stato dell’arte. Tra queste anche il controllo dell’accesso ha riscontrato notevoli sfide causate dalle necessità richieste dai big data: questo elaborato analizza pregi e difetti del controllo dell’accesso basato su attributi (ABAC), un modello attualmente oggetto di discussione nel dibattito inerente sicurezza e privacy nei big data. Per rendere attuabile ABAC in un contesto big data, risulta necessario l’ausilio di un supporto per assegnare gli attributi di visibilità alle informazioni da proteggere. L’obiettivo di questa tesi consiste nel valutare fattibilità, caratteristiche significative e limiti del machine learning come possibile approccio di utilizzo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Caratteristiche hardware di un rover terrestre (progetto SHERPA). Implementazione tramite il framework ROS di un algoritmo di alto livello di navigazione autonoma basato su due possibili algoritmi di basso livello: LOS (Lightweight Object Streaming developed by BlueBotics) o Navigation Stack. Sviluppo di una Control Ground Station (Java) basata su: protocollo SSH2 oppure sfruttando la libreria LOS.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Negli ultimi anni i documenti web hanno attratto molta attenzione, poiché vengono visti come un nuovo mezzo che porta quello che sono le esperienze ed opinioni di un individuo da una parte all'altra del mondo, raggiungendo quindi persone che mai si incontreranno. Ed è proprio con la proliferazione del Web 2.0 che l’attenzione è stata incentrata sul contenuto generato dagli utenti della rete, i quali hanno a disposizione diverse piattaforme sulle quali condividere i loro pensieri, opinioni o andare a cercarne di altrui, magari per valutare l’acquisto di uno smartphone piuttosto che un altro o se valutare l’opzione di cambiare operatore telefonico, ponderando quali potrebbero essere gli svantaggi o i vantaggi che otterrebbe modificando la sia situazione attuale. Questa grande disponibilità di informazioni è molto preziosa per i singoli individui e le organizzazioni, che devono però scontrarsi con la grande difficoltà di trovare le fonti di tali opinioni, estrapolarle ed esprimerle in un formato standard. Queste operazioni risulterebbero quasi impossibili da eseguire a mano, per questo è nato il bisogno di automatizzare tali procedimenti, e la Sentiment Analysis è la risposta a questi bisogni. Sentiment analysis (o Opinion Mining, come è chiamata a volte) è uno dei tanti campi di studio computazionali che affronta il tema dell’elaborazione del linguaggio naturale orientato all'estrapolazione delle opinioni. Negli ultimi anni si è rilevato essere uno dei nuovi campi di tendenza nel settore dei social media, con una serie di applicazioni nel campo economico, politico e sociale. Questa tesi ha come obiettivo quello di fornire uno sguardo su quello che è lo stato di questo campo di studio, con presentazione di metodi e tecniche e di applicazioni di esse in alcuni studi eseguiti in questi anni.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il gioco è un concetto che accompagna la vita di innumerevoli specie animali in forme, modi e tempi differenti. L’uomo scopre il gioco sin dai primi mesi di vita. Con l’obiettivo di migliorare la condizione emotiva dell'uomo nello svolgimento delle azioni quotidiane, nasce negli ultimi anni la gamification. Il termine consta nell’integrazione delle tecniche di progettazione dei giochi in contesti esterni ai giochi. Consiste nel progettare ponendo particolare attenzione sul coinvolgimento dell’utente per renderlo capace di sperimentare le emozioni tipiche dello svago: fierezza per le proprie azioni, qualunque esse siano. Gli ambiti di applicazione sono innumerevoli. Questa tesi si concentra sullo studio del contesto aziendale, focalizzandosi sulle mansioni di data entry, allo scopo di creare una piattaforma completa, composta da strumenti informatici ed elementi di gioco, che possa aumentare il coinvolgimento dei dipendenti nel proprio lavoro. Si è scelto questo tipo di attività in quanto composta da incarichi facilmente misurabili e allo stesso tempo poco appassionanti per il dipendente perché altamente meccanici e ripetitivi. La sperimentazione in questo ambito permette quindi di valutare con certezza matematica se i miglioramenti introdotti dall'integrazione delle tecniche di gamification nello stato d’animo dei dipendenti hanno anche la conseguenza di aumentare la produttività, verificando quindi se una piattaforma ludicizzata possa essere auto-sostenibile in ambito aziendale. Al termine della tesi si giungerà ad ottenere il progetto di un sistema completo, composto da software ed attività extra-informatiche, che i dipendenti valuteranno con un questionario. La piattaforma otterrà buoni voti necessitando principalmente di un maggior apporto contenutistico e del contributo professionale di un esperto progettista di giochi perché abbia le potenzialità per diventare un caso di successo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le reti devono essere in grado di gestire i modelli di traffico generati dalle nuove applicazioni, per questo si sta concentrando un interesse senza precedenti nella storia di Internet parlando di Software Defined Networking (SDN), un nuovo modo di concepire le reti. SDN è un paradigma che permette di dividere il piano di controllo dal piano dati consentendo il controllo della rete da un dispositivo unico centralizzato,il controller. In questa tesi abbiamo voluto esaminare due specifici casi di studio, affinché si dimostri come SDN possa fornire il miglior supporto per risolvere il problema delle architetture tradizionali, e uno strumento utile per progettare SDN. Per primo viene analizzato Procera, utilizzato nelle reti domestiche e nelle reti campus per dimostrare che, grazie ad esso, è possibile ridurre la complessità di un’intera rete. Poi è stato visto AgNos, un’architettura basata su azioni svolte da agenti rappresentando così un ottimo strumento di lavoro sia perché gli agenti sono implementati nei controller di rete e sia perché AgNos ha la peculiarità di fornire all’utente (o al sistema) un livello stabile di concretezza. Inoltre sono stati analizzati due problemi comuni su Internet: 1.la mitigazione degli attacchi Ddos, dove i domini SDN collaborano per filtrare i pacchetti dalla fonte per evitare l’esaurimento delle risorse 2.l’attuazione di un meccanismo di prevenzione per risolvere il problema dell’attacco Dos nella fase iniziale rendendo l’aggressione più facile da gestire. L’ultimo argomento trattato è il sistema Mininet, ottimo strumento di lavoro in quanto permette di emulare topologie di rete in cui fanno parte host, switch e controller, creati utilizzando il software. Rappresenta un ottimo strumento per implementare reti SDN ed è molto utile per lo sviluppo, l'insegnamento e la ricerca grazie alla sua peculiarità di essere open source.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Obiettivo di questa tesi è raccogliere e ordinare le informazioni disponibili sul plagio fra codici sorgente, con particolare attenzione alla classificazione dei tipi di plagio fra codici e all’analisi dei principali tool esistenti per l’individuazione automatica. Dall’ampia letteratura disponibile sull’argomento, emerge che la rivoluzione informatica ha suscitato nel mondo giuridico un profondo dibattito in merito alla definizione del software e agli strumenti di tutela ad esso connessi, perciò ho deciso di dedicare un capitolo anche alla riflessione sul contesto giuridico e normativo, in Italia e nel mondo. Poiché non esiste una bacchetta magica per combattere il plagio, è realistico pensare che utilizzare diverse tecniche fra loro complementari possa dare risultati migliori; alcuni approcci innovativi in tal senso, derivanti principalmente da ricerche effettuate nel mondo accademico, sono descritti nel capitolo conclusivo della tesi. Un altro aspetto del problema che mi ha colpito è la questione etica connessa al plagio. Molti studiosi universitari hanno realizzato sondaggi all’interno della comunità accademica per testare il grado di sensibilità al problema del plagio e proposto diverse soluzioni volte non solo a combattere il plagio ma anche a prevenirlo, puntando sullo sviluppo di una maggiore consapevolezza del problema negli accademici (sia studenti che docenti). Anche in ambito commerciale non mancano tentativi di sfuggire alla piaga del plagio, considerato a tutti gli effetti una forma di pirateria informatica. Alcuni di questi studi, i cui risultati offrono interessanti spunti di riflessione per il futuro, sono riportati nel capitolo dedicato alle conclusioni.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Sviluppare e manutenere applicativi destinati a differenti piattaforme è un’opzione esclusiva di quelle entità capaci di sostenere costi molto alti per la realizzazione di queste applicazioni. Questo esclude gli sviluppatori indipendenti, che spesso realizzano prodotti in totale autonomia; le start-up, che hanno l’esigenza di sviluppare un’idea di business avendo a disposizione budget estremamente ridotti; le piccole aziende, alle quali viene così preclusa la possibilità di competere con player più importanti. Questo tipo di emergenze rende lo sviluppo cross-platform una soluzione interessante per la realizzazione delle applicazioni mobili, abbattendo i costi di sviluppo e permettendo di raggiungere più velocemente un pubblico più ampio. C'è quindi sempre maggiore interesse, da parte degli sviluppatori, per gli strumenti di sviluppo cross-platform. Per catturare l’attenzione degli sviluppatori è necessario che lo strumento sia dotato di buona stabilità, che offra un ambiente di sviluppo confortevole, una buona user experience, facilità di aggiornamento, tempi di sviluppo contenuti e possibilità di immissione delle applicazioni su diversi ecosistemi software. L’idea alla base di questa Tesi di laurea è valutare i pro e i contro di uno di questi framework cross-platform e compararlo con le tecnologie native. Il framework scelto è Ionic per via della sua popolarità tra gli sviluppatori e della ridotta bibliografia scientifica a riguardo. Molte ricerche scientifiche valutano le prestazioni di uno o più framework cross-platform rispetto ad una soluzione nativa, tuttavia è raro un confronto tra un framework e più soluzioni native. Per questo, oltre a valutare i pro e i contro del framework, verrà anche effettuata una comparazione tra gli applicativi nativi per Android e iOS e le controparti sviluppate attraverso Ionic, permettendo di identificare eventuali differenze di performance e aiutare gli sviluppatori nelle scelte tecnologiche.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

OBJECTIVES: To determine the accuracy of automated vessel-segmentation software for vessel-diameter measurements based on three-dimensional contrast-enhanced magnetic resonance angiography (3D-MRA). METHOD: In 10 patients with high-grade carotid stenosis, automated measurements of both carotid arteries were obtained with 3D-MRA by two independent investigators and compared with manual measurements obtained by digital subtraction angiography (DSA) and 2D maximum-intensity projection (2D-MIP) based on MRA and duplex ultrasonography (US). In 42 patients undergoing carotid endarterectomy (CEA), intraoperative measurements (IOP) were compared with postoperative 3D-MRA and US. RESULTS: Mean interoperator variability was 8% for measurements by DSA and 11% by 2D-MIP, but there was no interoperator variability with the automated 3D-MRA analysis. Good correlations were found between DSA (standard of reference), manual 2D-MIP (rP=0.6) and automated 3D-MRA (rP=0.8). Excellent correlations were found between IOP, 3D-MRA (rP=0.93) and US (rP=0.83). CONCLUSION: Automated 3D-MRA-based vessel segmentation and quantification result in accurate measurements of extracerebral-vessel dimensions.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We present an overview of recent developments in the tmLQCD software suite. We summarise the features of the code, including actions and operators implemented. In particular, we discuss the optimisation efforts for modern architectures using the Blue Gene/Q system as an example.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questo elaborato si tratterà il metodo di analisi e modellazione post-sismica del terreno attraverso l’utilizzo dei dati GPS e dati SAR. Si prenderanno in esame due eventi sismici: il grande terremoto di Tohoku in Giappone del marzo 2011, con particolare attenzione alla conseguente formazione di un grande tsunami, e la sequenza sismica umbro-marchigiana del settembre/ottobre 1997. In tale contesto verranno descritti i diversi strumenti di monitoraggio e i modelli delle sorgenti sismiche, i quali hanno il compito di determinare importanti informazioni per la più rapida valutazione possibile del rischio sismico e per la corretta pianificazione delle attività umane e del territorio. Obiettivo della tesi è descrivere l’efficacia dell’utilizzo congiunto della tecnica di monitoraggio GPS e l’Interferometria Differenziale SAR. Grazie all’analisi ed alla conseguente modellazione dei dati raccolti nei due eventi sismici descritti in questo lavoro si dimostra l’importanza di tali tecniche per comprendere al meglio i fenomeni sismici. Nel primo capitolo verranno descritte le tecniche di monitoraggio GPS e SAR e le successive tecniche di analisi e modellazione dei dati al fine di avere una previsione dell’evento preso in considerazione. Nel secondo capitolo si esamineranno le peculiarità dell’evento sismico giapponese (2011) e delle elaborazioni condotte per caratterizzare lo tsunami provocato dalla rottura del fondale oceanico. Nel terzo capitolo si analizzerà la sequenza sismica umbro-marchigiana del 1997 prestando attenzione allo sviluppo della rete geodetica del territorio nazionale italiano con riferimenti allo sviluppo della Rete Integrata Nazionale GPS (RING). Nel quarto capitolo verrà descritto in modo introduttivo la struttura del software Bernese GNSS v. 5.2; un software di elaborazione dati usato in ambito scientifico per l’analisi di reti GNSS per il controllo delle deformazioni.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’obiettivo della tesi è quello di fare una panoramica sulla strategia BIM e quindi sulla digitalizzazione del processo costruttivo. Grazie alla analisi di un caso di studio, altro obiettivo è quello di analizzare e valutare la metodologia BIM 4D/5D, ossia la gestione dei tempi e dei costi di realizzazione dell’opera. Nella prima fase si affronta il tema del BIM, con una analisi sull’evoluzione degli strumenti di elaborazione e rappresentazione digitale del progetto architettonico, su come questi strumenti si differenzino sia dal punto di vista operativo che concettuale rivoluzionando il flusso di lavoro odierno. Quindi, partendo da un’analisi che e ritrae l’estrema frammentazione del settore delle costruzioni, si va ad analizzare come il BIM aumenti e favorisca la collaborazione delle parti interessate, armonizzando l’intero processo costruttivo dell’opera. Si prosegue con l'esame della diffusione e del livello di maturità degli strumenti BIM, di come i privati e le amministrazioni pubbliche, a livello mondiale, stiano spingendo per favorire l’adozione della metodologia BIM. Inoltre si analizzano le dinamiche dell’interoperabilità, delle metodologie e protocolli di interscambio dati, che sono un elemento chiave per il successo del BIM per via dei numerosi strumenti, specializzati nelle varie discipline del settore edile. Nella terza parte, dedicata al Project Management di un caso di studio, si verifica la bontà delle metodologie teorizzate attraverso la realizzazione di un modello virtuale in Revit. Dal modello realizzato dal laureando sono estrapolate le informazioni necessarie alla gestione, e tramite il software STRVison CPM, si elaborano i principali documenti per la progettazione e gestione del cantiere: il CM, il CME, i tempi operativi, il cronoprogramma Gantt. Obbiettivo è constatare l’effettivo livello di maturità della strategia BIM 4D e 5D e la reale possibilità di un impiego capillare nel panorama italiano del settore delle costruzioni.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente lavoro prende in analisi le modalità di gestione del servizio di interpretazione e assistenza linguistica in Germania per i rifugiati, a seguito dei numerosi arrivi registrati a partire da gennaio 2015 e fino al primo trimestre del 2016. In primo luogo ci si sofferma su quali persone siano le più adatte a consentire la comunicazione, quali caratteristiche umane e competenze professionali sia necessario sviluppare per essere “ponte” tra due lingue, ma soprattutto tra due culture. In secondo luogo ci si sofferma su quali strumenti siano stati ideati e diffusi per facilitare la comunicazione in casi di necessità e per sopperire alla mancanza di professionisti che possano svolgere il servizio di interpretazione per le lingue minoritarie, meno conosciute ma più richieste al momento. Infine si espongono alcune osservazioni in merito a quali possano essere le soluzioni più efficaci e utili sul campo per risolvere la problematica linguistica, che rappresenta il primo passo verso una piena integrazione dei rifugiati nella società.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'obiettivo dell'elaborato è presentare gli strumenti di marketing realizzati per l'azienda Varvel S.p.A. ed introdotti all'interno del processo Stage & Gate utilizzato dall'azienda per lo sviluppo ed il lancio dei nuovi prodotti, sottolineando il significato e l'importanza che la componente di marketing, finora trascurata dall'azienda, assume lungo tutte le fasi del modello.