475 resultados para INFORMATICA PER LE SCIENZE UMANE (1),14031,Lettere e Filosofia,0012,Lettere,0264,,,CURRICULUM 9 (CURRICULUM MODERNO: CULTURE LETTERARIE EUROPEE),475,,,2007,5


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Fino a qualche anno fa, la conversione di documenti cartacei in documenti digitali appariva come una vera e propria utopia. Quest’oggi invece pensiamo al digitale di qualsiasi tipologia come fosse un fattore prioritario, scontato ed immediato, da poterlo considerare una vera a propria dipendenza. Mentre una volta i documenti venivano depositati in archivi talvolta rudi e polverosi, spiacevoli da recuperare, sia per tempistiche sia per condizioni, oggi la quotidianità è così frenetica che occorre ottenere tutto in modo tempestivo. Un’ evoluzione socio-culturale ha portato all’elaborazione di tecniche sempre più sofisticate di ottimizzazione nel campo; si parla di “dematerializzazione dei documenti” o “processo di conservazione sostitutiva”, innovazione che ha determinato una vera e propria rivoluzione nella Pubblica Amministrazione, nei rapporti tra privati, nell’Ordinamento Giuridico e nella scienza del diritto, poiché è radicalmente mutata la concezione di “documento” così com’è conosciuto da migliaia di anni, nella sua natura res signata, “cosa “ che riporta informazioni. Il concetto di ”smaterializzazione” non è un’ assoluta novità se si pensa alle transazioni finanziarie di enormi quantità di denaro, che da anni avvengono in tutto il mondo, grazie a “documenti informatici”, senza che passi di mano una sola banconota. Lo scopo di questa tesi è approfondire il processo di conservazione sostitutiva, partendo dalle figure ad esso legate, per poi continuare con le regole tecniche di adozione, la validità probatoria dei documenti informatici, i formati, i metadati utilizzati, e così via.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il successo di XML ha rinnovato l'interesse per il controllo delle modifiche sugli alberi e i dati semi-strutturati. Le necessità principali sono gestire le revisioni dei documenti, interrogare e monitorare i cambiamenti e scambiare efficientemente i documenti e i loro aggiornamenti. I cambiamenti che si verificano tra due versioni di un documento sono sconosciuti al sistema. Quindi, un algoritmo di diffing viene utilizzato per costruire un delta che rappresenta i cambiamenti. Sono stati proposti vari algoritmi di diffing. Alcuni considerano la struttura ad albero dei documenti XML, mentre altri non lo fanno. Inoltre, alcuni algoritmi possono trovare una sequenza più "sintetica" delle modifiche. Questo migliora la qualità del monitoraggio e l'interrogazione delle modifiche. Esistono altri approcci sviluppati per monitorare i cambiamenti sui documenti XML, differenti dagli algoritmi di diffing, ma che comunque ottengono risultati quasi identici ed offrono un'interrogazione delle modifiche più agevole per gli utenti umani. Esistono infatti programmi di editing con strumenti di change tracking, che permettono a più autori di modificare diverse versioni dei documenti contemporaneamente e registrando in tempo reale tutti i cambiamenti da loro apportati. In questo lavoro studio i diversi strumenti e confronto i loro risultati sulla base di esperimenti condotti su documenti XML opportunamente modificati per riconoscere determinati cambiamenti. Ci sono anche diverse proposte di formati del delta per rappresentare i cambiamenti in XML, ma non vi è ancora alcuno standard. Espongo le principali proposte in base alle loro specifiche, le loro implementazioni e sui risultati degli esperimenti condotti. L'obiettivo è di fornire una valutazione della qualità degli strumenti e, sulla base di questo, guidare gli utenti nella scelta della soluzione appropriata per le loro applicazioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa relazione è frutto di un lavoro sperimentale svolto su diversi campioni di taralli del commercio forniti da un'azienda del settore, prodotti mediante ricette simili ed omogenei per dimensioni. Le attività di ricerca sono state focalizzare su: I) l'individuazione e la valutazione dei principali descrittori sensoriali in grado di caratterizzare la tipologia di prodotto; II) lo svolgimento di un'analisi sensoriale discriminante per verificare l'esistenza di differenze significativamente rilevabili tra taralli dello stesso tipo ma conservati per tempi differenti (0, 6, 12 mesi), al fine di fornire indicazioni utili per la definizione corretta della shelf-life del prodotto; III) la determinazione di specifici parametri fisici relazionati con l'apparenza e la texture dei taralli, per verificare la possibilità di utilizzare tali dati sia come supporto alla fase di allenamento del gruppo di assaggiatori, sia come approccio rapido per la valutazione della qualità e della freschezza di tali prodotti. Per la realizzazione degli obiettivi appena esposti, é stata applicata la tecnica QDA®. I dati delle singole sedute di analisi sono stati monitorati mediante PanelCheck. E' stato svolto un test triangolare attraverso cui definire se i taralli differenti per tempo di conservazione risultino significativamente discriminati per le caratteristiche sensoriali. Parallelamente alla QDA® e sullo stesso set di campioni, sono state applicate alcune analisi fisiche concernenti la valutazione dell’aspetto visivo e della texture del prodotto. Per la valutazione strumentale dell’apparenza dei campioni di taralli, si sono acquisite le immagini relative ai campioni oggetto di studio mediante un sistema di acquisizione e, successivamente, elaborate attraverso Image Pro - Plus v 6.2, per determinare elementi utili alla discriminazione dei campioni in esame. Per quanto concerne la determinazione della caratteristiche strutturali dei taralli è stato utilizzato il Texture Analyzer ed impiegato un test di penetrazione. E' stata infine condotta, mediante tecniche statistiche, un’analisi congiunta dei dati sensoriali e fisici.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nata dal progetto di migrazione, in un ambiente consolidato, di una infrastruttura Wireless distribuita su territorio all'interno di una MAN (Metropolitan Area Network), si cerca di illustrare quali sono i passi fondamentali da seguire e con cosa ci si deve misurare per progettare una soluzione funzionale ed elaborare una strategia avendo a che fare con architetture complesse, dove la messa in esercizio di un servizio offerto ad un numero elevato di utenti prevede uno studio ben preciso delle attività da svolgere. Un'attenta analisi, ci consentirà di seguire e riadattare le scelte implementative in funzione delle esigenze infrastrutturali, illustrandone le difficoltà, gli imprevisti e le modifiche intraprese passo passo. Gli argomenti trattati tendono a far comprendere con quali problematiche si ha a che fare nella fase implementativa passando dalla fase di analisi a quella decisionale, quella di migrazione architetturale e di installazione, oltre che alla scelta delle componenti e delle tecnologie specifiche che, prima di essere portate a regime, devono essere sottoposte agli opportuni test per la comprensione/risoluzione di problematiche complesse; come le operazioni necessarie per operare con una efficace metodologia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La strategia di diversificazione ha l’obiettivo di sviluppare la presenza competitiva di un’impresa in una molteplicità di settori, non necessariamente correlati. Un’impresa diversificata ha le competenze e il vantaggio di realizzare, quindi, una quota significativa del proprio volume d’affari in settori diversi da quello di origine, o comunque considerato come principale. Ciò che ha suscitato in me maggiore interesse, nell'ambito delle strategie e delle decisioni aziendali e in particolar modo lo studio della diversificazione del mercato, è cercare di capire quali siano le ragioni che conducono le aziende, di grandi e piccole dimensioni, ad ampliare il proprio raggio d’azione. Oggetto di studio e di analisi è il caso IBM – International Business Machine – considerata, a tutt'oggi, una delle più grandi aziende che, da oltre un secolo, opera nel settore informatico. Lo scopo di questo elaborato è cercare di capire quali siano stati in questi lunghi anni e quali tuttora sono gli obiettivi del management aziendale di IBM, che hanno portato ad un lento addio della divisione hardware e puntato su nuove aree di business, cercando di analizzare, nel dettaglio, la strategia di diversificazione attuata. Nel primo capitolo verrà esposta la strategia di diversificazione. Per inquadrare l'ambito di discussione di questo elaborato, verranno esposti i punti fondamentali dell’analisi di settore, la gestione delle imprese diversificate e le decisioni di portafoglio. Il secondo capitolo verterà sull'analisi approfondita dell'azienda, al quale si fa riferimento con una Company Overview che non può prescindere dalla storia della società, passando per le origini e le prime innovazioni in ambito informatico per arrivare fino ai successi di oggi con una particolare focalizzazione al periodo buio attraversato negli anni ‘80. Dopo aver fotografato l’impresa, nella terza e ultima parte, cercherò di ripercorrere, cronologicamente, attraverso i modelli teorici precedentemente esposti, le decisioni manageriali, le strategie e le scelte che hanno portato IBM a diversificare.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi analizza il problema della Net Neutrality, prendendo in esame le aziende telefoniche italiane e la loro posizione rispetto al problema.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le nanoparticelle polimeriche offrono grandi vantaggi nella nanomedicina in quanto fungono da carrier per il Drug Delivery e possono essere molto utili per le malattie ancor oggi difficili da trattare quali le neurodegenerative come l’Alzheimer. In questo progetto di tesi sono stati creati nanocarrier polimerici utilizzando come polimero un copolimero a blocchi anfifilico noto come PLGA-b-PEG: con varie tecniche si sono ottenute micelle polimeriche nelle quali sono stati intrappolati come principi attivi sia un farmaco, il liraglutide, sia nanoparticelle di magnesio; il primo può ridurre le placche β-amiloidee, tipiche cause dell’Alzheimer, mentre le seconde possono aumentare la plasticità sinaptica anch’essa legata all’Alzheimer. Inoltre è stato sintetizzato e intrappolato anche un promettente agente diagnostico, ovvero nanoparticelle di ferro, utile per aumentare la sensibilità di tecniche di imaging quali MRI e per la rivelazione precoce di malattie. Tutti i sistemi sono stati caratterizzati con tecniche specifiche per valutare i parametri chiave quali dimensione, polidispersità, carica superficiale e concentrazione dei componenti e successivamente sono state utilizzate per studi biologici effettuati da collaboratori esterni. Tutto questo ha come obiettivo futuro la creazione di un carrier teranostico che racchiuderà al suo interno l’agente terapeutico e l’agente diagnostico per combinare i due effetti principali in un unico carrier.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il mercato video ludico è stato, ed è tuttora uno dei settori più redditizi e innovativi del mercato globale. L’evoluzione tecnologica ha permesso lo sviluppo di device e piattaforme da gioco sempre più performanti e in grado di soddisfare le esigenze dei consumatori. Con le nuove prospettive di gioco ci si sofferma a riflettere su quale sarà l’evoluzione del business dell’intrattenimento interattivo. In questo elaborato andremo a vedere come si sta evolvendo il mercato dei videogiochi, quali sono i nuovi scenari competitivi che si sono affiancati a questo settore, quali sono i segmenti che stanno avendo una crescita considerevole negli ultimi 10 anni, e cercheremo di capire come cambierà il “gameplay” da salotto, quindi quali saranno le prospettive future delle console da gioco.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con questa tesi si è voluto evidenziare lo stretto rapporto di dipendenza delle aziende televisive con gli eventi sportivi al fine di poter guadagnare fette di mercato e quindi posizione strategiche rispetto ai concorrenti. Tra le aziende televisive e il settore sportivo c'è quindi un rapporto mezzo/contenuto decisamente complementare. Nessuno dei due può fare a meno dell'altro. Da una parte, come evidenziato, le emittenti televisive, durante la messa in onda di eventi sportivi, registrano elevati livelli di audience e ciò costituisce la "cassa di risonanza" preferita dagli sponsor. Dall'altra parte lo sport, che anno dopo anno ha visto aumentare la propria dipendenza dai network dal momento che la cessione dei diritti televisivi è diventata una delle maggiori fonti di reddito per le società sportive.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi abbiamo studiato il comportamento delle entropie di Entanglement e dello spettro di Entanglement nel modello XYZ attraverso delle simulazioni numeriche. Le formule per le entropie di Von Neumann e di Renyi nel caso di una catena bipartita infinita esistevano già, ma mancavano ancora dei test numerici dettagliati. Inoltre, rispetto alla formula per l'Entropia di Entanglement di J. Cardy e P. Calabrese per sistemi non critici, tali relazioni presentano delle correzioni che non hanno ancora una spiegazione analitica: i risultati delle simulazioni numeriche ne hanno confermato la presenza. Abbiamo inoltre testato l'ipotesi che lo Schmidt Gap sia proporzionale a uno dei parametri d'ordine della teoria, e infine abbiamo simulato numericamente l'andamento delle Entropie e dello spettro di Entanglement in funzione della lunghezza della catena di spin. Ciò è stato possibile solo introducendo dei campi magnetici ''ad hoc'' nella catena, con la proprietà che l'andamento delle suddette quantità varia a seconda di come vengono disposti tali campi. Abbiamo quindi discusso i vari risultati ottenuti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nell'ultimo ventennio l'impatto delle tecnologie wireless ha rivoluzionato il modo di comunicare. Tuttavia oltre a svariati benefici sono emersi diversi problemi di integrazione e ottimizzazione. Uno tra i protocolli più conosciuto e utilizzato in ambito di comunicazioni di rete, il TCP, viene sempre più spesso usato all'interno di sistemi wireless, per le sue caratteristiche di affidabilità e controllo, senza però fornire supporto specifico. Ciò è materia di forte dibattito e ricerca, che mira a cercare di raffinare le differenti versioni di TCP per renderle wireless-oriented. In questo lavoro si analizzano due varianti di sistema che sfruttano il TCP in scenari di mobilità, una con TCP classico e l'altra con TCP modificato tramite l'aggiunta di un meccanismo di ritrasmissione anticipata, e se ne studiano i vari aspetti e comportamenti, valutandone le prestazioni per mezzo di metodi matematici consolidati in letteratura.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo studio effettuato raccoglie informazioni al fine di svolgere un’analisi globale delle tecniche attualmente in uso, o in fase di studio, nel campo della localizzazione di dispositivi all’interno di un ambiente chiuso, ovvero laddove non è possibile sfruttare la copertura del sistema GPS. La panoramica è frutto dell’analisi e dello studio di paper tecnici pubblicati dai collaboratori dell’IEEE, fruibili all’interno del portale IEEE Xplore. A corredo di questo studio è stata sviluppata una applicazione per dispositivi Android basata sulla tecnica del Wi-Fi fingerprint; l’applicazione, che rappresenta un primo approccio alle tecniche di localizzazione, è a tutti gli effetti un sistema standalone per la localizzazione, consente cioè di costruire sia la mappa per la localizzazione, partendo da un ambiente sconosciuto, sia di ottenere la posizione dell’utente all’interno di una mappa conosciuta. La tesi si conclude con una analisi dei risultati e delle performance ottenute dall’applicazione in un uso comune, al fine di poter valutare l’efficacia della tecnica presa in considerazione. I possibili sviluppi futuri sono analizzati in un capitolo a parte e trovano spazio in ambienti nei quali si vogliono offrire servizi "context-based", ovvero basati sulla posizione esatta dell’utente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'elaborato si propone di indagare il tema della Sharing Economy e i relativi presupposti di sviluppo, studiando casi realmente esistenti. Si affronta la ricerca validando i modelli ipotizzati per ricercare e confrontare le soluzioni esistenti al fine di trovare le caratteristiche ritenute fondamentali per la digital sharing economy.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'elaborato tratta dello sviluppo di un'applicazione mobile per la visualizzazione di opendata ambientali. E' diviso in due parti: la prima che illustra l'importanza dei dati e dei dati aperti per l'innovazione e lo sviluppo, la seconda che racconta la gestione del progetto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Per prevedere i campi di dose attorno a dispositivi radiologici, vengono sviluppati e validati, per mezzo di misure sperimentali, modelli Monte Carlo (utilizzando MCNP5). Lo scopo di questo lavoro è quello di valutare le dosi ricevute da persone che operano all'interno della sala di raggi X, mentre il tubo è in funzione. Il tubo utilizzato è un DI-1000/0.6-1.3 della azienda svizzera COMET AG. Per prima cosa si è ottenuto lo spettro di emissione dei raggi X con la Tally F5 simulando l'interazione di un fascio di elettroni contro un anodo di tungsteno. Successivamente, con una F4MESH, si è ricavato il flusso di fotoni in ogni cella della mesh tridimensionale definita sulla sala; la conversione a dose equivalente è ottenuta per mezzo di fattori di conversione estratti dal NIST. I risultati della Tally FMESH vengono confrontati con i valori di dose misurati con una camera di ionizzazione Radcal 1800 cc. I risultati sono ottenuti per le seguenti condizioni operative: 40 kVp, 100 mA, 200 mAs, fuoco fine e filtro in alluminio di spessore 0,8 mm. Confrontando con le misure sperimentali si osserva che tali valori differiscono da quelli simulati di circa un 10%. Possiamo quindi prevedere con buona approssimazione la distribuzione di dose mentre il tubo è in funzione. In questo modo è possibile ridurre al minimo la dose ricevuta dall'operatore.