986 resultados para sistemi, embedded, internet, things, agenti, jacamo, raspberry, pi
Resumo:
Le tecnologie sviluppatesi a cavallo del nuovo millennio hanno dato e stanno dando un grande impulso all'evoluzione dei processi che riguardano qualsiasi campo della vita di oggigiorno: tutto ciò riguarda ovviamente anche le aziende, che si adoperano nel trovare nuove soluzioni che possano garantire profitti maggiori abbinati a costi di gestione minori. Risulta quindi interessante approcciarsi allo studio dei processi decisionali ed organizzativi che interessano un'azienda e come i suddetti vengano influenzati dall'uso delle tecnologie. In particolare, l'adattamento delle strategie e dei modelli di business alle tecnologie odierne è una sfida interessante e ripetuta nel tempo, in quanto le tecnologie si sviluppano e si evolvono in tempi sempre più brevi, con tutti i vantaggi ed i rischi del caso. Questa tesi si pone l'obiettivo di analizzare i temi inerenti all'E-Business, ovvero l'applicazione delle Information and Communication Technologies (ICT) in supporto alle attività di business di un'azienda. Verrano esaminati in che modo un'impresa deve approcciarsi per sviluppare ed implementare una strategia e-business, quali sono i fattori che influenzano una strategia, quali sono i vantaggi e gli svantaggi dell'adozione di tale strategia.
Resumo:
I sistemi di raccomandazione per come li conosciamo nascono alla fine del XX secolo, e si sono evoluti fino ai giorni nostri approcciandosi a numerosi campi, tra i quali analizzeremo l’ingegneria del software, la medicina, la gestione delle reti aziendali e infine, come argomento focale della tesi, l’e-Learning. Dopo una rapida panoramica sullo stato dell’arte dei sistemi di raccomandazione al giorno d’oggi, discorrendo velocemente tra metodi puri e metodi ibridi ottenuti come combinazione dei primi, analizzeremo varie applicazioni pratiche per dare un’idea al lettore di quanto possano essere vari i settori di utilizzo di questi software. Tratteremo nello specifico il funzionamento di varie tecniche per la raccomandazione in ambito e-Learning, analizzando tutte le problematiche che distinguono questo settore da tutti gli altri. Nello specifico, dedicheremo un’intera sezione alla descrizione della psicologia dello studente, e su come capire il suo profilo cognitivo aiuti a suggerire al meglio la giusta risorsa da apprendere nel modo più corretto. È doveroso, infine, parlare di privacy: come vedremo nel primo capitolo, i sistemi di raccomandazione utilizzano al massimo dati sensibili degli utenti al fine di fornire un suggerimento il più accurato possibile. Ma come possiamo tutelarli contro intrusioni e quindi contro violazioni della privacy? L’obiettivo di questa tesi è quindi quello di presentare al meglio lo stato attuale dei sistemi di raccomandazione in ambito e-Learning e non solo, in modo da costituire un riferimento chiaro, semplice ma completo per chiunque si volesse affacciare a questo straordinario ed affascinante mondo della raccomandazione on line.
Resumo:
In questo lavoro di tesi si studiano quattro sistemi precipitanti di carattere principalmente convettivo che hanno interessato la regione Emilia-Romagna tra la primavera 2012 e l'inverno 2013. Si fornisce una trattazione che prevede l'utilizzo di due strumenti basati sulla tecnologia radar: il pluviometro disdrometro a microonde PLUDIX e il radar polarimetrico in banda C di San Pietro Capofiume (SPC). Gli strumenti sono posizionati ad una distanza di circa 30 km in linea d'aria. PLUDIX, situato al Consiglio Nazionale delle Ricerche (CNR) di Bologna, rileva le idrometeore al suolo e fornisce informazioni pluviometriche e disdrometriche sulla precipitazione in corso. Il radar SPC analizza echi provenienti dall'atmosfera circostante, fino alla distanza di 112.5 km e all'elevazione di 13° rispetto a terra. Si confrontano i profili temporali di intensità di precipitazione ottenuti da PLUDIX con quelli ricavati dalle variabili polarimetriche radar, che permettono di meglio interpretare l'evoluzione temporale degli eventi. Si procede, inoltre, alla classificazione delle idrometeore in atmosfera. A tal fine si implementa un algoritmo di classificazione polarimetrico basato sul lavoro di Park et al. (2009) e modificato in funzione della letteratura scientifica al riguardo. La classificazione di idrometeore che più interessa è quella relativa alle quote radar sulla verticale del CNR, che può essere messa a confronto con le evidenze disdrometriche da PLUDIX al suolo. I risultati sono soddisfacenti e mostrano che i due strumenti vedono gli stessi fenomeni da due punti di vista. L'analisi combinata dei dati eterogenei da PLUDIX e dal radar SPC permette di ricavare importanti informazioni sui processi fisici in nube e sull'evoluzione temporale e spaziale dei sistemi precipitanti.
Resumo:
Superconduttori bulk in MgB2, ottenuti con tecnologia Mg-RLI brevettata da Edison Spa, sono stati oggetto di un'approfondita analisi in termini di forze di levitazione. Questo studio è stato preliminare per la progettazione di un innovativo sistema di levitazione lineare. I risultati ottenuti sperimentalmente sono stati validati attraverso modelli numerici sviluppati ad hoc. I campioni oggetto dello studio sono tre bulk in MgB2 rappresentativi delle tipiche forme usate nelle applicazioni reali: un disco, un cilindro, una piastra. I bulk sono stati misurati con un sistema di misura per le forze di levitazione realizzato a tale scopo. Un protocollo sperimentale è stato seguito per la caratterizzazione di base, sia in condizioni Field Cooling sia Zero Field Cooling, al quale sono state affiancate prove specifiche come la possibilità di mantenere inalterate le proprietà superconduttive attraverso la giunzione di più campioni con la tecnologia Mg-RLI. Un modello numerico è stato sviluppato per convalidare i risultati sperimentali e per studiare l'elettrodinamica della levitazione. Diverse configurazioni di rotori magnetici sono state accoppiate con un cilindro in MgB2 con lo scopo di valutare la soluzione ottimale; questo tema è stato apporofondito attraverso lo sviluppo di un software di simulazione che può tenere conto sia del numero di magneti sia della presenza di anelli in materiale magneti intercalati fra di essi. Studi analoghi sono stati portati avanti su una piastra di MgB2 per simulare il comportamento di una geometria piana. Un sistema di raffreddamento innovativo basato sull'azoto solido è stato studiato per poterlo accoppiare con un sistema di levitazione. Il criostato progettato è costituito da due dewar, uno dentro l'altro; quello interno ha lo scopo di raffreddare l'MgB2 mentre quello esterno di limitare delle perdite verso l'esterno. Il criopattino così ottenuto è accoppiato in condizioni FC ad una rotaia formata da magneti permanenti in NdFeB.
Resumo:
Questo lavoro di tesi si focalizza sulla modellazione di sistemi software in grado far interagire piattaforme elettroniche differenti tra loro.
Resumo:
Testing e Analisi di problemi di usabilità che potrebbero sorgere se due sistemi venissero integrati in un unico nuovo sistema.
Resumo:
In questo studio ci siamo proposti di investigare i sistemi di modulazione automatica della dose sui sistemi TC Multislice (Automatic Exposure Control – AEC) da tre diversi produttori, aventi differenti indicatori di qualità delle immagini. Il presente lavoro è stato svolto presso il Servizio di Fisica Sanitaria dell’Azienda Ospedaliera Universitaria - Policlinico Sant’Orsola-Malpighi di Bologna e consiste in un’analisi quantitativa della dose impiegata durante esami di Tomografia Computerizzata Multi-Slice (TCMS) e delle rispettive immagini radiologiche. Le immagini sono state acquisite con : GE LightSpeed VCT 64 e GE LightSpeed 16 (AEC AutomA 3D longitudinale e angolare), Siemens Sensation 16 (AEC CARE Dose 4D combinato), Philips Brilliance 16 e iCT 64 (separati in AEC ZDOM longitudinale e AEC DDOM angolare). Le acquisizioni TCMS sono state effettuate a differenti kV e mA di riferimento, al fine di investigarne gli effetti sulla modulazione, impiegando algoritmi di ricostruzione standard presenti su ogni macchina. Due fantocci antropomorfi simulanti la zona del torace e dell’addome sono stati utilizzati per simulare un paziente standard posizionato come in un esame clinico di routine ; a questo proposito, sono stati impiegati protocolli elicoidali standard con e senza modulazione. Sono inoltre stati testati differenti valori di indice di qualità delle immagini. Il profilo dei mA lungo la lunghezza è stato ottenuto utilizzando ImageJ, un programma open source comunemente utilizzato per l’elaborazione di immagini; i mAs sono stati normalizzati ad un fattore che tiene conto delle differenti geometrie e delle filtrazioni dei diversi scanner tomografici analizzati nell’esperienza. Il rumore è stato valutato tramite la scelta di determinate ROI (Region Of Interest) localizzate in aree il più possibili uniformi disponibili lungo i fantocci. Abbiamo registrato che una variazione del Noise Index o dei mAs di riferimento a seconda della tipologia di macchina analizzata risulta in uno shift dei profili di dose; lo stesso si è verificato quando sono stati cambiato kV o mA nella scout di acquisizione. Sistemi AEC longitudinali e combinati hanno mostrato profili di mAs normalizzati simili tra loro, con valori elevati evidenziati nella zona delle spalle e zona pelvi; sono state osservate differenze del 30-40% tra i differenti scanner tomografici. Solo in un caso di macchina analizzata si è verificato un comportamento opposto rispetto alle altre due tipologie di macchina in esame. A dispetto della differente natura dei sistemi AEC, i risultati ottenuti dai protocolli combinati e longitudinali sono simili tra loro. Il rumore presente nelle immagini è aumentato ad un livello accettabile e la sua uniformità lungo la direzione di scan è migliorata.
Resumo:
Lo scopo di questa tesi è quello di analizzare dapprima l’impatto ambientale di tali impianti e poi analizzare il contributo effettivo che oggi la tecnologia innovativa dei cicli Rankine organici può dare nella valorizzazione elettrica del calore di scarto di processi industriali, focalizzando l’obiettivo principalmente sulle turbine a gas ed eseguendo un caso di studio in un settore ancora poco esplorato da questa tecnologia, quello Oil&Gas. Dopo aver effettuato il censimento degli impianti a fonti fossili e rinnovabili, cogenerativi e non, presenti in Emilia-Romagna, è stato sviluppato un software chiamato MiniBref che permette di simulare il funzionamento di una qualsiasi centrale termoelettrica grazie alla possibilità di combinare la tecnologia dell’impianto con il tipo di combustibile consentendo la valutazione delle emissioni inquinanti ed i potenziali di inquinamento. Successivamente verranno illustrati gli ORC, partendo dalle caratteristiche impiantistiche e termodinamiche fino ad arrivare alla scelta del fluido organico, fondamentale per le performance del ciclo. Dopo aver effettuato una ricognizione dello stato dell’arte delle applicazioni industriali degli ORC nel recupero termico, verranno eseguite simulazioni numeriche per ricostruire gli ORC ed avere una panoramica il più completa ed attendibile delle prestazioni effettive di questi sistemi. In ultimo verranno illustrati i risultati di un caso di studio che vede l’adozione di recupero mediante ciclo organico in un’installazione esistente del settore Oil&Gas. Si effettuerà uno studio delle prestazione dell’impianto al variare delle pressioni massime e minime del ciclo ed al variare del fluido impiegato al fine di mostrare come questi parametri influenzino non solo le performance ma anche le caratteristiche impiantistiche da adottare. A conclusione del lavoro si riporteranno i risultati relativi all’analisi condotte considerando l’impianto ai carichi parziali ed in assetto cogenerativo.
Resumo:
La demolizione idrolitica delle pareti cellulari delle piante tramite enzimi lignocellulosici è quindi uno degli approcci più studiati della valorizzazione di scarti agricoli per il recupero di fitochimici di valore come secondary chemical building block per la chimica industriale. White rot fungi come il Pleurotus ostreatus producono una vasta gamma di enzimi extracellulari che degradano substrati lignocellulosici complessi in sostanze solubili per essere utilizzati come nutrienti. In questo lavoro abbiamo studiato la produzione di diversi tipi di enzimi lignocellulosici quali cellulase, xilanase, pectinase, laccase, perossidase e arylesterase (caffeoilesterase e feruloilesterase), indotte dalla crescita di Pleurotus ostreatus in fermentazione allo stato solido (SSF) di sottoprodotti agroalimentari (graspi d’uva, vinaccioli, lolla di riso, paglia di grano e crusca di grano) come substrati. Negli ultimi anni, SSF ha ricevuto sempre più interesse da parte dei ricercatori, dal momento che diversi studi per produzioni di enzimi, aromi, coloranti e altre sostanze di interesse per l' industria alimentare hanno dimostrato che SSF può dare rendimenti più elevati o migliorare le caratteristiche del prodotto rispetto alla fermentazione sommersa. L’utilizzo dei sottoprodotti agroalimentari come substrati nei processi SSF, fornisce una via alternativa e di valore, alternativa a questi residui altrimenti sotto/o non utilizzati. L'efficienza del processo di fermentazione è stato ulteriormente studiato attraverso trattamenti meccanici di estrusione del substrato , in grado di promuovere il recupero dell’enzima e di aumentare l'attività prodotta. Le attività enzimatiche prodotte dalla fermentazione sono strettamente dipendente della rimozione periodica degli enzimi prodotti. Le diverse matrici vegetali utilizzate hanno presentato diversi fenomeni induttivi delle specifiche attività enzimatiche. I processi SSF hanno dimostrato una buona capacità di produrre enzimi extracellulari in grado di essere utilizzati successivamente nei processi idrolitici di bioraffinazione per la valorizzazione dei prodotti agroalimentari.
Resumo:
Il traffico dei veicoli sulla rete stradale è un fenomeno molto vario e complesso ma cresce sempre di più l'esigenza di monitoraggio e controllo. La difficoltà di studio secondo norme codificate porta a risultati diversi e disomogenei, si è quindi resa necessaria l'esigenza di definire una metodologia standardizzata agli analisti e operatori del settore. Lo scopo principale di questo tipo di analisi è quello di innalzare il livello di sicurezza stradale, creando degli archivi sulla base dei dati registrati dal sistema, per fare ciò vi è stata la necessità di: 1. Istallare dispositivi di rilevamento del flusso veicolare per trovare i punti di maggiore congestione del traffico. 2. Istallare dispositivi per misurare la quantità di agenti atmosferici e acustici inquinanti. Lo studio in questione nasce inoltre da ulteriori esigenze, sia da parte degli addetti alla sicurezza stradale, che dagli stessi utenti/automobilisti per rispondere a determinate esigenze quali: • Regolazione del traffico stradale • Conoscenza globale delle strade • Rilevamento di infrazioni • Assistenza agli utenti • Sicurezza delle infrastrutture stradali (gallerie, passaggi a livello, ecc.) • Manutenzione della strada • Studio e ricerca Oltre ai sistemi che hanno come scopo principale la sicurezza, è nata l'esigenza di progettare sistemi utili agli automobilisti per avere informazioni immediate, aggiornate e per conoscere in tempo reale le condizioni di scorrevolezza delle strade e quindi di risparmiare risorse in termini di tempo e carburante ed aumentare la coordinazione tra i veicoli. Il requisito fondamentale dei sistemi basati su questo tipo di funzionalità è quello di registrare in tempo reale le segnalazioni pervenute e di renderle immediatamente disponibili a tutti gli utenti/utilizzatori del sistema allo scopo di avere informazioni rilevanti riguardanti lo stato del traffico che consentano a questi ultimi di effettuare la scelta ottimale e quindi migliorare la mobilità generale in termini di riduzione della congestione, risparmio di consumi energetici e di conseguenza di emissioni di inquinanti ambientali. I sistemi di questo tipo possono essere definiti adattivi, cioè in grado di modificarsi in base a condizioni esterne al fine di coordinare efficacemente il flusso veicolare. Lo scopo di questi software è sopratutto funzionale, stimando infatti i tempi di percorrenza in determinate strade gli utenti avranno piena consapevolezza delle condizioni di quei segmenti quasi istantaneamente e potranno quindi agire di conseguenza in modo da migliorare i tempi di percorrenza.
Resumo:
La presente trattazione analizza le novità normative apportate dalle recenti direttive europee sui servizi di pagamento e sulla moneta elettronica (rispettivamente la direttiva 2007/64/CE, c.c. Payment Services Directive o PSD, e la direttiva 2009/110/CE, detta Electronic Money Directive 2 o EMD2). Al fine di incrementare la competitività dei servizi di pagamento, sono stati introdotti nuovi prestatori di servizi di pagamento, non bancari, gli Istituti di Pagamento (IP) e gli Istituti di Moneta Elettronica (IMEL), a cui è stata attribuita la possibilità di far ricorso al contratto di conto di pagamento per la gestione dei servizi di pagamento con possibilità di finanziamento agli utenti. La prima parte della presente trattazione è dedicata alla configurazione giuridica dei nuovi prestatori di servizi di pagamento, influenzante la diffusione dei pagamenti digitali e della moneta elettronica. La seconda parte è rivolta alla ricostruzione giuridica del conto di pagamento, contratto – tipo per la gestione in conto dei servizi di pagamento, ed all’analisi delle modalità di erogazione dei finanziamenti agli utenti. Le direttive predette hanno inoltre attribuito ad IP ed IMEL la facoltà di emettere le carte di pagamento a spendibilità generalizzata, ossia carte di debito e carte di credito. In quanto abilitati all’emissione di moneta elettronica, gli IMEL possono inoltre emettere i c.d. borsellini di moneta elettronica, cioè i dispositivi di memorizzazione e di movimentazione della moneta elettronica. Nella terza parte della trattazione vengono, pertanto, presi in analisi la natura di tali strumenti di pagamento e le differenze intercorrenti rispetto agli affini strumenti bancari. In particolare, ampio spazio è dedicato alla ricostruzione giuridica dei borsellini di moneta elettronica, la cui diffusione tra gli utenti potrebbe avere l’effetto di favorire la progressiva digitalizzazione dei pagamenti e la realizzazione della cashless society.
Resumo:
La terminologia informatica e di Internet in spagnolo è caratterizzata da una forte instabilità lessicale e semantica. La grande presenza di anglicismi che si creano con enorme rapidità, impedisce il corretto processo di incorporazione di tali termini nello spagnolo, favorendo così la convivenza di lessico inglese e termini solo parzialmente adattati alla lingua spagnola, dei quali spesso non si conosce l'esatto significato. I traduttori che operano in queste aree linguistiche, così come gli informatici e tutti gli interessati al corretto utilizzo di questa terminologia, per risolvere le problematiche che incontrano, fanno uso oggi soprattutto di risorse online più facilmente aggiornabili ed accessibili rispetto ai classici dizionari cartacei. Tra queste, sono molto importanti gli spazi che permettono la collaborazione diretta tra professionisti del settore, che favoriscono un approccio dinamico e contestuale nella risoluzione di tali dubbi. Il Foro Tic del Centro Virtual Cervantes, dedicato alla discussione su tale linguaggio, raccoglie interessanti dibattiti sull'argomento.
Resumo:
Nel 2011, circa 5 milioni di persone usavano regolarmente applicativi mobi-le basati su qualche forma di realtà aumentata. Secondo alcune previsioni entro il 2020 servizi che sfruttano questa tecnologia avranno una base di utenti che rasenta un settimo della popolazione mondiale, rendendo di fatto la realtà aumentata l’ottavo mezzo di comunicazione di massa dopo la stampa, l’audio registrato, il cinema, la radio, la televisione, internet ed infine i servizi multimediali mobile. La tesi si propone di illustrare le caratteristiche di questa tecnologia distinguendo varie tecniche e strumenti a disposizione degli sviluppatori per costruire l’esperienza di augmented reality. Entrando nel merito dello sviluppo software si analizza una architettura di riferimento proposta per sistemi di realtà aumentata e pattern per lo sviluppo dei diversi componenti. Infine vengono confrontati gli SDK oggi più diffusi cercando di evidenziarne caratteristiche comuni e peculiarità.
Resumo:
I sistemi di intelligenza artificiale vengono spesso messi a confronto con gli aspetti biologici riguardanti il cervello umano. L’interesse per la modularità è in continua crescita, che sta portando a risultati davvero interessanti attraverso l’utilizzo di sistemi artificiali intelligenti, come le reti neuronali. Molte reti, sia biologiche sia artificiali sono organizzate in moduli, i quali rappresentano cluster densi di parti interconnesse fra loro all’interno di una rete complessa. Nel campo dell’ingegneria, si usano design modulari per spiegare come una macchina è costituita da parti separate. Lo studio della struttura e delle funzioni di organismi/processi complessi si basa implicitamente su un principio di organizzazione modulare, vale a dire si dà per acquisito il fatto che siano modulari, cioè composti da parti con forma e/o funzioni diverse. Questo elaborato si propone di esporre gli aspetti fondamentali riguardanti la modularità di reti neuronali, le sue origini evolutive, le condizioni necessarie o sufficienti che favoriscono l’emergere dei moduli e relativi vantaggi. Il primo capitolo fornisce alcune conoscenze di base che permettono di leggere gli esperimenti delle parti successive con consapevolezza teorica più profonda. Si descrivono reti neuronali artificiali come sistemi intelligenti ispirati alla struttura di reti neurali biologiche, soffermandosi in particolare sulla rete feed-forward, sull’algoritmo di backpropagation e su modelli di reti neurali modulari. Il secondo capitolo offre una visione delle origini evolutive della modularità e dei meccanismi evolutivi riguardanti sistemi biologici, una classificazione dei vati tipi di modularità, esplorando il concetto di modularità nell’ambito della psicologia cognitiva. Si analizzano i campi disciplinari a cui questa ricerca di modularità può portare vantaggi. Dal terzo capitolo che inizia a costituire il corpo centrale dell’elaborato, si dà importanza alla modularità nei sistemi computazionali, illustrando alcuni casi di studio e relativi metodi presenti in letteratura e fornendo anche una misura quantitativa della modularità. Si esaminano le varie possibilità di evoluzione della modularità: spontanea, da specializzazione, duplicazione, task-dependent, ecc. passando a emulare l’evoluzione di sistemi neurali modulari con applicazione al noto modello “What-Where” e a vari modelli con caratteristiche diverse. Si elencano i vantaggi che la modularità produce, soffermandosi sull’algoritmo di apprendimento, sugli ambienti che favoriscono l’evoluzione della modularità con una serie di confronti fra i vari tipi, statici e dinamici. In ultimo, come il vantaggio di avere connessioni corte possa portare a sviluppare modularità. L’obiettivo comune è l’emergere della modularità in sistemi neuronali artificiali, che sono usati per applicazioni in numerosi ambiti tecnologici.
Resumo:
Dal 1936 al 1939 la Spagna dovette fare i conti con gli orrori di una guerra che aveva diviso in due il paese, sia ideologicamente che geograficamente, facendogli vivere una tragedia ancora oggi tangibile nel tessuto sociale e politico della penisola iberica. Questo conflitto, che aveva suscitato l’interesse di molti, raggiunse un livello tale di sperimentazione, sia in campo militare, sia in quello civile, da essere considerato un banco di prova per la seconda guerra mondiale. Il progetto di tesi, attraverso l’analisi e il sottotitolaggio di due documentari, uno anarchico e l’altro franchista, intende presentare una ricerca che ha come focus primario lo studio della propaganda cinematografica durante il periodo della guerra civile spagnola. Il cinema che, proprio negli anni Trenta, si era definitivamente affermato anche grazie all’introduzione del sonoro, fu presto considerato un potente mezzo di comunicazione divenendo un’arma di persuasione della quale, entrambi gli schieramenti con tempistiche diverse, si servirono per indottrinare la popolazione e giustificare la propria azione militare. Il cinema, pertanto, fu messo al servizio della guerra. Nel primo capitolo di questo elaborato verrà presentato il quadro storico di riferimento con la definizione delle cause, dell’evoluzione e delle ideologie in campo durante il conflitto. Il secondo capitolo si concentrerà sull’analisi dei due sistemi di propaganda, quella repubblicana e quella nazionalista, con un’attenzione principale nei confronti della propaganda cinematografica e delle sue diverse espressioni politiche nella penisola iberica. In questo capitolo si farà, inoltre, accenno alla produzione cinematografica internazionale riferita al conflitto spagnolo durante gli anni della guerra e in quelli immediatamente successivi. Infine, nel terzo e ultimo capitolo, si prenderanno in analisi i due documentari sottotitolati (“Los Aguiluchos de la FAI por tierras de Aragón, Reportaje nº1, Estampas de la revolución antifascista” e “La Liberación de Madrid”, con la presentazione dell’analisi tecnica e contenutistica degli stessi. Per concludere, verranno indicate le strategie traduttive impiegate durante la fase di traduzione e riportati esempi concreti ad esse riferite.