1000 resultados para matrici ricorsive successioni polinomiali di tipo intero
Resumo:
Lo scritto ha l’obiettivo di definire dinamiche e cronologie di quel complesso processo espansionistico che portò Roma alla conquista dei territori dell’Ager Gallicus, partendo dall’analisi dettagliata della cultura materiale e dei rispettivi contesti di provenienza emersi dalle recenti indagini archeologiche realizzate dal Dipartimento di Storia Culture Civiltà dell’Università degli Studi di Bologna nella città di Senigallia. In armonia con quanto testimoniato dalle sequenze stratigrafiche documentate, si delineano quattro principali fasi di vita dell’abitato: la prima preromana, la seconda riferibile alla prima fase di romanizzazione del sito, la terza inerente allo sviluppo dell’insediamento con la fondazione della colonia romana e l’ultima riferibile all’età repubblicana. Emerge con chiarezza la presenza già dalla fine del IV-inizio III a.C., di un insediamento romano nel territorio della città, sviluppatosi con la fondazione di un’area sacra e la predisposizione di un’area produttiva. La scelta del sito di Sena Gallica fu strategica: un territorio idoneo allo sfruttamento agricolo e utile come testa di ponte per la conquista dei territori del Nord Italia. Inoltre, questo centro aveva già intrecciato rapporti commerciali con gli insediamenti costieri adriatici e mediterranei. La presenza di ceramica di produzione locale, il rinvenimento di elementi distanziatori e le caratteristiche geomorfologiche del sito, fanno ipotizzare la presenza in loco di un’officina ceramica. Ciò risulta di grande importanza dato che tutte le attestazioni ceramiche prodotte localmente e rinvenute nel territorio, fino ad oggi sono attribuite alle officine di Aesis e Ariminum. Dunque Sena Gallica sarebbe stata un centro commerciale e produttivo. La precoce presenza di ceramica a Vernice Nera di tipo romano-laziale prodotte localmente prima dell’istituzione ufficiale della colonia, che permette di ipotizzare uno stanziamento di piccoli gruppi di Romani in territori appena conquistati ma non ancora colonizzati, attestata a Sena Gallica, trova riscontro anche in altri centri adriatici come Ariminum, Aesis, Pisaurum, Suasa e Cattolica.
Resumo:
L’analisi della risposta delle pavimentazioni flessibili alle sollecitazioni veicolari ed alle variazioni di temperatura non può prescindere dallo studio del legante bituminoso: è all’interno del film di bitume, infatti, che avviene la rottura per fatica alle basse temperature (alte frequenze di carico) e che si sviluppano le deformazioni con conseguente fenomeno dell’ormaiamento alle alte temperature di esercizio (basse frequenze di carico). Il deterioramento di queste pavimentazioni, dovuto a fenomeni di fessurazione da fatica o di ormaiamento, infatti, è divenuto nel settore infrastrutturale oggetto di studio ed approfondimento. Spesso tali ammaloramenti sono accelerati dall’azione dell’acqua che, in assenza di strati impermeabili, raggiunge gli strati inferiori della sovrastruttura indebolendo le proprietà coesive del legante e di adesione tra bitume ed aggregati. Se a queste problematiche si aggiunge l’impatto ambientale di un’infrastruttura viaria (emissione di fumi durante la stesa del conglomerato), risulta evidente l’interesse nel campo della ricerca circa lo studio di leganti bituminosi modificati e additivati, in grado di aumentare le prestazioni del pacchetto stradale, oltre che a ridurne gli effetti negativi sull’ambiente. Per queste motivazioni, la presente Tesi si concentra sullo studio dei leganti e dei mastici bituminosi ottenuti con l’aggiunta di “Powdered Rubber Modifier (PRM)” ovvero di “Polverino di Gomma” ottenuto mediante il riciclaggio di pneumatici usati, attraverso opportune lavorazioni di natura meccanica. In campo stradale sta assumendo sempre più importanza l’utilizzo di pneumatici riciclati, in grado di aumentare le prestazioni del pacchetto stradale e di ridurne gli effetti negativi sull’ambiente. Per studiare e testare questi leganti e mastici bituminosi si è scelto di utilizzare un approccio tradizionale, consistente nella simulazione della risposta meccanica macroscopica mediante modelli costitutivi basati sulla teoria del mezzo continuo: ciò significa che la miscela viene sottoposta a prove di tipo statico e dinamico in un ampio intervallo di condizioni inerenti all’intensità della forza, alla velocità di applicazione del carico ed alla temperatura. In particolare, i materiali sopra citati sono stati testati mediante Dynamic Shear Rheometer (DSR-UNI EN 14770); tale apparecchiatura è in grado, attraverso l’applicazione di una sollecitazione dinamica con andamento sinusoidale, di simulare le reali condizioni di carico cui è sottoposta una pavimentazione stradale durante la sua vita utile. I risultati reologici ottenuti sono stati confrontati per valutare il contributo prestazionale di ciascun materiale componente le miscele.
Resumo:
Il continuo sviluppo negli ultimi anni di diverse declinazioni della spettroscopia d'assorbimento a raggi X (XAS) con radiazione di sincrotrone ha permesso la determinazione della struttura locale di campioni di ogni tipo, dagli elementi puri, ai più moderni materiali, indagando e approfondendo la conoscenza di quei meccanismi che conferiscono a questi ultimi delle proprietà innovative e, a volte, rivoluzionarie. Il vantaggio di questa tecnica è quello di poter ottenere informazioni sulla struttura del campione soprattutto a livello locale, rendendo relativamente agevole l'analisi di sistemi senza ordine a lungo raggio, quali per esempio i film molecolari. Nell'elaborato verrà preliminarmente illustrata la fenomenologia della XAS e l’interpretazione teorica dell'origine della struttura fine. Saranno successivamente descritte le innovative tecniche di misura che permettono di studiare i cambiamenti della struttura locale indotti dall'illuminazione con luce visibile, inclusi gli esperimenti di tipo pump probe. Un capitolo della tesi è interamente dedicato alla descrizione dei campioni studiati, di cui sono stati analizzati alcuni dati acquisiti in condizioni statiche. Quest'analisi è stata compiuta sfruttando anche dei cammini di multiplo scattering dedicando particolare attenzione alla trattazione del fattore di Debye Waller. Nella parte principale della tesi verranno descritti la progettazione ed il test di un apparato sperimentale per l'acquisizione di spettri differenziali da utilizzare alla beamline BM08 dell'European Synchrotron Radiation Facility di Grenoble. Saranno presentate principalmente le modifiche apportate al software d'acquisizione della linea e la progettazione di un sistema ottico d'eccitazione da montare nella camera sperimentale. Nella fase di studio dell'ottica è stato creato in LabView un simulatore basato sul metodo Monte Carlo, capace di prevedere il comportamento del sistema di lenti.
Resumo:
Nell'ultimo decennio sono stati sviluppati numerosi materiali π-coniugati contenenti unità tiofeniche per applicazioni in dispositivi organici a film sottile. Nel campo delle celle solari, la possibilità di creare dispositivi basati sull’utilizzo di materiali organici, rispetto ai dispositivi attualmente in commercio a base di silicio, ha suscitato grande interesse soprattutto per la possibilità di realizzare dispositivi su larga area con basso costo di produzione e su substrati flessibili. Gli oligo- e i politiofeni sono eccellenti candidati grazie alle ottime proprietà di trasporto di carica e alle caratteristiche di assorbimento di luce. In celle solari di tipo Bulk-Heterojunction (BHJ), ad esempio, il poli(3-esiltiofene) è uno tra i materiali più studiati. Ad oggi, con il P3HT sono state raggiunte efficienze certificate superiori all’8%, variando sia parametri dipendenti dalla struttura molecolare, come ad esempio il peso molecolare, la regioregolarità delle catene alchiliche, il grado di polidispersità, il grado di polimerizzazione, sia parametri da cui dipende l’organizzazione della blend donatore-accettore. Per superare l’efficienza di conversione ottenuta con i polimeri classici come il P3HT è necessario progettare e sintetizzare materiali con precise caratteristiche: basso energy gap per aumentare l’assorbimento di luce, elevata mobilità di carica per avere una rapida estrazione delle cariche, posizione ottimale degli orbitali di frontiera per garantire una efficiente dissociazione dell’eccitone ed infine buona solubilità per migliorare la processabilità. Il presente lavoro di tesi si è articolato nei seguenti punti: sintesi di oligo- e politiofeni tioalchil sostituiti con inserzione di unità benzotiadiazolo per massimizzare l’assorbimento ed abbassare il gap energetico; studio dell’effetto della ramificazione del gruppo tioalchilico sull’organizzazione supramolecolare allo stato solido e successiva ottimizzazione della morfologia del film solido variando metodi di deposizione e solventi; applicazione degli oligomeri e dei polimeri sintetizzati come materiali donatori in celle fotovoltaiche di tipo Bulk-Heterojunction in presenza di fenil-C61-butirrato di metile (PCBM) come materiale accettore.
Resumo:
Questo lavoro tratta lo sviluppo di un sistema di misura contactless dello spessore da applicare nel campo delle membrane ottenute tramite il processo di elettrofilatura. Il sistema è di tipo ottico e sfrutta lo spostamento dello spot di un puntatore laser, applicato con inclinazione nota, per risalire alla variazione di spessore.
Resumo:
Sono stati sintetizzati diversi copolimeri con struttura a blocchi o di tipo statistico aventi struttura e pesi medi molecolari controllati utilizzando polimerizzazioni radicaliche viventi (ATRP). Questi polimeri solitamente esibiscono proprietà superiori rispetto a polimeri con struttura non controllata e alta polidispersità. Alcuni dei polimeri sono stati ottenuti polimerizzando un monomero metacrilico sintetizzato tramite esterificazione di una miscela commerciale costituita da alcoli alifatici a diversa lunghezza di catena. Per fare ciò è stata studiata la polimerizzazione controllata di monomeri metacrilici a diverso peso molecolare, dimostrando che la reattività dipende dalla lunghezza della catena laterale. I nuovi copolimeri ottenuti sono stati caratterizzati tramite 1H-NMR, DSC, TGA, GPC ed IR.
Resumo:
Questa tesi compilativa prende in esame la cartilagine, partendo dalla composizione dei suoi diversi tipi rappresentati nel corpo umano e delle funzioni qui svolte, per descrivere i metodi utilizzati per riprodurla artificialmente mediante cellule staminali, fattori di crescita e scaffold dedicati coltivati in ambiente controllato. La cartilagine è un tessuto molto particolare perché, diversamente dagli altri tessuti, non possiede una rete di capillari e quindi riceve un limitati apporto di ossigeno e sostanze nutritive, che spiega la sua poverissima capacità intrinseca di riparazione. La cartilagine è però un tessuto soggetto a numerosi stress di vario tipo e quindi è soggetta a traumi che possono essere di natura sportiva o accidentale (soprattutto la cartilagine di tipo articolare) ed è anche colpita da malattie degenerative. Questo ha stimolato gli studi che intendono ingegnerizzare un tessuto artificiale in grado di aumentare la capacità di riparare la zona colpita. In quest’ottica, vengono attivamente condotti esperimenti in grado di definire protocolli che inducano cellule staminali al differenziamento in cellule di tipo cartilagineo. Tali cellule, seminate su supporti (scaffolds) 3D biocompatibili di diversa natura, naturali o sintetici, eventualmente bioattivi, possono essere coltivate in ambienti dedicati, detti bioreattori, che utilizzino stimoli fisici (p. es. vibrazionali, microgravità, ultrasonici, regolazione della tensione di ossigeno, sforzi di taglio, compressione dinamica e compressione idrostatica ciclica) che si sono dimostrati utili per indurre l’appropriato fenotipo cellulare, valutabile attraverso una batteria di approcci di misura morfologica e funzionale.
Resumo:
L'assistenza sanitaria in Italia e nel mondo è caratterizzata da bisogni elevati in continua crescita, ad essi si contrappone l'attuale crisi delle risorse economiche determinando per il Sistema una valutazione di scelte quali la riduzione o la rimodulazione dell'offerta sanitaria pubblica. L'idea di questo lavoro, nata all'interno dell'Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori (IRST) IRCCS, è di approcciare questo problema in ottica di miglioramento delle performance anziché riduzione dei servizi, nella convinzione che vi siano importanti margini di perfezionamento. Per questi motivi si è valutata la necessità di sviluppare un metodo e un'applicazione software per l'identificazione dei percorsi diagnostici terapeutici assistenziali (PDTA), per la raccolta di dati dalle strutture coinvolte, per l'analisi dei costi e dei risultati, mirando ad una analisi di tipo costi - efficacia e di benchmarking in ottica di presa in carico dei bisogni di salute. La tesi descrive la fase di raccolta e analisi dei requisiti comprensiva della profilazione utenti e descrizione di alcuni aspetti dinamici salienti, la fase di progettazione concettuale (schema Entity/Relationship, glossario e volumi dei dati), la fase di progettazione logica e la prototipazione dell'interfaccia utente. Riporta inoltre una valutazione dei tempi di sviluppo realizzata tramite metodologia di calcolo dei punti per caso d'uso. L'applicazione progettata è oggetto di valutazione di fattibilità presso l'IRST, che ha utilizzato alcune delle metodologie descritte nella tesi per descrivere il percorso di patologia mammaria e presentarne i primi risultati all'interno di un progetto di ricerca in collaborazione con l'Agenzia Nazionale per i Servizi Sanitari Regionali (Agenas).
Resumo:
La quantum biology (QB) è un campo di ricerca emergente che cerca di affronta- re fenomeni quantistici non triviali all’interno dei contesti biologici dotandosi di dati sperimentali di esplorazioni teoriche e tecniche numeriche. I sistemi biologici sono per definizione sistemi aperti, caldi,umidi e rumorosi, e queste condizioni sono per loro imprenscindibili; si pensa sia un sistema soggetto ad una veloce decoerenza che sopprime ogni dinamica quantistica controllata. La QB, tramite i principi di noise assisted transport e di antenna fononica sostiene che la presenza di un adeguato livello di rumore ambientale aumenti l’efficienza di un network di trasporto,inoltre se all’interno dello spettro ambientale vi sono specifici modi vibrazionali persistenti si hanno effetti di risonanza che rigenerano la coerenza quantistica. L’interazione ambiente-sistema è di tipo non Markoviano,non perturbativo e di forte non equi- librio, ed il rumore non è trattato come tradizionale rumore bianco. La tecnica numerica che per prima ha predetto la rigenerazione della coerenza all’interno di questi network proteici è stato il TEBD, Time Evolving Block Decimation, uno schema numerico che permette di simulare sistemi 1-D a molti corpi, caratterizzati da interazioni di primi vicini e leggermente entangled. Tramite gli algoritmi numerici di Orthopol l’hamiltoniana spin-bosone viene proiettata su una catena discreta 1-D, tenendo conto degli effetti di interazione ambiente-sistema contenuti nello spettro(il quale determina la dinamica del sistema).Infine si esegue l’evoluzione dello stato.
Resumo:
Il problema che si vuole affrontare è la progettazione e lo sviluppo di un sistema interattivo volto all’apprendimento e alla visita guidata di città d’arte. Si vuole realizzare un’applicazione per dispositivi mobili che offra sia il servizio di creazione di visite guidate che l’utilizzo delle stesse in assenza di connessione internet. Per rendere l’utilizzo dei servizi offerti più piacevole e divertente si è deciso di realizzare le visite guidate sotto forma di cacce al tesoro fotografiche, le cui tappe consistono in indizi testuali che per essere risolti richiedono risposte di tipo fotografico. Si è inoltre scelto di realizzare una community volta alla condivisione delle cacce al tesoro realizzate e al mantenimento di statistiche di gioco. Il contributo originale di questa tesi consiste nella progettazione e realizzazione di una App Android, denominata GeoPhotoHunt, che sfrutta l’idea della caccia al tesoro fotografica e geo localizzata per facilitare le visite guidate a luoghi di interesse, senza la necessità di una connessione ad internet. Il client viene reso indipendente dal server grazie allo spostamento degli algoritmi di image recognition sul client. Esentare il client dalla necessità di una connessione ad internet permette il suo utilizzo anche in città estere dove solitamente non si ha possibilità di connettersi alla rete.
Resumo:
Obiettivo del lavoro di tesi è l’analisi della vulnerabilità delle strutture della città di Augusta, che è una delle aree campione scelte dal progetto europeo ASTARTE, riguardante fra l’altro la stima e la mitigazione del rischio da tsunami nei mari europei. Per prima cosa sono state ricercate le strutture tettoniche che possono dare origine a terremoti di grande magnitudo, e che possono causare in seguito devastanti tsunami, nella zona della Sicilia orientale. La Scarpata Maltese è risultata essere la caratteristica morfologica dominante in questa zona del Mediterraneo. Per l’analisi di vulnerabilità sono state utilizzate due diverse metodologie: il modello SCHEMA (SCenarios for Hazard-induced Emergencies MAnagement) e il modello PTVA-3 (Papathoma Tsunami Vulnerability Assessment). Il metodo SCHEMA, di tipo quantitativo, è un metodo più semplice in quanto si avvale della fotointerpretazione per assegnare ad una costruzione la classe di appartenenza in base alla sua tipologia. Poi, attraverso le matrici del danno, si assegna un livello di danno (da D0, nessun danno, a D5, collasso) in base all’altezza della colonna d’acqua. Il metodo PTVA-3, di tipo qualitativo, risulta invece essere più complicato. Infatti, per arrivare all’assegnazione dell’indice di vulnerabilità relativa (RVI), che fornisce una stima del danno subito da una data struttura, si ha bisogno di assegnare un certo numero di attributi. L’indice RVI è dato dalla somma pesata tra la vulnerabilità strutturale e la vulnerabilità dovuta all’intrusione d’acqua (percentuale di piani inondati). In conclusione si è fatto un confronto tra i due metodi, ottenendo una sovrastima del metodo PTVA-3 rispetto al metodo SCHEMA nella quantificazione del livello di danneggiamento degli edifici.
Resumo:
Il progetto IDCardOCR si propone di investigare e realizzare le tecnologie per la messa in opera di un servizio avanzato di scanning di documenti di identità e acquisizione automatica dei dati anagrafici in formato strutturato tramite dispositivi mobili. In particolare si vuole realizzare una App Android in grado di: • Acquisire immagini di documenti di identità in diversi formati e rilevare tramite OCR i dati anagrafici. I dati dovranno poi essere salvati in formato strutturato. • Permettere la definizione di diversi template per l’acquisizione di documenti di tipo diverso (patenti, passaporti, IDCard straniere,… ) • Predisporre la possibilità di caricamento dei dati acquisiti su un server.
Resumo:
L’elaborato descrive il lavoro svolto nella realizzazione di un software in linguaggio Labview, la cui funzione è di controllare, mediante una scheda, l’alimentatore di un fornetto facente parte di un apparato per spettroscopia di desorbimento termico (TDS), in modo che esso generi una “rampa” di temperatura. La spettroscopia di desorbimento termico è una tecnica che consente di rivelare i gas precedentemente adsorbiti su una superficie. Nella prima fase dell’attività ho implementato un codice dedicato al mantenimento di una temperatura costante (“generazione di un’isoterma”) al fine di acquisire dimestichezza col linguaggio Labview e le problematiche relative al controllo PID. A seguito di questo studio ho proceduto alla realizzazione del software richiesto, partendo da un controllo puramente proporzionale, aggiungendo successivamente le parti integrativa e derivativa opportunamente pesate in base alla risposta del sistema. L’algoritmo utilizzato, tuttavia, non è di tipo PID in senso stretto, poiché sono state apportate alcune modifiche al fine di raggiungere il migliore risultato possibile nella generazione della rampa. Nell’elaborato sono esposti i grafici che mostrano i risultati ottenuti. Nel primo capitolo è presente la descrizione del fenomeno oggetto di studio, a cui segue la descrizione dell’apparato. Gli altri due capitoli sono dedicati alla descrizione dell’algoritmo utilizzato e del lavoro svolto.
Resumo:
La tesi si pone come obiettivo quello di analizzare dal punto di vista funzionale il software embedded real - time installato su di una applicazione industriale, utilizzando la prima release per calibrare il sistema in modo da poter stimare il numero di linee di codice necessarie per lo sviluppo delle versioni successive. Durante questo studio sono stati applicati i metodi indicati dall'ingegneria del software per contare le linee di codice sorgente dell'applicativo e stimarne i function point, analizzando ed individuando le problematiche relative all'utilizzo di tali strumenti su software di tipo real - time.
Resumo:
Grazie al progresso dell'elettronica, ai giorni nostri, è possibile costruire dispositivi elettronici molto piccoli, che col passare del tempo lo sono sempre più. Questo ci permette di poter imboccare nuove strade nel mondo dell'informatica, sfruttando proprio questo fatto. Le dimensioni ridotte dei dispositivi in commercio, come sensori, attuatori, tag e tanto altro, sono particolarmente adatte a nuovi scenari applicativi. Internet of Things è una visione in cui Internet viene esteso alle cose. Facendo largo uso di dispositivi come sensori e tag è possibile realizzare sistemi intelligenti che possono avere riscontri positivi nella vita di tutti i giorni. Tracciare la posizione degli oggetti, monitorare pazienti da remoto, rilevare dati sull'ambiente per realizzare sistemi automatici (ad esempio regolare automaticamente la luce o la temperatura di una stanza) sono solo alcuni esempi. Internet of Things è la naturale evoluzione di Internet, ed è destinato a cambiare radicalmente la nostra vita futura, poichè la tecnologia sarà sempre più parte integrante della nostra vita, aumentando sempre più il nostro benessere e riducendo sempre più il numero delle azioni quotidiane da compiere. Sempre più sono middleware, le piattaforme e i sistemi operativi che nascono per cercare di eliminare o ridurre le problematiche relative allo sviluppo di sistemi di questo genere, e lo scopo di questa tesi è proprio sottolinearne l'importanza e di analizzare gli aspetti che questi middleware devono affrontare. La tesi è strutturata in questo modo: nel capitolo uno verrà fatta una introduzione a Internet of Things, analizzando alcuni degli innumerevoli scenari applicativi che ne derivano, insieme però alle inevitabili problematiche di tipo tecnologico e sociale. Nel secondo capitolo verranno illustrate le tecnologie abilitanti di Internet of Things, grazie alle quali è possibile realizzare sistemi intelligenti. Nel terzo capitolo verranno analizzati gli aspetti relativi ai middleware, sottolineandone l'importanza e prestando attenzione alle funzioni che devono svolgere, il tutto riportando anche degli esempi di middleware esistenti. Nel quarto capitolo verrà approfondito il middleware Java Embedded di Oracle.