999 resultados para Cordel, Letteratura popolare, Brasile
Resumo:
Uno dei principali ambiti di ricerca dell’intelligenza artificiale concerne la realizzazione di agenti (in particolare, robot) in grado di aiutare o sostituire l’uomo nell’esecuzione di determinate attività. A tal fine, è possibile procedere seguendo due diversi metodi di progettazione: la progettazione manuale e la progettazione automatica. Quest’ultima può essere preferita alla prima nei contesti in cui occorra tenere in considerazione requisiti quali flessibilità e adattamento, spesso essenziali per lo svolgimento di compiti non banali in contesti reali. La progettazione automatica prende in considerazione un modello col quale rappresentare il comportamento dell’agente e una tecnica di ricerca (oppure di apprendimento) che iterativamente modifica il modello al fine di renderlo il più adatto possibile al compito in esame. In questo lavoro, il modello utilizzato per la rappresentazione del comportamento del robot è una rete booleana (Boolean network o Kauffman network). La scelta di tale modello deriva dal fatto che possiede una semplice struttura che rende agevolmente studiabili le dinamiche tuttavia complesse che si manifestano al suo interno. Inoltre, la letteratura recente mostra che i modelli a rete, quali ad esempio le reti neuronali artificiali, si sono dimostrati efficaci nella programmazione di robot. La metodologia per l’evoluzione di tale modello riguarda l’uso di tecniche di ricerca meta-euristiche in grado di trovare buone soluzioni in tempi contenuti, nonostante i grandi spazi di ricerca. Lavori precedenti hanno gia dimostrato l’applicabilità e investigato la metodologia su un singolo robot. Lo scopo di questo lavoro è quello di fornire prova di principio relativa a un insieme di robot, aprendo nuove strade per la progettazione in swarm robotics. In questo scenario, semplici agenti autonomi, interagendo fra loro, portano all’emergere di un comportamento coordinato adempiendo a task impossibili per la singola unità. Questo lavoro fornisce utili ed interessanti opportunità anche per lo studio delle interazioni fra reti booleane. Infatti, ogni robot è controllato da una rete booleana che determina l’output in funzione della propria configurazione interna ma anche dagli input ricevuti dai robot vicini. In questo lavoro definiamo un task in cui lo swarm deve discriminare due diversi pattern sul pavimento dell’arena utilizzando solo informazioni scambiate localmente. Dopo una prima serie di esperimenti preliminari che hanno permesso di identificare i parametri e il migliore algoritmo di ricerca, abbiamo semplificato l’istanza del problema per meglio investigare i criteri che possono influire sulle prestazioni. E’ stata così identificata una particolare combinazione di informazione che, scambiata localmente fra robot, porta al miglioramento delle prestazioni. L’ipotesi è stata confermata applicando successivamente questo risultato ad un’istanza più difficile del problema. Il lavoro si conclude suggerendo nuovi strumenti per lo studio dei fenomeni emergenti in contesti in cui le reti booleane interagiscono fra loro.
Resumo:
Negli ultimi anni la ricerca nella cura dei tumori si è interessata allo sviluppo di farmaci che contrastano la formazione di nuovi vasi sanguigni (angiogenesi) per l’apporto di ossigeno e nutrienti ai tessuti tumorali, necessari per l’accrescimento e la sopravvivenza del tumore. Per valutare l’efficacia di questi farmaci antiangiogenesi esistono tecniche invasive: viene prelevato tramite biopsia un campione di tessuto tumorale, e tramite analisi microscopica si quantifica la densità microvascolare (numero di vasi per mm^2) del campione. Stanno però prendendo piede tecniche di imaging in grado di valutare l’effetto di tali terapie in maniera meno invasiva. Grazie allo sviluppo tecnologico raggiunto negli ultimi anni, la tomografia computerizzata è tra le tecniche di imaging più utilizzate per questo scopo, essendo in grado di offrire un’alta risoluzione sia spaziale che temporale. Viene utilizzata la tomografia computerizzata per quantificare la perfusione di un mezzo di contrasto all’interno delle lesioni tumorali, acquisendo scansioni ripetute con breve intervallo di tempo sul volume della lesione, a seguito dell’iniezione del mezzo di contrasto. Dalle immagini ottenute vengono calcolati i parametri perfusionali tramite l’utilizzo di differenti modelli matematici proposti in letteratura, implementati in software commerciali o sviluppati da gruppi di ricerca. Al momento manca un standard per il protocollo di acquisizione e per l’elaborazione delle immagini. Ciò ha portato ad una scarsa riproducibilità dei risultati intra ed interpaziente. Manca inoltre in letteratura uno studio sull’affidabilità dei parametri perfusionali calcolati. Il Computer Vision Group dell’Università di Bologna ha sviluppato un’interfaccia grafica che, oltre al calcolo dei parametri perfusionali, permette anche di ottenere degli indici sulla qualità dei parametri stessi. Questa tesi, tramite l’analisi delle curve tempo concentrazione, si propone di studiare tali indici, di valutare come differenti valori di questi indicatori si riflettano in particolari pattern delle curve tempo concentrazione, in modo da identificare la presenza o meno di artefatti nelle immagini tomografiche che portano ad un’errata stima dei parametri perfusionali. Inoltre, tramite l’analisi delle mappe colorimetriche dei diversi indici di errore si vogliono identificare le regioni delle lesioni dove il calcolo della perfusione risulta più o meno accurato. Successivamente si passa all’analisi delle elaborazioni effettuate con tale interfaccia su diversi studi perfusionali, tra cui uno studio di follow-up, e al confronto con le informazioni che si ottengono dalla PET in modo da mettere in luce l’utilità che ha in ambito clinico l’analisi perfusionale. L’intero lavoro è stato svolto su esami di tomografia computerizzata perfusionale di tumori ai polmoni, eseguiti presso l’Unità Operativa di Diagnostica per Immagini dell’IRST (Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori) di Meldola (FC). Grazie alla collaborazione in atto tra il Computer Vision Group e l’IRST, è stato possibile sottoporre i risultati ottenuti al primario dell’U. O. di Diagnostica per Immagini, in modo da poterli confrontare con le considerazioni di natura clinica.
Resumo:
La tesi si sofferma sulla traduzione in italiano delle specificità lessicali del francese del Québec rilevate in due opere rappresentative della lingua francese quebecchese : Agaguk e N’tsuk di Yves Thériault. L’analisi monolingue e contrastiva dei quebecismi e della loro traduzione italiana ci ha permesso di verificare se i traducenti utilizzati rendessero conto o meno della specificità del francese quebecchese. La nostra ricerca ha quindi contribuito a dimostrare che una traduzione soddisfacente dei quebecismi è possibile, ma solo attraverso la consultazione corretta degli strumenti lessicografici specifici sul francese del Québec di cui oggi il traduttore può disporre.
Resumo:
Il video streaming in peer-to-peer sta diventando sempre più popolare e utiliz- zato. Per tali applicazioni i criteri di misurazione delle performance sono: - startup delay: il tempo che intercorre tra la connessione e l’inizio della ripro- duzione dello stream (chiamato anche switching delay), - playback delay: il tempo che intercorre tra l’invio da parte della sorgente e la riproduzione dello stream da parte di un peer, - time lag: la differenza tra i playback delay di due diversi peer. Tuttavia, al giorno d’oggi i sistemi P2P per il video streaming sono interessati da considerevoli ritardi, sia nella fase di startup che in quella di riproduzione. Un recente studio su un famoso sistema P2P per lo streaming, ha mostrato che solitamente i ritardi variano tra i 10 e i 60 secondi. Gli autori hanno osservato anche che in alcuni casi i ritardi superano i 4 minuti! Si tratta quindi di gravi inconvenienti se si vuole assistere a eventi in diretta o se si vuole fruire di applicazioni interattive. Alcuni studi hanno mostrato che questi ritardi sono la conseguenza della natura non strutturata di molti sistemi P2P. Ogni stream viene suddiviso in blocchi che vengono scambiati tra i peer. A causa della diffusione non strutturata del contenuto, i peer devono continuamente scambiare informazioni con i loro vicini prima di poter inoltrare i blocchi ricevuti. Queste soluzioni sono estremamente re- sistenti ai cambiamenti della rete, ma comportano una perdita notevole in termini di prestazioni, rendendo complicato raggiungere l’obiettivo di un broadcast in realtime. In questo progetto abbiamo lavorato su un sistema P2P strutturato per il video streaming che ha mostrato di poter offrire ottimi risultati con ritardi molto vicini a quelli ottimali. In un sistema P2P strutturato ogni peer conosce esattamente quale blocchi inviare e a quali peer. Siccome il numero di peer che compongono il sistema potrebbe essere elevato, ogni peer dovrebbe operare possedendo solo una conoscenza limitata dello stato del sistema. Inoltre il sistema è in grado di gestire arrivi e partenze, anche raggruppati, richiedendo una riorganizzazione limitata della struttura. Infine, in questo progetto abbiamo progettato e implementato una soluzione personalizzata per rilevare e sostituire i peer non più in grado di cooperare. Anche per questo aspetto, l’obiettivo è stato quello di minimizzare il numero di informazioni scambiate tra peer.
Resumo:
L’obiettivo di questa tesi è principalmente quello di mostrare le possibili applicazioni della tecnologia RFID (Radio Frequency Identification) all’interno della supply chain farmaceutica, cercando di comprendere il campo di applicazione di questa tecnologia in un’industria così altamente regolata e complessa come quella farmaceutica. La tesi è organizzata in tre sezioni; nel primo capitolo si trattano i principi alla base della tecnologia RFID e l’attuale stato dell’arte nella standardizzazione della banda di frequenza utilizzata e nell’hardware. In questa sezione sono poi mostrate le principali applicazioni e nella parte finale i problemi affrontati da un’azienda nell’applicare l’RFID al proprio business. Il secondo capitolo descrive le parti coinvolte nell’industria farmaceutica, dal produttore al consumatore finale, poi esamina le caratteristiche essenziali della supply chain farmaceutica e gli aspetti chiave e le criticità da affrontare in questo campo per essere efficiente e per consegnare il prodotto al cliente in maniera sicura e consistente. Infine nell’ultima sezione i due argomenti centrali sono fusi assieme, cercando di esaminare come la tecnologia RFID sia in grado di risolvere i problemi affrontati da tale industria. Il lavoro non vuole mostrare la tecnologia RFID come una panacea di tutte le problematiche presentate in questa industria, ma vuole cercare di colmare il gap presente in letteratura riguardo le possibili applicazioni di questa tecnologia nell’industria specificata.
Resumo:
Le più moderne e diffuse applicazioni wireless attuali sono dedicate a sistemi distribuiti in grandi quantità ed il più possibile miniaturizzati. In questa tesi si discute di tecniche di miniaturizzazione delle antenne di questi sistemi. Tradizionalmente tali tecniche si sono basate su substrati ad elevata costante dielettrica che hanno però, come contropartita, un deterioramento delle prestazioni radianti. Un'alternativa molto promettente è offerta da substrati magneto-dielettrici che, pur garantendo analoghe riduzioni degli ingombri, possono offrire migliori opportunità per il comportamento radiante e per l'adattamento dell'antenna al resto del sistema. In questa tesi, partendo dallo stato dell'arte della letteratura scientifica, si è sviluppato un modello che consente di valutare a priori i vantaggi/svantaggi di diverse topologie d'antenne basate su substrati magneto-dielettrici. Il metodo si basa sul teorema di equivalenza. Infine la tesi affronta il problema di sviluppare un metodo per la caratterizzazione dei parametri costitutivi di tali materiali.
Resumo:
La tossicità delle polveri atmosferiche è associata sia alla natura granulometrica sia al carico di contaminanti, da qui la necessità di investigare oltre la concentrazione delle PM in atmosfera anche la loro composizione chimica. In questo studio è stata effettuata una prima caratterizzazione da un punto di vista sia granulometrico che chimico del particolato atmosferico campionato in una zona suburbana di Riccione (Castello degli Agolanti). In particolare sono state determinate le concentrazioni di metalli quali Pb, Cd, Ni, Zn, Cu, Fe e Al nel PM 2,5 PM 10 e PM totale. Inoltre, dato che uno degli scopi dello studio è quello di verificare il contributo della combustione di biomasse sul carico complessivo di contaminanti, il periodo di campionamento comprende il giorno delle Fogheracce, festa popolare in cui vengono accesi diversi falò all’aperto. Complessivamente sono stati prelevati 13 campioni di 48 ore per ogni frazione granulometrica dal 9 Marzo all’8 Aprile 2011. Dallo studio emerge che nel periodo di campionamento, mediamente il contributo antropogenico è dominante per Pb, Cd, Ni Cu e Zn dovuto principalmente al traffico veicolare. Tali metalli, ad eccezione del Cu infatti si concentrano nel particolato più fine. Al e Fe invece sono principalmente marker delle emissioni crostali e si concentrano nella frazione grossolana. Interessante quanto registrato nella giornata delle Fogheracce. Oltre ad una variazione nel contenuto relativo dei metalli con un forte arricchimento di Pb e Al, per quest’ultimo si nota anche un forte incremento della sua concentrazione nella frazione PM2.5 ad indicare una diversa sorgente emissiva. Si evidenzia in questo studio un importante contributo nel carico di inquinanti da parte di combustioni di biomasse all’aperto.
Resumo:
The dissertation is divided into two parts: the first synthesis focused on the definition of the epigram scoptico imperial age, the second analysis concerns the study of the minor poets of Book XI. In the Introduction (I), the attention focuses on the genesis of imperial scoptic epigram: here you try to draw a picture of the satirical Greek literature before the middle of the century AD to identify the debts of the scoptic epigram, especially Lucillius’, in respect of previous authors (from the Middle-up comedy to epigrams of the Crown of Philip), and to emphasize the remoteness of this literary phenomenon from other experiences of ironic and satirical poetry (Catullus). In the chapter on the Themes (II), the study was limited to professional groups and those most targeted (doctors, grammarians, etc..), to that particular type represented by the satire on ethnic groups. The study of minor poets is necessarily preceded by a general discussion on the authors most representative of the greek satiric poetry: Lucillius, Ammianus, Nicarchus and Palladas (III). All the minor poets of the eleventh book, which you can not provide a date, have been regarded by scholars as the ‘poets of Diogenian’: the chapter on Anthologion of Diogenian (IV), which is undergoing critical to the existence (assumed but never proven) of the lost source of Book XI, therefore, serves as an introduction to the commentary of the authors required minors. During the discussion they are not qualified as poets ‘poets of Diogenian’, but are divided into two categories: those included in the string of alphabetically ordered AP XI 388-436 (V), and those who are not part of (VI). Finally, a separate chapter (VII) is devoted to the age-old question of epigrams assigned to Lucian, both in the string of alphabetically ordered epigrams, as well as outside it.
Resumo:
L’erosione dentale è definita come una perdita progressiva e irreversibile dei tessuti duri del dente, a causa di un processo chimico che non coinvolge i batteri. La sua prevalenza è accresciuta negli ultimi anni nella popolazione generale, particolarmente nei bambini e negli adolescenti e rappresenta attualmente un’enorme sfida per la cura della salute orale. L'eziologia delle erosioni è difficile da diagnosticare perché può essere il risultato di una varietà di fattori e si può manifestare in maniera differente in base alla causa che l’ha determinata. L’eziologia può essere intrinseca, cioè derivante dal contenuto acido dello stomaco associato a disordini alimentari come l’anoressia, la bulimia nervosa, il reflusso gastro-esofageo e il regurgito, o estrinseca, derivante dal contenuto acido proveniente dall’ambiente esterno (cibi dietetici, bevande analcoliche, succhi di frutta, ecc). L’erosione è particolarmente frequente nei bambini e poiché i soggetti che presentano erosioni in dentizione decidua hanno un rischio aumentato di manifestare erosioni in dentizione permanente, una diagnosi precoce e una prevenzione attuata in tenera età, aiuterà a prevenire il danno a carico dei denti permanenti. Inoltre se l’erosione dentale non è controllata e stabilizzata, il bambino potrebbe soffrire di severe perdite di superfici dentali, sensibilità dentale, malocclusione, inestetismi o anche ascessi dentali dei denti affetti. Lo studio caso-controllo è stato condotto dalla Sezione di Odontostomatologia del Dipartimento Testa - Collo, in collaborazione con l’Unità Operativa Complessa di Gastroenterologia Pediatrica dell’Azienda Ospedaliera-Univesitaria di Parma. Il gruppo di studio comprende 60 pazienti di età compresa tra i 4 e i 13 anni. Dei 60 bambini arruolati, 30 presentano sintomi e storia clinica di GERD, mentre gli altri 30 sono bambini sani senza alcun sintomo di GERD o di altri disturbi gastrointestinali. Il gruppo campione A include anche soggetti affetti, oltre che dal reflusso gastro-esofageo, da varie forme di disabilità, in alcune delle quali il GERD sembra essere parte del quadro sindromico. I risultati ottenuti dallo studio hanno dimostrato una prevalenza maggiore di erosioni dentali nel gruppo di bambini affetti da GERD, rispetto ai bambini sani, in accordo con quanto riportato dalla letteratura.
Resumo:
Diversi studi presenti in letteratura hanno messo in evidenza come il sistema di filtrazione di un olio extravergine di oliva rivesta un ruolo importante per una corretta conservazione del prodotto nel tempo; contestualmente, l’applicazione di metodi tradizionali di trattamento comporta la diminuzione di alcuni componenti minori: oltre all’allontanamento dei composti in sospensione, che concorrono a fornire l’aspetto torbido all’olio non trattato, viene allontanata acqua micro dispersa, che ha l’importante compito di solubilizzare molecole dotate di una certa polarità, principalmente fenoliche che, come noto, risultano indispensabili per la stabilità ossidativa e giocano un ruolo chiave nell’impartire all’olio extravergine di oliva alcune note sensoriali peculiari, quali l’amaro ed il piccante, percepibili in fase gustativa. Lo scopo di questo progetto sperimentale è stato di valutare la qualità chimica e sensoriale di tre oli extra vergini di oliva sottoposti ad un sistema brevettato di illimpidimento, basato sul passaggio di un flusso di gas inerte, quale l’argon, nella massa di olio d'oliva. Questo metodo può rappresentare una valida alternativa ai trattamenti tradizionali e per questo è indispensabile valutarne i punti di forza e di debolezza in relazione all’effettiva possibilità di impiego nella produzione industriale. Per questa finalità, il sistema brevettato dall'Università di Bologna e dalla Sapio (una società privata che fornisce il gas per i settori industriali e della ricerca) è stato applicato a un lotto di 50 L di ciascun olio dopo la sua produzione mediante mini-frantoio. I campioni, sia trattati che controllo, sono stati imbottigliati e conservati a temperatura ambiente e mantenuti al buio prima dell'analisi. Dopo quattro mesi di conservazione, sono stati valutati gli indici di qualità di base, tra cui acidità libera, numero di perossidi, assorbimento specifico nella zona dei dieni e trieni coniugati e il profilo sensoriale. Inoltre è stata valutata la stabilità ossidativa in condizioni forzate, il profilo dei composti maggioritari (acidi grassi) e dei composti minori (tocoferoli, fenoli, volatili, acqua). I risultati sono stati utilizzati per la comparazione della qualità complessiva degli oli extravergini di oliva sottoposti a chiarifica con sistema brevettato rispetto a quelli non trattati, permettendo una valutazione dell’effetto del nuovo sistema sulle caratteristiche chimiche e sensoriali del prodotto.