986 resultados para Scienza Nuova
Resumo:
Il tumore al seno si colloca al primo posto per livello di mortalità tra le patologie tumorali che colpiscono la popolazione femminile mondiale. Diversi studi clinici hanno dimostrato come la diagnosi da parte del radiologo possa essere aiutata e migliorata dai sistemi di Computer Aided Detection (CAD). A causa della grande variabilità di forma e dimensioni delle masse tumorali e della somiglianza di queste con i tessuti che le ospitano, la loro ricerca automatizzata è un problema estremamente complicato. Un sistema di CAD è generalmente composto da due livelli di classificazione: la detection, responsabile dell’individuazione delle regioni sospette presenti sul mammogramma (ROI) e quindi dell’eliminazione preventiva delle zone non a rischio; la classificazione vera e propria (classification) delle ROI in masse e tessuto sano. Lo scopo principale di questa tesi è lo studio di nuove metodologie di detection che possano migliorare le prestazioni ottenute con le tecniche tradizionali. Si considera la detection come un problema di apprendimento supervisionato e lo si affronta mediante le Convolutional Neural Networks (CNN), un algoritmo appartenente al deep learning, nuova branca del machine learning. Le CNN si ispirano alle scoperte di Hubel e Wiesel riguardanti due tipi base di cellule identificate nella corteccia visiva dei gatti: le cellule semplici (S), che rispondono a stimoli simili ai bordi, e le cellule complesse (C) che sono localmente invarianti all’esatta posizione dello stimolo. In analogia con la corteccia visiva, le CNN utilizzano un’architettura profonda caratterizzata da strati che eseguono sulle immagini, alternativamente, operazioni di convoluzione e subsampling. Le CNN, che hanno un input bidimensionale, vengono solitamente usate per problemi di classificazione e riconoscimento automatico di immagini quali oggetti, facce e loghi o per l’analisi di documenti.
Resumo:
La diffusione di Internet negli ultimi anni e lo sviluppo sempre crescente nell'ambito delle reti di telecomunicazione, hanno portato oggi ad una vera e propria esplosione della diffusione di nuove tecnologie di trasmissione. Inizialmente il protocollo di trasporto dati, TCP, non era stato pensata per operare in scenari diversi da quello della rete fissa. Con l'introduzione di nuovi scenari, come quello wireless, wimax e satellitare, si è notato come le prestazioni peggiorino in questi ambienti. Proprio per questo, il protocollo TCP ha subito parecchie modifiche negli anni e sono state realizzate alternative atte a migliorare l'inefficienza del protocollo. Le modifiche, a cui il TCP è stato sottoposto, sono basate su alcuni criteri di valutazione e l'introduzione di meccanismi come il controllo del flusso o il controllo di congestione in modo da migliorare le performance in ambienti “ostili”. Molti ricercatori si sono concentrati nello studio e modifica di questi nuovi meccanismi cercando di adattare al meglio il TCP secondo diversi scenari di rete, trascurando così altri criteri un pò meno noti. Dopo aver introdotto lo scenario con la descrizione del protocollo TCP, andremo a descrivere e illustrare questi “nuovi criteri” presentando alcuni recenti studi effettuati, in seguito andremo a presentare un nuova versione del protocollo chiamata Early Warning TCP e nell'ultimo capitolo andremo a presentare delle conclusioni degli studi presentati.
Resumo:
Fino a qualche anno fa, la conversione di documenti cartacei in documenti digitali appariva come una vera e propria utopia. Quest’oggi invece pensiamo al digitale di qualsiasi tipologia come fosse un fattore prioritario, scontato ed immediato, da poterlo considerare una vera a propria dipendenza. Mentre una volta i documenti venivano depositati in archivi talvolta rudi e polverosi, spiacevoli da recuperare, sia per tempistiche sia per condizioni, oggi la quotidianità è così frenetica che occorre ottenere tutto in modo tempestivo. Un’ evoluzione socio-culturale ha portato all’elaborazione di tecniche sempre più sofisticate di ottimizzazione nel campo; si parla di “dematerializzazione dei documenti” o “processo di conservazione sostitutiva”, innovazione che ha determinato una vera e propria rivoluzione nella Pubblica Amministrazione, nei rapporti tra privati, nell’Ordinamento Giuridico e nella scienza del diritto, poiché è radicalmente mutata la concezione di “documento” così com’è conosciuto da migliaia di anni, nella sua natura res signata, “cosa “ che riporta informazioni. Il concetto di ”smaterializzazione” non è un’ assoluta novità se si pensa alle transazioni finanziarie di enormi quantità di denaro, che da anni avvengono in tutto il mondo, grazie a “documenti informatici”, senza che passi di mano una sola banconota. Lo scopo di questa tesi è approfondire il processo di conservazione sostitutiva, partendo dalle figure ad esso legate, per poi continuare con le regole tecniche di adozione, la validità probatoria dei documenti informatici, i formati, i metadati utilizzati, e così via.
Resumo:
Nel presente lavoro si introduce un nuovo indice per la valutazione dei prodotti della ricerca: l'indice di multidisciplinarieta`. Questa nuova metrica puo` essere un interessante parametro di valutazione: il panorama degli studi multidisciplinari e` vasto ed eterogeneo, ed all'interno di questo sono richieste necessarie competenze trasversali. Le attuali metriche adottate nella valutazione di un accademico, di un journal, o di una conferenza non tengono conto di queste situazioni intermedie, e limitano la loro valutazione dell'impatto al semplice conteggio delle citazioni ricevute. Il risultato di tale valutazione consiste in un valore dell'impatto della ricerca senza una connotazione della direzione e della rilevanza di questa nel contesto delle altre discipline. L'indice di multidisciplinarieta` proposto si integrerebbe allora all'interno dell'attuale panorama delle metriche di valutazione della ricerca, offrendo -accanto ad una quantificazione dell'impatto- una quantificazione della varieta` dei contesti disciplinari nei quali si inserisce.
Resumo:
Architettura e musica. Spazio e tempo. Suono. Esperienza. Queste le parole chiave da cui ha preso avvio la mia ricerca. Tutto è iniziato dall’intuizione dell’esistenza di un legame tra due discipline cui ho dedicato molto tempo e studio, completando due percorsi accademici paralleli, la Facoltà di architettura e il Conservatorio. Dopo un lavoro d’individuazione e analisi degli infiniti spunti di riflessione che il tema offriva, ho focalizzato l’attenzione su uno degli esempi più emblematici di collaborazione tra un architetto e un musicista realizzatasi nel Novecento: Prometeo, tragedia dell’ascolto (1984), composta da Luigi Nono con la collaborazione di Massimo Cacciari e Renzo Piano. Attraverso lo studio di Prometeo ho potuto affrontare la trattazione di molte delle possibili declinazioni del rapporto interdisciplinare tra musica e architettura. La ricerca si è svolta principalmente sullo studio dei materiali conservati presso l’Archivio Luigi Nono e l’archivio della Fondazione Renzo Piano. La tesi è organizzata in tre parti: una prima parte in cui si affronta il tema del ruolo dello spazio nelle opere di Nono precedenti a Prometeo, facendo emergere l’importanza dell’ambiente culturale e sonoro veneziano; una seconda parte in cui si approfondisce il processo compositivo che ha portato alle rappresentazioni di Prometeo a Venezia, Milano e a Parigi; una terza parte in cui si prende in considerazione quanto avvenuto dopo Prometeo e si riflette sui contributi che questa esperienza può portare alla progettazione di spazi per la musica, analizzando diversi allestimenti dell’opera senza arca e prendendo in considerazione i progetti dell’auditorium dell’International Art Village di Akiyoshidai e della sala della nuova Philharmonie di Parigi. Lo studio dell’esperienza di Prometeo ha lo scopo di stimolare la curiosità verso la ricerca e la sperimentazione di quegli infiniti possibili della composizione architettonica e musicale di cui parla Nono.
Resumo:
Nell'ultimo decennio il trend topic nell'ambito dell'insegnamento dell'informatica è il pensiero computazionale. Concetto già presente, è stato risaltato nel 2006 da Jeannette Wing, che ha mostrato come l'informatica abbia portato alla scienza non solo strumenti (computer e linguaggi di programmazione) ma anche innovazioni nel modo di pensare (es. algoritmo shotgun per sequenziamento del DNA umano). Il pensiero computazionale è il processo mentale coinvolto nel formulare problemi e loro soluzioni, rappresentate in una forma che sia effettivamente eseguibile da un agente che processa informazioni. Si tratta di “pensare come un informatico” quando si affronta un problema. Dopo aver passato in rassegna la letteratura sul pensiero computazionale, viene proposta una definizione del concetto. Si prende atto che la ricerca in questi anni sia rimasta molto legata ai linguaggi di programmazione, concetto centrale dell’Informatica. Vengono allora proposte due strade. La prima strada consiste nella riesumazione di tutta una serie di studi di Psicologia della Programmazione, in particolare: studi sulle misconcezioni, che si occupano di individuare i concetti che sono compresi male dai programmatori novizi, e studi sul commonsense computing, che cercano di capire come persone che non hanno mai ricevuto nozioni di programmazione - o più in generale di informatica – esprimano (in linguaggio naturale) concetti e processi computazionali. A partire da queste scoperte, si forniscono una serie di consigli per insegnare al meglio la programmazione (con i linguaggi attuali, con nuovi linguaggi appositamente progettati, con l'aiuto di strumenti ed ambienti ad-hoc) al più ampio pubblico possibile. La seconda strada invece porta più lontano: riconoscere il pensiero computazionale come quarta abilità di base oltre a leggere, scrivere e calcolare, dandogli dunque grande importanza nell’istruzione. Si vuole renderlo “autonomo” rispetto alla programmazione, fornendo consigli su come insegnarlo senza - ma anche con - l'ausilio di un formalismo.
Resumo:
La tesi affronta il concetto di esposizione al rischio occupazionale e il suo scopo è quello di indagare l’ambiente di lavoro e il comportamento dei lavoratori, con l'obiettivo di ridurre il tasso di incidenza degli infortuni sul lavoro ed eseguire la riduzione dei rischi. In primo luogo, è proposta una nuova metodologia denominata MIMOSA (Methodology for the Implementation and Monitoring of Occupational SAfety), che quantifica il livello di "salute e sicurezza" di una qualsiasi impresa. Al fine di raggiungere l’obiettivo si è reso necessario un approccio multidisciplinare in cui concetti d’ingegneria e di psicologia sono stati combinati per sviluppare una metodologia di previsione degli incidenti e di miglioramento della sicurezza sul lavoro. I risultati della sperimentazione di MIMOSA hanno spinto all'uso della Logica Fuzzy nel settore della sicurezza occupazionale per migliorare la metodologia stessa e per superare i problemi riscontrati nell’incertezza della raccolta dei dati. La letteratura mostra che i fattori umani, la percezione del rischio e il comportamento dei lavoratori in relazione al rischio percepito, hanno un ruolo molto importante nella comparsa degli incidenti. Questa considerazione ha portato ad un nuovo approccio e ad una seconda metodologia che consiste nella prevenzione di incidenti, non solo sulla base dell'analisi delle loro dinamiche passate. Infatti la metodologia considera la valutazione di un indice basato sui comportamenti proattivi dei lavoratori e sui danni potenziali degli eventi incidentali evitati. L'innovazione consiste nell'applicazione della Logica Fuzzy per tener conto dell’"indeterminatezza" del comportamento umano e del suo linguaggio naturale. In particolare l’applicazione è incentrata sulla proattività dei lavoratori e si prefigge di impedire l'evento "infortunio", grazie alla generazione di una sorta d’indicatore di anticipo. Questa procedura è stata testata su un’azienda petrolchimica italiana.
Resumo:
La tesi analizza una parte della politica estera dell’amministrazione Johnson, e più specificamente l’avvio del dialogo con l’Urss in materia di non proliferazione e controllo degli armamenti e la revisione della China policy, inquadrando entrambe nell’adattamento della cold war strategy all’evoluzione sistema internazionale, argomentando che la distensione intesa come rilassamento delle tensioni e ricerca di terreno comune per il dialogo, fosse perlomeno uno degli strumenti politici che l’amministrazione scelse di usare. Il primo capitolo analizza i cambiamenti che interessarono il Blocco sovietico e il movimento comunista internazionale tra la fine degli anni Cinquanta e l’inizio degli anni Sessanta, soprattutto la rottura dell’alleanza sino-sovietica, e l’impatto che essi ebbero sul sistema bipolare su cui si basava la Guerra Fredda. Il capitolo secondo affronta più specificamente l’evoluzione delle relazioni tra Stati Uniti e Unione Sovietica, il perseguimento di una politica di distensione, dopo la crisi dei missili cubani, e in che relazione si trovasse ciò con lo status della leadership sovietica a seguito dei cambiamenti che avevano avuto luogo. Soffermandosi sulla questione del controllo degli armamenti e sul percorso che portò alla firma del Trattato di Non-proliferazione, si analizza come la nuova rotta intrapresa col dialogo sulle questioni strategiche sia stato anche un cambiamento di rotta in generale nella concezione della Guerra Fredda e l’introduzione della distensione come strumento politico. Il terzo capitolo affronta la questione della modifica della politica verso Pechino e il processo tortuoso e contorto attraverso cui l’amministrazione Johnson giunse a distaccarsi dalla China policy seguita sino ad allora.
Resumo:
Scopo dello studio: valutare i cambiamenti indotti da diversi trattamenti di mordenzatura sulla morfologia superficiale e sulla microstruttura di due vetro-ceramiche a base disilicato di litio (IPS e.max® Press e IPS e.max® CAD) ed esaminarne gli effetti sia sull’adesione con un cemento resinoso che sulla resistenza alla flessione. Materiali e metodi: Settanta dischetti (12 mm di diametro, 2 mm di spessore) di ogni ceramica sono stati preparati e divisi in 5 gruppi: nessun trattamento (G1), HF 5% 20s (G2), HF 5% 60s (G3), HF 9.6% 20s (G4), HF 9.6% 60s (G5). Un campione per ogni gruppo è stato analizzato mediante profilometro ottico e osservato al SEM. Per gli altri campioni è stato determinato lo shear bond strength (SBS) con un cemento resinoso. Dopo l’SBS test, i campioni sono stati caricati fino a frattura utilizzando il piston-on-three-ball test per determinarne la resistenza biassiale alla flessione. Risultati: L’analisi morfologica e microstrutturale dei campioni ha rivelato come diversi trattamenti di mordenzatura producano delle modifiche nella rugosità superficiale che non sono direttamente collegate ad un aumento dei valori di adesione e dei cambiamenti microstrutturali che sono più rilevanti con l’aumento del tempo di mordenzatura e di concentrazione dell’acido. I valori medi di adesione (MPa) per IPS e.max® CAD sono significativamente più alti in G2 e G3 (21,28 +/- 4,9 e 19,55 +/- 5,41 rispettivamente); per IPS e.max® Press, i valori più elevati sono in G3 (16,80 +/- 3,96). La resistenza biassiale alla flessione media (MPa) è più alta in IPS e.max® CAD (695 +/- 161) che in IPS e.max® Press (588 +/- 117), ma non è non influenzata dalla mordenzatura con HF. Conclusioni: il disilicato di litio va mordenzato preferibilmente con HF al 5%. La mordenzatura produce alcuni cambiamenti superficiali e microstrutturali nel materiale, ma tali cambiamenti non ne influenzano la resistenza in flessione.
Resumo:
In corso di gravidanza normale avvengono modificazioni emodinamiche centrali e periferiche volte a garantire le crescenti richieste nutritive dell'unità feto-placentare. L’ecografia con mezzo di contrasto (CEUS-Contrast Enhanced Ultrasonography) a base di microbolle offre una nuova opportunità di monitorare e quantificare la perfusione utero-placentare in condizioni normali e patologiche. L’ecocardiografia è stata ampiamente usata in medicina umana per valutare l’adattamento morfo-funzionale cardiaco materno durante la gravidanza. Gli scopi di questo lavoro prospettico sono stati di applicare, per la prima volta nella specie equina, un mezzo di contrasto di II generazione (Sonovue®), al fine quantificare la perfusione utero-placentare in corso di gravidanza normale, valutandone gli effetti sul benessere materno-fetale e di descrivere le modificazioni nei parametri ecocardiografici morfometrici e funzionali cardiaci, in particolare relativi alla funzione del ventricolo sinistro nel corso di una gravidanza fisiologica. Due fattrici sane di razza Trottatore sono state monitorate ecograficamente in maniera seriale durante l’intero corso della gravidanza, tramite esame bidimensionale, ecocontrastografia dell'unità utero-placentare, flussimetria Doppler delle arterie uterine, ecocardiografia materna in modalità bidimensionale, M-mode, Doppler e Tissue Doppler Imaging. I neonati sono stati clinicamente monitorati e gli invogli fetali esaminati. Il pattern di microperfusione utero-placentare è valutabile quali-quantitativamente tramite la CEUS e dimostra un’aumento del flusso a livello di microvascolarizzazione uterina con l'avanzare della gravidanza; non è stata rilevata la presenza di microbolle a livello di strutture fetali nè effetti dannosi sul benessere materno-fetale. In questo studio sono state osservate delle modificazioni cardiache materne in corso di gravidanza fisiologica, relative all'aumento della FC, del CO ed in particolare all'aumento delle dimensioni dell'atrio sinistro ed a modificazioni nelle onde di velocità di flusso e tissutali di riempimento del ventricolo sinistro.
Resumo:
Il presente elaborato tratta l'analisi del collasso sismico del Santuario della Beata Vergine della Coronella sito a Galliera (Bo).Partendo dalla progettazione e verifica di una nuova copertura in legno lamellare si procede realizzando, per mezzo del software Straus7, due modelli del Santuario,uno con la nuova copertura e uno con la copertura crollata. Questi verranno poi, analizzati staticamente e dinamicamente e dal confronto dei risultati delle analisi verranno valutate le criticità e le migliorie apportate alla muratura, a seguito della realizzazione del nuovo tetto.
Resumo:
Il progetto indaga principalmente le modalità di approccio ai manufatti in rovina, crollati dopo il sisma di maggio 2012, in Emilia; nello specifico, sulla chiesa di San Biagio in Padule. In particolare, si è cercato di comprendere la relazione che è possibile instaurare tra la preesistenza e la nuova costruzione: il concetto di contemporaneità in architettura. Quest'ultimo, diventa concept dell'intero progetto che vede la realizzazione della nuova chiesa, all'interno dei ruderi di quella antica, creando una promenade che si sviluppa sui tre livelli (interrato: museo del terremoto, piano terra: cappelle e spazi per la meditazione, piano primo: aula della chiesa).
Resumo:
La tesi riflette sulla necessità di un ripensamento delle scienze antropologiche nel senso di un loro uso pubblico e del loro riconoscimento al di fuori dell’accademia. Viene introdotto il dibattito sulla dimensione applicata dell’antropologia a partire dalle posizioni in campo nel panorama internazionale. Negli Stati Uniti la riflessione si sviluppa dalla proposta della public anthropology, l’antropologo pubblico si discosta dalla tradizionale figura europea di intellettuale pubblico. Alla luce delle varie posizioni in merito, la questione dell’applicazione è esaminata dal punto di vista etico, metodologico ed epistemologico. Inizialmente vengono prese in considerazione le diverse metodologie elaborate dalla tradizione dell’applied anthropology a partire dalle prime proposte risalenti al secondo dopoguerra. Successivamente viene trattata la questione del rapporto tra antropologia, potere coloniale e forze armate, fino al recente caso degli antropologi embedded nello Human Terrain System. Come contraltare vengono presentate le diverse forme di engagement antropologico che vedono ricercatori assumere diversi ruoli fino a casi estremi che li vedono divenire attivisti delle cause degli interlocutori. La questione del ruolo giocato dal ricercatore, e di quello che gli viene attribuito sul campo, viene approfondita attraverso la categoria di implication elaborata in contesto francese. Attraverso alcune esperienze di campo vengono presentate forme di intervento concreto nel panorama italiano che vogliono mettere in luce l’azione dell’antropologo nella società. Infine viene affrontato il dibattito, in corso in Italia, alla luce della crisi che sta vivendo la disciplina e del lavoro per la costituzione dell’associazione nazionale di antropologia professionale.
Resumo:
Dopo un’approfondita analisi strutturale e morfologica della metropoli di Bogotà, si affronta il progetto per la costruzione di una nuova chiesa e complesso parrocchiale in una delle localidad più povere della città: Usme. Nella relazione si illustra il progetto nel dettaglio, descrivendo tutto il processo metodologico. Il sistema del complesso parrocchiale, situato sulla sommità di un piccolo declivio, è stato concepito come luogo collettivo e prende spunto dai sistemi abbaziali e monastici, organizzati attorno alle corti, vero fulcro della vita comunitaria. Il progetto si struttura su tre elementi principali: la chiesa, la casa del sacerdote con il patio e la corte su cui affacciano gli edifici per la vita parrocchiale. La chiesa, centro della composizione, si organizza come un edificio essenziale, povero, muto, silenzioso, con uno stretto riferimento alle architetture e al corpus teorico di Paolo Zermani e Rudolph Schwarz.
Resumo:
Premesse: Gli eventi ischemici (EI) e le emorragie cerebrali (EIC) sono le più temute complicanze della fibrillazione atriale (FA) e della profilassi antitrombotica. Metodi: in 6 mesi sono stati valutati prospetticamente i pazienti ammessi in uno dei PS dell’area di Bologna con FA associata ad EI (ictus o embolia periferica) o ad EIC. Risultati: sono stati arruolati 178 pazienti (60 maschi, età mediana 85 anni) con EI. Il trattamento antitrombotico in corso era: a) antagonisti della vitamina K (AVK) in 31 (17.4%), INR all’ingresso: <2 in 16, in range (2.0-3.0) in 13, >3 in 2; b) aspirina (ASA) in 107 (60.1%); c) nessun trattamento in 40 (22.5%), soprattutto in FA di nuova insorgenza. Nei 20 pazienti (8 maschi; età mediana 82) con EIC il trattamento era: a)AVK in 13 (65%), INR in range in 11 pazienti, > 3 in 2, b) ASA in 6 (30%). La maggior parte degli EI (88%) ed EIC (95%) si sono verificati in pazienti con età > 70 anni. Abbiamo valutato l’incidenza annuale di eventi nei soggetti con età > 70 anni seguiti neo centri della terapia anticoagulante (TAO) e nei soggetti con FA stimata non seguiti nei centri TAO. L’incidenza annuale di EI è risultata 12% (95%CI 10.7-13.3) nei pazienti non seguiti nei centri TAO, 0.57% (95% CI 0.42-0.76) nei pazienti dei centri TAO ( RRA 11.4%, RRR 95%, p<0.0001). Per le EIC l’incidenza annuale è risultata 0.63% (95% CI 0.34-1.04) e 0.30% (95% CI 0.19-0.44) nei due gruppi ( RRA di 0.33%/anno, RRR del 52%/anno, p=0.040). Conclusioni: gli EI si sono verificati soprattutto in pazienti anziani in trattamento con ASA o senza trattamento. La metà dei pazienti in AVK avevano un INR sub terapeutico. L’approccio terapeutico negli anziani con FA deve prevedere un’ adeguata gestione della profilassi antitrombotica.