566 resultados para numeri trascendenti pi greco numero di Nepero Liouville Lindemann
Resumo:
Nell'ultimo decennio il trend topic nell'ambito dell'insegnamento dell'informatica è il pensiero computazionale. Concetto già presente, è stato risaltato nel 2006 da Jeannette Wing, che ha mostrato come l'informatica abbia portato alla scienza non solo strumenti (computer e linguaggi di programmazione) ma anche innovazioni nel modo di pensare (es. algoritmo shotgun per sequenziamento del DNA umano). Il pensiero computazionale è il processo mentale coinvolto nel formulare problemi e loro soluzioni, rappresentate in una forma che sia effettivamente eseguibile da un agente che processa informazioni. Si tratta di “pensare come un informatico” quando si affronta un problema. Dopo aver passato in rassegna la letteratura sul pensiero computazionale, viene proposta una definizione del concetto. Si prende atto che la ricerca in questi anni sia rimasta molto legata ai linguaggi di programmazione, concetto centrale dell’Informatica. Vengono allora proposte due strade. La prima strada consiste nella riesumazione di tutta una serie di studi di Psicologia della Programmazione, in particolare: studi sulle misconcezioni, che si occupano di individuare i concetti che sono compresi male dai programmatori novizi, e studi sul commonsense computing, che cercano di capire come persone che non hanno mai ricevuto nozioni di programmazione - o più in generale di informatica – esprimano (in linguaggio naturale) concetti e processi computazionali. A partire da queste scoperte, si forniscono una serie di consigli per insegnare al meglio la programmazione (con i linguaggi attuali, con nuovi linguaggi appositamente progettati, con l'aiuto di strumenti ed ambienti ad-hoc) al più ampio pubblico possibile. La seconda strada invece porta più lontano: riconoscere il pensiero computazionale come quarta abilità di base oltre a leggere, scrivere e calcolare, dandogli dunque grande importanza nell’istruzione. Si vuole renderlo “autonomo” rispetto alla programmazione, fornendo consigli su come insegnarlo senza - ma anche con - l'ausilio di un formalismo.
Resumo:
Il Mar Adriatico presenta una grande ricchezza di diversità di specie ittiche, molte delle quali sono rilevanti dal punto di vista commerciale, altre rappresentano un contributo alla complessità biologica dell’ambiente. In questo lavoro di tesi tecniche di analisi multivariata sono state utilizzate per analizzare la composizione in specie ittiche demersali dell’Alto e Medio Adriatico e la diversità, per arrivare a delineare un quadro generale di tali comunità. I dati utilizzati sono stati raccolti nelle campagne GRUND effettuate in Adriatico dal 1982 al 2007 nell’area delle acque nazionali italiane ed internazionali, al limite delle acque croate e slovene. La Cluster Analysis effettuata sui dati di abbondanza (kg/h) delle specie ha permesso di definire quattro assemblaggi principali di specie (40% di similarità) associati all’area di costa, all’area costiera fuori Venezia, a un area detritica e a un area più profonda. All’interno di questi assemblaggi, stabili per tutti gli anni, sono stati ritrovate delle associazioni più ristrette (similarità del 50%). Profondità e tipologia di fondale sembrano essere i fattori determinanti la divisione di questi assemblaggi. Tali risultati sono stati confermati anche dall’analisi di ordinamento non metrico MDS. Con l’analisi ANOSIM si è cercato di vedere se ci sono differenze significative tra gli assemblaggi annuali delle aree identificate, e se gli assemblaggi di specie variano significativamente nel corso degli anni all’interno di ciascuna area. Con l’analisi SIMPER si sono identificate quelle specie caratterizzanti gli assemblaggi e le specie che sono responsabili della diversità tra aree. Sono stati calcolati gli indici di diversità per indagare la diversità e la variabilità temporale delle comunità demersali che caratterizzano le quattro aree principali. E’ stata fatta un’analisi temporale delle abbondanze medie delle specie commerciali maggiormente rappresentative dei quattro assemblaggi principali ritrovati, e un’analisi su come variano le taglie nel corso degli anni.
Resumo:
I Poliidrossialcanoati (PHA) sono poliesteri completamente biodegradabili, prodotti da microrganismi come fonte di energia e di carbonio per la sintesi di nuovo materiale cellulare, utilizzando come substrato materie prime rinnovabili. Questi poliesteri sono considerati potenziali candidati per la sostituzione delle materie plastiche convenzionali. Tuttavia, i più alti costi di produzione dei PHA in confronto a quelli delle materie plastiche derivanti dal petrolio, rappresentano il principale ostacolo per la parziale sostituzione di questi ultimi con i biopolimeri. Gli alti costi sono principalmente dovuti all'utilizzo di colture microbiche pure (in cui sia presente un solo ceppo batterico) e substrati puri e costosi. Nell'ultimo decennio è stato sviluppato un processo di produzione a tre stadi alternativo e potenzialmente a minor costo, basato sull'utilizzo di colture microbiche miste (Mixed Microbials Culture, MMC) e una varietà di substrati organici a costo contenuto o nullo, quali alcuni rifiuti dell’industria agro-alimentare. Il presente studio si è concentrato sulla prima fase del processo di produzione dei PHA da colture miste, la fermentazione acidogenica, utilizzando siero di latte come fonte di carbonio per produrre acidi organici. In particolare questo lavoro ha avuto come obiettivo quello di studiare come diverse condizioni operative utilizzate nella fase di fermentazione acidogenica possono influenzare la concentrazione e il profilo degli acidi organici prodotti. Sono stati valutati anche gli effetti dei diversi profili degli acidi organici sulla fase di selezione della coltura microbica, in termini di capacità di stoccaggio di PHA e composizione polimerica.
Resumo:
Questa tesi si propone di innovare lo stato dell’arte dei metodi di analisi dell’eterogeneità in lesioni polmonari attualmente utilizzati, affiancando l’analisi funzionale (emodinamica) a quella morfologica, grazie allo sviluppo di nuove feature specifiche. Grazie alla collaborazione tra il Computer Vision Group (CVG) dell’Università di Bologna e l’Unità Operativa di Radiologia dell’IRCCS-IRST di Meldola (Istituto di Ricovero e Cura a Carattere Scientifico – Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori), è stato possibile analizzare un adeguato numero di casi reali di pazienti affetti da lesioni polmonari primitive, effettuando un’analisi dell’eterogeneità sia su sequenze di immagini TC baseline sia contrast-enhanced, consentendo quindi un confronto tra eterogeneità morfologica e funzionale. I risultati ottenuti sono infine discussi sulla base del confronto con le considerazioni di natura clinica effettuate in cieco da due esperti radiologi dell’IRCCS-IRST.
Resumo:
Il presente lavoro di tesi tende a un duplice scopo: il primo è quello di fornire una accurata analisi tecnica, applicativa e culturale riguardante il vasto mondo dei big data e il secondo quello di trovare connessioni con l’analisi strategica verificando se e in quale modo i big data possano risultare una risorsa distintiva in campo aziendale. Nello specifico il primo capitolo presenta i big data nelle sue caratteristiche più importanti cercando di approfondire gli aspetti tecnici del fenomeno, le fonti di produzione dei dati, le metodologie principali di analisi e l’impatto sulla società. Il secondo capitolo descrive svariate applicazioni dei big data in campo aziendale concentrandosi sul rapporto tra questi e l’analisi strategica, non trascurando temi come il vantaggio competitivo e la business intelligence. Infine il terzo capitolo analizza la condizione attuale, il punto di vista italiano ed eventuali sviluppi futuri del fenomeno.
Resumo:
Questa tesi tratta di problemi dislocativi in spazi elastici, utili per rappresentare campi di spostamento, deformazione e sforzo generati da sorgenti interne. In particolare, considerando la Terra come un corpo elastico, i problemi trattati si riferiscono alla descrizione dei campi di sforzo in prossimità della superficie terrestre, lo studio della cui deformazione rappresenta uno dei più utili metodi di indagine delle sorgenti sismiche e vulcaniche. È possibile, con ottima approssimazione, descrivere la superficie terrestre come una superficie libera, ovvero una superficie su cui le trazioni applicate dall'esterno sono nulle. Tale approssimazione, per il tipo di studio cui mira questa trattazione, è giustificata dal fatto che le sorgenti sismiche sono situate solitamente a diversi chilometri di profondità, dove risulta legittimo trascurare le forze esterne dovute a pressione atmosferica, azione di correnti d'aria, forze di gravità esercitata dal Sole ed altri corpi celesti, etc. Volendo studiare regioni con dimensioni lineari molto inferiori al raggio terrestre, è possibile approssimare la Terra ad un semispazio elastico omogeneo con superficie libera orizzontale. Nel seguito si farà riferimento ad un sistema cartesiano ortogonale con assi y e z diretti lungo l'orizzontale e asse x diretto verticalmente verso l'interno del semispazio. La superficie terrestre è perciò descritta dal piano x=0 e, denotando con T_ij il tensore di sforzo, la condizione di superficie libera risulta: Txx = Txy = Txz = 0; in x = 0. Nella tesi sono esposti alcuni metodi che consentono di estendere soluzioni già note per spazi elastici illimitati al caso di semispazi delimitati da una superficie libera.
Resumo:
Uno dei più importanti campi di ricerca che coinvolge gli astrofisici è la comprensione della Struttura a Grande Scala dell'universo. I principi della Formazione delle Strutture sono ormai ben saldi, e costituiscono la base del cosiddetto "Modello Cosmologico Standard". Fino agli inizi degli anni 2000, la teoria che spiegava con successo le proprietà statistiche dell'universo era la cosiddetta "Teoria Perturbativa Standard". Attraverso simulazioni numeriche e osservazioni di qualità migliore, si è evidenziato il limite di quest'ultima teoria nel descrivere il comportamento dello spettro di potenza su scale oltre il regime lineare. Ciò spinse i teorici a trovare un nuovo approccio perturbativo, in grado di estendere la validità dei risultati analitici. In questa Tesi si discutono le teorie "Renormalized Perturbation Theory"e"Multipoint Propagator". Queste nuove teorie perturbative sono la base teorica del codice BisTeCca, un codice numerico originale che permette il calcolo dello spettro di potenza a 2 loop e del bispettro a 1 loop in ordine perturbativo. Come esempio applicativo, abbiamo utilizzato BisTeCca per l'analisi dei bispettri in modelli di universo oltre la cosmologia standard LambdaCDM, introducendo una componente di neutrini massicci. Si mostrano infine gli effetti su spettro di potenza e bispettro, ottenuti col nostro codice BisTeCca, e si confrontano modelli di universo con diverse masse di neutrini.
Resumo:
Un'interfaccia cervello-computer (BCI: Brain-Computer Interface) è un sistema di comunicazione diretto tra il cervello e un dispositivo esterno che non dipende dalle normali vie di output del cervello, costituite da nervi o muscoli periferici. Il segnale generato dall'utente viene acquisito per mezzo di appositi sensori, poi viene processato e classificato estraendone così le informazioni di interesse che verranno poi utilizzate per produrre un output reinviato all'utente come feedback. La tecnologia BCI trova interessanti applicazioni nel campo biomedico dove può essere di grande aiuto a persone soggette da paralisi, ma non sono da escludere altri utilizzi. Questa tesi in particolare si concentra sulle componenti hardware di una interfaccia cervello-computer analizzando i pregi e i difetti delle varie possibilità: in particolar modo sulla scelta dell'apparecchiatura per il rilevamento della attività cerebrale e dei meccanismi con cui gli utilizzatori della BCI possono interagire con l'ambiente circostante (i cosiddetti attuatori). Le scelte saranno effettuate tenendo in considerazione le necessità degli utilizzatori in modo da ridurre i costi e i rischi aumentando il numero di utenti che potranno effettivamente beneficiare dell'uso di una interfaccia cervello-computer.
Resumo:
Con l’incremento della popolazione mondiale e la conseguente crescita del fabbisogno di energia dovuta a nuovi lavori e sempre più macchinari in circolazione, è insorta l'esigenza di produrre più energia elettrica. A partire dagli anni ’50 numerosi scienziati hanno analizzato il problema energetico e sono giunti alla conclusione che fonti di energia come petrolio, carbone e gas non erano in grado di soddisfare il bisogno umano sul lungo termine e si è quindi passati alla ricerca di altre fonti di energia come il nucleare. Oggi, grazie ad un progetto ed uno studio di circa 50 anni fa – finalizzato alla alimentazione di satelliti geostazionari - , si sta sempre di più affermando la scelta del fotovoltaico, in quanto rappresenta un’energia pulita e facilmente utilizzabile anche nei luoghi dove non è possibile avere un allaccio alla normale rete elettrica. La ricerca di questo nuovo metodo di produrre energia, che tratta la conversione di luce solare in energia elettrica, si è evoluta, differenziando materiali e metodi di fabbricazione delle celle fotovoltaiche, e quindi anche dei moduli fotovoltaici. Con la crescente produzione di apparati elettronici si è arrivati però ad avere un nuovo problema: il consumo sempre maggiore di silicio con un conseguente aumento di prezzo. Negli ultimi anni il prezzo del silicio è significativamente aumentato e questo va a pesare sull’economia del pannello fotovoltaico, dato che questo materiale incide per il 40-50% sul costo di produzione. Per questo motivo si sono voluti trovare altri materiali e metodi in grado di sostituire il silicio per la costruzione di pannelli fotovoltaici, con il seguire di nuovi studi su materiali e metodi di fabbricazione delle celle. Ma data la conoscenza e lo studio dovuto ai vari utilizzi nell’elettronica del silicio, si è anche studiato un metodo per ottenere una riduzione del silicio utilizzato, creando wafer in silicio sempre più sottili, cercando di abbassare il rapporto costo-watt , in grado di abbassare i costi di produzione e vendita.
Resumo:
La massa del quark top è qui misurata per mezzo dei dati raccolti dall’esperimento CMS in collisioni protone-protone ad LHC, con energia nel centro di massa pari ad 8 TeV. Il campione di dati raccolto corrisponde ad una luminosità integrata pari a 18.2 /fb. La misura è effettuata su eventi con un numero di jet almeno pari a 6, di cui almeno due b-taggati (ovvero identificati come prodotto dell’adronizzazione di due quark bottom). Il valore di massa trovato è di (173.95 +- 0.43 (stat)) GeV/c2, in accordo con la media mondiale. The top quark mass is here measured by using the data that have been collected with the CMS experiment in proton-proton collisions at the LHC, at a center-of-mass energy of 8 TeV. The dataset which was used, corresponds to an integrated luminosiy of 18.2 /fb. The mass measurement is carried out by using events characterized by six or more jets, two of which identified as being originated by the hadronization of bottom quarks. The result of the measurement of the top quark mass performed here is: (173.95 +- 0.43 (stat)) GeV/c2, in accordance with the recently published world average.
Resumo:
Con il presente studio si è inteso analizzare l’impatto dell’utilizzo di una memoria di traduzione (TM) e del post-editing (PE) di un output grezzo sul livello di difficoltà percepita e sul tempo necessario per ottenere un testo finale di alta qualità. L’esperimento ha coinvolto sei studenti, di madrelingua italiana, del corso di Laurea Magistrale in Traduzione Specializzata dell’Università di Bologna (Vicepresidenza di Forlì). I partecipanti sono stati divisi in tre coppie, a ognuna delle quali è stato assegnato un estratto di comunicato stampa in inglese. Per ogni coppia, ad un partecipante è stato chiesto di tradurre il testo in italiano usando la TM all’interno di SDL Trados Studio 2011. All’altro partecipante è stato chiesto di fare il PE completo in italiano dell’output grezzo ottenuto da Google Translate. Nei casi in cui la TM o l’output non contenevano traduzioni (corrette), i partecipanti avrebbero potuto consultare Internet. Ricorrendo ai Think-aloud Protocols (TAPs), è stato chiesto loro di riflettere a voce alta durante lo svolgimento dei compiti. È stato quindi possibile individuare i problemi traduttivi incontrati e i casi in cui la TM e l’output grezzo hanno fornito soluzioni corrette; inoltre, è stato possibile osservare le strategie traduttive impiegate, per poi chiedere ai partecipanti di indicarne la difficoltà attraverso interviste a posteriori. È stato anche misurato il tempo impiegato da ogni partecipante. I dati sulla difficoltà percepita e quelli sul tempo impiegato sono stati messi in relazione con il numero di soluzioni corrette rispettivamente fornito da TM e output grezzo. È stato osservato che usare la TM ha comportato un maggior risparmio di tempo e che, al contrario del PE, ha portato a una riduzione della difficoltà percepita. Il presente studio si propone di aiutare i futuri traduttori professionisti a scegliere strumenti tecnologici che gli permettano di risparmiare tempo e risorse.
Resumo:
Il seguente lavoro di tesi ripercorre la teoria classica della fluidodinamica, dalle leggi di conservazione alla derivazione dell'equazione di Navier-Stokes. Introdotto il numero di Reynolds R e delineate le caratteristiche dei flussi laminari e turbolenti viene posta maggiore attenzione su questi ultimi, derivando le RANS ed esponendo le principali teorie fisiche della turbolenza. Vengono quindi trattate le perturbazioni acustiche, nella loro forma lineare tipica delle radiazioni generate da corpi vibranti e nella forma non-lineare tipica delle radiazioni generate da flussi. Il suono aerodinamico, generato da flussi, è affrontato mediante la teoria di Lighthill, che formula un'analogia tra flussi e mezzi acustici a riposo.
Resumo:
In ambito astrofisico i campi magnetici ricoprono un ruolo importante nelle più differenti situazioni. Il seguente elaborato ha lo scopo di approfondire ed analizzare uno tra tutti gli innumerevoli casi: il magnetismo solare. Nel primo capitolo si intoducono quelli che sono i principi della magnetoidrodinamica e in particolare si fa riferimento alle approsimazioni necessarie per lo studio delle interazioni dei campi magnetici con i fluidi astrofisici delle strutture stellari, che, date le elevate temperature a cui si trovano e le loro caratteristiche fisiche, sono sempre trattabili come plasmi. Nel secondo capitolo si illustrano i modelli principali che sono alla base degli aspetti morfologici più importanti delle strutture magnetiche fotosferiche e della loro evoluzione temporale. Si passa, quindi, a descrivere i fenomeni più spettacolari e di maggior interesse astrofisico, che hanno luogo nei diversi strati dell’atmosfera del Sole come conseguenza di questa intensa e ciclica attività magnetica: macchie solari, brillamenti, protuberanze ed eruzioni di massa coronale.
Resumo:
In questa tesi faremo prima una panoramica sui dispositivi medici e, in particolare, andremo ad approfondire l’aspetto del software come dispositivo medico; successivamente andremo ad analizzare il sistema, definito “nuovo approccio”, che regolamenta l’immissione in commercio dei dispositivi medici all’interno del mercato europeo per andare poi ad analizzare la parte sulla gestione del rischio che è fondamentale per raggiungere la conformità soprattutto quando si tratta di dispositivi medici. Nel secondo capitolo, andremo poi ad analizzare il report tecnico IEC 80002-1 del 2009 che fornisce una guida, destinata al software, per l’applicazione dei requisiti contenuti nella normativa CEI UNI EN ISO 14971:2007. Nel terzo capitolo, visto il sempre maggior numero di dispositivi medici dotati di interfaccia di rete andremo ad analizzare il report tecnico IEC 80001 del 2009 per la gestione dei rischi delle reti IT medicali che incorporano tali dispositivi rivolto alle aziende ospedaliere.
Resumo:
Nello studio di questa tesi è stata descritta una ricerca condotta allo scopo di fornire un contributo alla conoscenza della biodiversità analizzando la componente macrofaunistica subfossile e recente del Phylum Mollusca del Canale di Sicilia e del Golfo di Cadice. Tali organismi sono già da tempo noti in questi ambienti poiché associati a biocostruzioni a coralli bianchi presenti lungo i margini continentali atlantici e mediterranei i cui costituenti principali sono gli sclerattiniari coloniali Lophelia pertusa e Madrepora oculata. Tuttavia ben poco si conosce sull’ecologia di queste specie che si ritrovano spesso influenzate da scambi idrologici e biologici attraverso lo Stretto di Gibilterra. Nel corso di questo studio sono state analizzate 7 carote sedimentarie marine campionate durante diverse campagne oceanografiche: 6 carotaggi atlantici prelevati durante la campagna oceanografica Meteor nel Golfo di Cadice e 1 carota campionata nel Canale di Sicilia durante la campagna oceanografica MARCOS guidata dall’ISMAR-CNR di Bologna, sulla quale si concentra l’attenzione di questo lavoro. I dati raccolti sono stati analizzati in maniere quantitativa, per questo è stato utilizzato il software per analisi statistiche “Past3” e sono stati combinati con l’analisi qualitativa dei campioni in modo da ottenere il maggior numero di informazioni. Tra le analisi statistiche sono state effettuate il calcolo di tutti gli indici di dominanza, diversità, di equiripartizione e ricchezza specifica (Simpson, Shannon, Evenness e Margalef) e l’analisi multivariata NMDS (Non-metric Multi-Dimensional Scaling). Infine è stata effettuata l’analisi delle associazioni trofiche distribuite in una carota. Il risultato ha evidenziato un’elevata biodiversità per campioni prelevati in profondità e il ritrovamento di organismi appartenenti all’ultimo glaciale.