754 resultados para Perch.
Resumo:
La diffusione dei servizi cloud ha spinto anche il mondo degli IDE verso questa direzione. Recentemente si sta assistendo allo spostamento degli IDE da ambienti desktop ad ambienti Web. Questo è determinante per quanto riguarda gli aspetti legati alla collaborazione perch permette di sfruttare tutti i vantaggi del cloud per dotare questi sistemi di chat, integrazione con i social network, strumenti di editing condiviso e molte altre funzionalità collaborative. Questi IDE sono detti browser-based in quanto i servizi che mettono a disposizione sono accessibili via Web tramite un browser. Ne esistono di diversi tipi e con caratteristiche molto diverse tra di loro. Alcuni sono semplici piattaforme sulle quali è possibile effettuare test di codice o utilizzare tutorial forniti per imparare nuovi linguaggi di programmazione; altri invece sono ambienti di sviluppo completi dotati delle più comuni funzionalità presenti in un IDE desktop, oltre a quelle specifiche legate al Web. Dallo studio di questi ambienti di sviluppo di nuova generazione è emerso che sono pochi quelli che dispongono di un sistema di collaborazione completo e che non tutti sfruttano le nuove tecnologie che il Web mette a disposizione. Per esempio, alcuni sono dotati di editor collaborativi, ma non offrono un servizio di chat ai collaboratori; altri mettono a disposizione una chat e il supporto per la scrittura simultanea di codice, ma non sono dotati di sistemi per la condivisione del display. Dopo l'analisi dei pregi e dei difetti della collaborazione fornita dagli strumenti presi in considerazione ho deciso di realizzare delle funzionalità collaborative inserendomi nel contesto di un IDE browser-based chiamato InDe RT sviluppato dall'azienda Pro Gamma SpA.
Resumo:
Dai Sumeri a Galileo lo studio dei cinque pianeti conosciuti era stato effettuato ad occhio nudo e aveva consentito di comprendere le modalità del loro moto. Con Galileo gli strumenti tecnologici sono posti a servizio della scienza, per migliorare le prestazioni dei sensi umani. La ricerca subisce così una netta accelerazione che porta, nell'arco di soli tre secoli, alla scoperta dei satelliti di Giove e dei pianeti Urano e Nettuno. Quest'ultima è considerata il trionfo della matematica perch effettuata esclusivamente con lunghi e complessi calcoli.
Resumo:
Negli ultimi anni il tema del risparmio energetico nei sistemi elettronici ha suscitato sempre maggiore interesse, poiché grazie allo sviluppo tecnologico è stato possibile creare dispositivi in grado di operare a bassa potenza. Sempre più applicazioni elettroniche richiedono di funzionare tramite fonti di energia limitata, come per esempio le batterie, con un’autonomia in alcuni casi anche di 15-20 anni, questo è il motivo per il quale è diventato fondamentale riuscire a progettare sistemi elettronici in grado di gestire in modo intelligente l’energia a disposizione. L’utilizzo di batterie però spesso richiede costi aggiuntivi, come per esempio il semplice cambio, che in alcune situazioni potrebbe essere difficoltoso poiché il sistema elettronico si potrebbe trovare in luoghi difficilmente raggiungibili dall’uomo; ecco perch negli ultimi anni il tema della raccolta di energia o anche chiamato Energy Harvesting, sta suscitando sempre più interesse. Con l’Energy Harvesting si possono catturare ed accumulare per poi riutilizzare, piccole quantità di energia presenti nell’ambiente. Attraverso sistemi di Energy Harvesting è quindi diventato possibile trasformare energia cinetica, differenze di temperatura, effetto piezoelettrico, energia solare ecc.. in energia elettrica che può essere utilizzata per alimentare semplici applicazioni elettroniche, nel caso di questa tesi un nodo sensore wireless. I vantaggi dei sistemi di Energy Harvesting rispetto a sistemi alimentati a batteria sono i seguenti: - Costi di manutenzione ridotti; - Fonte di energia idealmente inesauribile e con un impatto ambientale negativo nullo. La potenza fornita da sistemi di Energy Harvesting si aggira intorno a qualche centinaia di uW, perciò è chiaro che il sistema da alimentare deve essere ottimizzato il più possibile dal punto di vista energetico, per questo motivo il progettista si deve impegnare per evitare qualsiasi spreco energetico e dovrà utilizzare dispositivi che permettono una gestione intelligente dell’energia a disposizione, al fine di ottenere la migliore efficienza possibile.
Resumo:
Perch la raccolta differenziata abbia ragion d’essere, essa deve essere portata a percentuali, rispetto al totale della raccolta rifiuti, ben più rilevanti di quelle che la media raggiunge allo stato dell’arte. Per raggiungere tale scopo sono fondamentali la sensibilizzazione dell’utente e l’introduzione di metodi di raccolta che favoriscano tale differenziazione dei rifiuti, possibilmente a monte della raccolta stessa. Una buona differenziazione più a monte possibile costituisce infatti un’indiscutibile vantaggio in termini di tempi e di costi. Tra i vari metodi possibili analizzerò in questo elaborato l’adozione di dispositivi a limitazione di conferimento: andando a limitare il volume conferibile della frazione non riciclata, si instrada l’utente verso una maggiore attenzione alla differenziazione del rifiuto a monte, tendendo a uniformare quindi la quantità delle varie frazioni di rifiuto prodotte, ed in particolare limitando quella delle non differenziate.
Resumo:
Nel seguente lavoro è stata sviluppata una analisi ambientale ed economica del ciclo di vita del pellet, realizzato con scarti agricoli dalle potature degli uliveti. L’obiettivo di tale lavoro è dimostrare se effettivamente l’utilizzo del pellet apporti vantaggi sia dal punto di vista ambientale sia da quello economico. In tale progetto si sviluppano quindi un LCA, Life cycle analysis, e un LCC, Life Cycle Cost, secondo gli steps standard suggeriti da tali metodologie. Per effettuare l’analisi del ciclo di vita è stato utilizzato il software Simapro che ha permesso di valutare gli impatti ambientali sulle varie categorie di impatto incluse. In particolare sono stati considerati due metodologie, una midpoint ed una endpoint, ossia l’Ecoindicator 99 e il CML2 baseline 2000. Per le valutazioni finali è stata poi utilizzata la normativa spagnola sugli impatti ambientali, BOE 21/2013 del 9 dicembre, che ci ha permesso di caraterizzare le varie categorie d’impatto facendo emergere quelle più impattate e quelle meno impattate. I risultati finali hanno mostrato che la maggior parte degli impatti sono di tipo compatibile e moderato; pochi, invece, sono gli impatti severi e compatibili, che si riscontrano soprattutto nella categoria d’impatto “Fossil Fuels”. Per quanto riguarda invece l’analisi economica, si è proceduto effettuando una valutazione iniziale fatta su tutto il processo produttivo considerato, poi una valutazione dal punto di vista del produttore attraverso una valutazione dell’investimento ed infine, una valutazione dal punto di vista del cliente finale. Da queste valutazioni è emerso che ciò risulta conveniente dal punto di vista economico non solo per il produttore ma anche per l’utente finale. Per il primo perch dopo i primi due anni di esercizio recupera l’investimento iniziale iniziando ad avere un guadagno; e per il secondo, poiché il prezzo del pellet è inferiore a quello del metano. Quindi, in conclusione, salvo cambiamenti in ambito normativo ed economico, l’utilizzo del pellet realizzato da scarti di potature di uliveti risulta essere una buona soluzione per realizzare energia termica sia dal punto di vista ambientale, essendo il pellet una biomassa il cui ciclo produttivo non impatta severamente sull’ambiente; sia dal punto di vista economico permettendo al produttore introiti nell’arco del breve tempo e favorendo al cliente finale un risparmio di denaro sulla bolletta.
Resumo:
Il Cloud Computing è una realtà sempre più diffusa e discussa nel nostro periodo storico, ma probabilmente non è ancora chiaro a tutti di cosa si tratta e le potenzialità che possiede. Infatti, non esiste ancora una definizione univoca e condivisa e questo può creare confusione. Oggi le grandi compagnie nella comunità informatica spingono sempre di più per affermare i servizi Cloud a livello mondiale, non solo per le aziende del settore, ma anche per tutte le altre. Ed è così che le aziende di tutto il mondo si muovono per imparare e adottare questa nuova tecnologia, per spostare i loro centri dati e le loro applicazioni nel Cloud. Ma dove e quando nasce il Cloud Computing? Quali sono realmente i benefici per le aziende che adottano questa tecnologia? Questo è l'obiettivo della mia tesi: cercare di far chiarezza sulla sua definizione, indagare sulla sua nascita e fare un quadro economico del suo sviluppo, analizzando i benefici per le aziende e le opportunità offerte. Come caso di studio ho scelto la piattaforma Cloud Foundry perch in questo momento è in forte espansione e sta facendo un grosso lavoro per cercare di rendere il suo prodotto uno standard per il Cloud Computing. Come esempio particolare di piattaforma basata su Cloud Foundry si parlerà di Bluemix, la piattaforma Cloud offerta da IBM, una delle più grandi aziende nel settore informatico.
Resumo:
Questa tesi muove dal Piano di Adattamento ai Cambiamenti Climatici che il Comune di Bologna sta costruendo insieme ad altri tre partners attraverso il progetto life + BLUEAP. L’obiettivo della tesi è quello di presentare le evidenze attuali dei cambiamenti climatici nella situazione locale bolognese e vedere come la pianificazione urbanistica possa avere un ruolo importante nel prevenire e rallentare questi effetti e limitarne gli impatti a qualunque scala si intervenga; sia a livello di progetto urbano sia di politiche integrate ai piani urbanistici, si può tendere verso scelte “clima consapevoli”. Presenterò anche, quindi, una soluzione progettuale con comparazione del grado di resilienza dell’area prima e dopo l’intervento. L’ambito di studio e di progetto scelto è quello del fiume Reno, nel suo tratto di attraversamento urbano, perch mostra una serie di criticità legate al cambiamento climatico, rendendo evidenti i punti deboli e il livello di resilienza del sistema.
Resumo:
Questo elaborato scritto tratta la classificazione e la modellizzazione della fisica delle galassie. La prima parte illustra la classificazione morfologica delle galassie. Descrivo la classificazione di Hubble perch è la prima in ordine cronologico, la più semplice e la più importante. In seguito espongo le modifiche introdotte da Sandage e De Vaucouleurs. In particolare cerco di giustificare l’importanza delle classificazioni morfologiche come punto di partenza per una comprensione e una modellizzazione della fisica delle galassie. Nella seconda parte mi concentro sulle caratteristiche fotometriche e cinematiche interne relative a due particolari tipi di galassie: le Ellittiche e le Spirali. Approfondisco due argomenti in particolare: i profili di brillanza delle Ellittiche per quanto riguarda le caratteristiche fotometriche delle Ellittiche e le curve di rotazione delle Spirali, per le caratteristiche cinematiche delle Spirali. Questi due argomenti sono stati scelti perch il primo fornisce un modello analitico per descrivere la luminosità delle Ellittiche e il secondo permette di rappresentare, sempre tramite una modellizzazione, la cinematica delle Spirali, in particolar modo del loro disco.
Resumo:
Questo lavoro è volto a far conoscere l'opera dello scrittore H. Krausser "Einsamkeit und Sex und Mitleid" e il genere Pulp. Ho voluto approfondire alcune caratteristiche di questo genere perch è ancora poco conosciuto, dato che questa corrente letteraria è nata soltanto negli anni Novanta. Nella prima parte dell'elaborato ho inserito una breve presentazione del genere per spiegare l'origine del termine pulp e descrivere le caratteristiche principali che lo definiscono. In modo particolare mi sono concentrato sulla sua diffusione in Italia attraverso la corrente dei cannibali, indicandone i principali esponenti. Successivamente ho presentato l'autore Helmut Krausser che, attraverso un accurato lavoro letterario, è stato in grado di mettere insieme un mosaico di personaggi sparsi per la metropoli di Berlino. Julia König è una donna ambiziosa ed esigente, Vincent è un gigolò rinomato, Ekki un ex professore ridotto alla miseria, Swentja una giovane ragazza contesa tra due giovani e incapace di badare a sua sorella. Questi sono solo alcuni dei personaggi presenti nell'opera. Questo libro risultava interessante sul piano traduttivo poiché gli spunti da analizzare erano molteplici e, a mio avviso, intriganti. Visto l'ampio numero di personaggi, l'opera di H. Krausser è incentrata sul dialogo. Si tratta di una tipologia testuale che all'apparenza potrebbe sembrare semplice e lineare, ma in realtà può rivelarsi insidiosa per la traduzione. Infatti, non è semplice restituire la stessa spontaneità del testo di partenza e trasmettere in maniera fedele il registro tipico dell'oralità. Ho ritenuto opportuno analizzare questo genere letterario per le peculiarità che lo contraddistinguono dagli altri. Con i suoi toni crudi, violenti e talvolta anche cinici il pulp offre immagini di realtà drammatiche che producono un forte impatto emotivo sul lettore grazie a uno stile diretto, privo dei filtri della moralità e del pudore.
Resumo:
Questo elaborato ha lo scopo di presentare la “slam poetry”, una disciplina con la quale solo recentemente il pubblico italiano si è confrontato. Spiegherò di cosa si tratta, quando e perch si è originata, come si è evoluta e perch ha avuto così tanto successo con alcune categorie di persone. Non mancherà anche una riflessione generale sulla traduzione della poesia e verrà dato abbondante spazio alle propostedi traduzione di alcuni brani di slam poetry, scelti tra quelli partecipanti al concorso di Chicago del 2008, con relativo commento alla traduzione.
Resumo:
L'informatica e le sue tecnologie nella società moderna si riassumono spesso in un assioma fuorviante: essa, infatti, è comunemente legata al concetto che ciò che le tecnologie ci offrono può essere accessibile da tutti e sfruttato, all'interno della propria quotidianità, in modi più o meno semplici. Anche se quello appena descritto è un obiettivo fondamentale del mondo high-tech, occorre chiarire subito una questione: l'informatica non è semplicemente tutto ciò che le tecnologie ci offrono, perch questo pensiero sommario fa presagire ad un'informatica "generalizzante"; l'informatica invece si divide tra molteplici ambiti, toccando diversi mondi inter-disciplinari. L'importanza di queste tecnologie nella società moderna deve spingerci a porre domande, riflessioni sul perch l'informatica, in tutte le sue sfaccettature, negli ultimi decenni, ha portato una vera e propria rivoluzione nelle nostre vite, nelle nostre abitudini, e non di meno importanza, nel nostro contesto lavorativo e aziendale, e non ha alcuna intenzione (per fortuna) di fermare le proprie possibilità di sviluppo. In questo trattato ci occuperemo di definire una particolare tecnica moderna relativa a una parte di quel mondo complesso che viene definito come "Intelligenza Artificiale". L'intelligenza Artificiale (IA) è una scienza che si è sviluppata proprio con il progresso tecnologico e dei suoi potenti strumenti, che non sono solo informatici, ma soprattutto teorico-matematici (probabilistici) e anche inerenti l'ambito Elettronico-TLC (basti pensare alla Robotica): ecco l'interdisciplinarità. Concetto che è fondamentale per poi affrontare il nocciolo del percorso presentato nel secondo capitolo del documento proposto: i due approcci possibili, semantico e probabilistico, verso l'elaborazione del linguaggio naturale(NLP), branca fondamentale di IA. Per quanto darò un buono spazio nella tesi a come le tecniche di NLP semantiche e statistiche si siano sviluppate nel tempo, verrà prestata attenzione soprattutto ai concetti fondamentali di questi ambiti, perch, come già detto sopra, anche se è fondamentale farsi delle basi e conoscere l'evoluzione di queste tecnologie nel tempo, l'obiettivo è quello a un certo punto di staccarsi e studiare il livello tecnologico moderno inerenti a questo mondo, con uno sguardo anche al domani: in questo caso, la Sentiment Analysis (capitolo 3). Sentiment Analysis (SA) è una tecnica di NLP che si sta definendo proprio ai giorni nostri, tecnica che si è sviluppata soprattutto in relazione all'esplosione del fenomeno Social Network, che viviamo e "tocchiamo" costantemente. L'approfondimento centrale della tesi verterà sulla presentazione di alcuni esempi moderni e modelli di SA che riguardano entrambi gli approcci (statistico e semantico), con particolare attenzione a modelli di SA che sono stati proposti per Twitter in questi ultimi anni, valutando quali sono gli scenari che propone questa tecnica moderna, e a quali conseguenze contestuali (e non) potrebbe portare questa particolare tecnica.
Resumo:
La tesi è dedicata allo studio delle rappresentazioni delle algebre di Lie semisemplici su un campo algebricamente chiuso di caratteristica zero. Mediante il teorema di Weyl sulla completa riducibilità, ogni rappresentazione di dimensione finita di una algebra di Lie semisemplice è scrivibile come somma diretta di sottorappresentazioni irriducibili. Questo permette di poter concentrare l'attenzione sullo studio delle rappresentazioni irriducibili. Inoltre, mediante il ricorso all'algebra inviluppante universale si ottiene che ogni rappresentazione irriducibile è una rappresentazione di peso più alto. Perciò è naturale chiedersi quando una rappresentazione di peso più alto sia di dimensione finita ottenendo che condizione necessaria e sufficiente perch una rappresentazione di peso più alto sia di dimensione finita è che il peso più alto sia dominante. Immediata è quindi l'applicazione della teoria delle rappresentazioni delle algebre di Lie semisemplici nello studio delle superalgebre di Lie, in quanto costituite da un'algebra di Lie e da una sua rappresentazione, dove viene utilizzata la tecnica della Z-graduazione che viene utilizzata per la prima volta da Victor Kac nello studio delle algebre di Lie di dimensione infinita nell'articolo ''Simple irreducible graded Lie algebras of finite growth'' del 1968.
Resumo:
Negli anni la funzione dei social network è cambiata molte volte. Alle origini i social network erano uno strumento di connessione tra amici, ora sono siti internet in cui le persone mettono informazioni e quando un social network ha milioni di utenti, diventa un’incredibile sorgente di dati. Twitter è uno dei siti internet più visitati, e viene descritto come “the SMS of internet”, perch è un social network che permette ai suoi utenti di inviare e leggere messaggi corti, di 140 caratteri, chiamati “tweets”. Con il passare del tempo Twitter `e diventato una fonte fondamentale di notizie. Il suo grande numero di utenti permette alle notizie di espandersi nella rete in modo virale. Molte persone hanno cercato di analizzare il potere dei tweet, come il contenuto positivo o negativo, mentre altri hanno cercato di capire se avessero un potere predittivo. In particolare nel mondo finanziario, sono state avviate molte ricerche per verificare l’esistenza di una effettiva correlazione tra i tweets e la fluttuazione del mercato azionario. L’effettiva presenza di tale relazione unita a un modello predittivo, potrebbe portare allo sviluppo di un modello che analizzando i tweets presenti nella rete, relativi a un titolo azionario, dia informazioni sulle future variazioni del titolo stesso. La nostra attenzione si è rivolata alla ricerca e validazione statistica di tale correlazione. Sono stati effettuati test su singole azioni, sulla base dei dati disponibili, poi estesi a tutto il dataset per vedere la tendenza generale e attribuire maggior valore al risultato. Questa ricerca è caratterizzata dal suo dataset di tweet che analizza un periodo di oltre 2 anni, uno dei periodi più lunghi mai analizzati. Si è cercato di fornire maggior valore ai risultati trovati tramite l’utilizzo di validazioni statistiche, come il “permutation test”, per validare la relazione tra tweets di un titolo con i relativi valori azionari, la rimozione di una percentuale di eventi importanti, per mostrare la dipendenza o indipendenza dei dati dagli eventi più evidenti dell’anno e il “granger causality test”, per capire la direzione di una previsione tra serie. Sono stati effettuati anche test con risultati fallimentari, dai quali si sono ricavate le direzioni per i futuri sviluppi di questa ricerca.
Resumo:
Questa tesi è incentrata sul sottotitolaggio di un episodio della serie TV "Mozart in the Jungle". Ho ritenuto che fosse interessante utilizzare questa serie perch offre diversi spunti di riflessione, sia dal punto di vista della traduzione per i sottotitoli sia che dal punto di vista dell'innovazione nell'ambito della produzione e della distribuzione di prodotti audiovisivi. Il lavoro è suddiviso in tre capitoli. Il primo capitolo presenta l’oggetto di studio della tesi, ovvero la serie TV. Alla descrizione della trama generale della prima stagione e di quella specifica del primo episodio (Pilot) viene affiancata un'analisi del fenomeno del crowdsourcing, al quale Amazon, casa produttrice della serie, ha fatto ricorso per creare questa ed altre serie di successo grazie all’aiuto del popolo del web. Nel secondo capitolo viene mostrata una panoramica sulla teoria della traduzione audiovisiva e più specificatamente del sottotitolaggio e dei principali accorgimenti che un sottotitolatore deve adottare. Il terzo e ultimo capitolo, invece, descrive l'applicazione pratica degli elementi individuati nel secondo capitolo, utilizzando esempi tratti dal testo originale e dalla mia traduzione per illustrare le strategie di risoluzione dei problemi traduttivi. Il paragrafo conclusivo include infine brevi considerazioni personali su alcuni aspetti del sottotitolaggio in generale.
Resumo:
Tra tutti i fenomeni naturali osservabili, ne era presente uno particolarmente interessante e con il quale si aveva diretto contatto quotidianamente: la gravità. Dopo le innumerevoli osservazioni astronomiche effettuate da Galileo, fu Newton nel diciassettesimo secolo a capire che il moto dei pianeti era governato dalle medesime leggi che descrivono la caduta dei gravi sulla Terra e fu quindi lui che ci fornì una prima teoria della gravità con la quale si spiegarono le orbite dei pianeti con ottima precisione. Grazie al contributo di Einstein, la teoria si rinnovò e si arricchì, ma rimase pur sempre lontana dall' essere completa, tant' è che ancora oggi sono presenti molte domande a cui non siamo in grado di rispondere. In questo articolo ci occuperemo di tali quesiti, provando a formulare una teoria che sia in accordo con le attuali evidenze sperimentali. Nella prima parte, tratteremo le ragioni che hanno spinto i ricercatori ad introdurre le nuove teorie della gravità f(R); in particolare vedremo la peculiarità delle curve di rotazione delle galassie e perch ci sia il bisogno di tirare in ballo la materia oscura. Discuteremo anche alcuni problemi derivanti dall' evoluzione cosmica e altre incongruenze riguardanti la stabilità delle stelle di neutroni. In seguito mostreremo come ricavare l' equazione di Einstein partendo dai principi variazionali di Hamilton, e estenderemo tale ragionamento con lo scopo di ottenere un' equazione corrispondente ad una gravità modificata. Infine, verranno introdotte le teorie della gravità f(R), per mezzo delle quali cercheremo di discutere alcune possibili spiegazioni alle problematiche mosse nella parte introduttiva.