400 resultados para distribuzione
Resumo:
Questa tesi propone un progetto di riqualificazione funzionale ed energetica del Polo ospedaliero civile di Castel San Pietro Terme, un complesso di edilizia sanitaria attivo dal 1870, che la AUSL proprietaria ha ora programmato di riqualificare. Il complesso, costituito da diversi edifici realizzati in epoche successive con un volume lordo riscaldato di 41670 m3, occupa un’area di 18415 m2. Sottoposto nel corso del tempo a ripetute modifiche e ampliamenti,oggi si presenta come un insieme eterogeneo di volumi, disorganici nell’aspetto ed interessati da importanti criticità: • prestazioni energetiche largamente inadeguate; • insufficiente resistenza alle azioni sismiche; • inefficiente distribuzione interna degli ambienti e delle funzioni. Partendo da un’analisi che dal complesso ospedaliero si estende sull’intera area di Castel San Pietro Terme, è stato definito un progetto che tiene conto delle peculiarità e delle criticità del luogo. Il progetto propone la riqualificazione dell’area antistante l’ingresso storico dell’ospedale tramite il collegamento diretto al parco fluviale, oggi interrotto da viale Oriani e da un parcheggio. Sul complesso edificato viene invece progettato un insieme di interventi differenziati, che rispondono all’obiettivo primario di adattare il polo ospedaliero a nuove funzioni sanitarie. La riorganizzazione prevede: • L’eliminazione del reparto di chirurgia; • L’adeguamento delle degenze a funzioni di hospice e lungodegenza per malati terminali; • L’ampliamento del progetto Casa della Salute che prevede locali ambulatoriali. Il progetto ha assunto questo programma funzionale,puntando a mantenere e riqualificare quanto più possibile l’esistente. E’ stato quindi previsto di: • Demolire il corpo del blocco operatorio. • Ridefinire volumetricamente il corpo delle degenze • Prevedere la costruzione di nuovi volumi per ospitare i poliambulatori. Per assicurare un adeguato livello di prestazioni,l’intervento ha puntato a far conseguire all’intero complesso la classe energetica A e ad adeguare la capacità di risposta al sisma, in particolare del corpo delle degenze, che presenta le condizioni più critiche. Le simulazioni eseguite con il software Termolog Epix3 attestano un valore di fabbisogno energetico finale pari a 5,10 kWh/m3 anno, con una riduzione del 92,7% rispetto ai livelli di consumo attuali. E' stata posta particolare attenzione anche al comfortdegli ambienti di degenza, verificato tramite l’utilizzo del software di simulazione energetica in regime dinamico IESVE che ha permesso di monitorare gli effetti ottenuti in relazione ad ogni scelta progettuale. I nuovi padiglioni sono stati progettati per integrare in modo funzionale i locali ambulatoriali ed alcuni ambienti dedicati alle terapie complementari per i lungodegenti. La tecnologia a setti portanti Xlam è stata preferita per la velocità di realizzazione. La sovrastante copertura costituita da una membrana di ETFE sostenuta da travi curve in legno lamellare, oltre ad assicurare il comfort ambientale tramite lo sfruttamento di sistemi passivi, permette di limitare i requisiti dell’involucro dei volumi sottostanti.
Resumo:
Tradizionalmente, l'obiettivo della calibrazione di un modello afflussi-deflussi è sempre stato quello di ottenere un set di parametri (o una distribuzione di probabilità dei parametri) che massimizzasse l'adattamento dei dati simulati alla realtà osservata, trattando parzialmente le finalità applicative del modello. Nel lavoro di tesi viene proposta una metodologia di calibrazione che trae spunto dell'evidenza che non sempre la corrispondenza tra dati osservati e simulati rappresenti il criterio più appropriato per calibrare un modello idrologico. Ai fini applicativi infatti, può risultare maggiormente utile una miglior rappresentazione di un determinato aspetto dell'idrogramma piuttosto che un altro. Il metodo di calibrazione che viene proposto mira a valutare le prestazioni del modello stimandone l'utilità nell'applicazione prevista. Tramite l'utilizzo di opportune funzioni, ad ogni passo temporale viene valutata l'utilità della simulazione ottenuta. La calibrazione viene quindi eseguita attraverso la massimizzazione di una funzione obiettivo costituita dalla somma delle utilità stimate nei singoli passi temporali. Le analisi mostrano come attraverso l'impiego di tali funzioni obiettivo sia possibile migliorare le prestazioni del modello laddove ritenute di maggior interesse per per le finalità applicative previste.
Resumo:
La Tesi sviluppa alcune ipotesi di riqualificazione degli asentamientos informales di Buenos Aires, quartieri periferici della metropoli dove si insedia –abusivamente- la popolazione con minori risorse economiche. Adottando l’approccio delle “agopunture”, l’ipotesi progettuale investe diverse scale d’intervento che dialogano tra loro, cercando di valorizzarne gli effetti combinati e di favorirne la reciproca integrazione. Assunte le limitate risorse esistenti come condizioni date, l’approccio adottato identifica nel capitale sociale il fattore di rinnovamento: la cooperazione tra gli abitanti –uniti per la risoluzione di problematiche comuni- diventa lo strumento per la generazione di micro-comunità più efficienti e vivibili. La strategia di un’ibridazione tra tecnologie tradizionali con materiali poveri ed elementi industrializzati e standardizzati garantisce una soluzione low cost e di maggior consenso da parte dei vecinos. Pur rinunciando a conseguire gli standard normativi, il progetto punta a soddisfare alcune fondamentali esigenze degli abitanti, migliora le loro condizioni di vita ed innesca dinamiche relazionali positive tra i vecinos. Gli interventi proposti prevedono il miglioramento della tenuta all’acqua dell’alloggio, la realizzazione di servizi igienici domiciliari, un sistema di allontanamento e trattamento dei reflui che trasformato in biogas alimenta la rete di illuminazione stradale, una serie di punti di prelievo e distribuzione di acqua potabile, la raccolta e lo smistamento dei rifiuti, un nuovo luogo d’incontro per la comunità. La parte preliminare affronta lo studio del contesto storico, sociale, territoriale, economico e l’assetto del settore delle costruzioni dell’Argentina e di Buenos Aires. La seconda parte della ricerca si concentra sul conurbano bonoarense e sugli asentamientos informales, per i quali i numerosi Piani governativi e di ONG sono risultate inefficaci. Si evita così un’operazione ‘calata dall’alto’. Dopo aver identificato le sette principali criticità riscontrate negli insediamenti, la ricerca delinea per ognuna di esse una o più strategie di miglioramento, ipotizzando azioni e possibili alternative che, valutate secondo una metodica comparativa, consentono di definire la soluzione più adeguata. Tra le sette proposte, la comunità definirà le priorità di intervento, quindi le modalità di esecuzione e di gestione ritenute adeguate per la realizzazione delle singole azioni. La ricerca approfondisce la conoscenza e tenta di mitigare il disagio di vivere ai margini, un tema di estrema rilevanza sociale, a cui l’architettura può fornire qualche risposta.
Resumo:
La simulazione realistica del movimento di pedoni riveste una notevole importanza nei mondi dell'architettonica e della sicurezza (si pensi ad esempio all'evacuazione di ambienti), nell'industria dell'entertainment e in molti altri ambiti, importanza che è aumentata negli ultimi anni. Obiettivo di questo lavoro è l'analisi di un modello di pedone esistente e l'applicazione ad esso di algoritmi di guida, l'implementazione di un modello più realistico e la realizzazione di simulazioni con particolare attenzione alla scalabilità. Per la simulazione è stato utilizzato il framework Alchemist, sviluppato all'interno del laboratorio di ricerca APICe, realizzando inoltre alcune estensioni che potranno essere inglobate nel pacchetto di distribuzione del sistema stesso. I test effettuati sugli algoritmi presi in esame evidenziano un buon guadagno in termini di tempo in ambienti affollati e il nuovo modello di pedone risulta avere un maggiore realismo rispetto a quello già esistente, oltre a superarne alcuni limiti evidenziati durante i test e ad essere facilmente estensibile.
Resumo:
Nuova frontiera per la procedura di test tailoring è la sintesi di profili vibratori il più reali possibili, nei quali venga tenuto conto della possibile presenza di eventi transitori e della non scontata ripetibilità delle vibrazioni nel tempo. Negli ultimi anni si è rivolto un crescente interesse nel "controllo del Kurtosis", finalizzato alla realizzazione di profili vibratori aventi distribuzione di probabilità non-Gaussiana. Durante l’indagine sperimentale oggetto di questa trattazione si sono portati a rottura per fatica alcuni componenti sottoposti, in generale, a tre differenti tipi di sollecitazione: stazionaria Gaussiana, stazionaria non-Gaussiana e non stazionaria non-Gaussiana. Il componente testato è costituito da un provino cilindrico montato a sbalzo e dotato di una massa concentrata all’estremità libera e di una gola vicina all’incastro, nella quale avviene la rottura per fatica. Durante l’indagine sperimentale si è monitorata la risposta in termini di accelerazione all’estremità libera del provino e di spostamento relativo a monte e a valle della gola, essendo quest’ultimo ritenuto proporzionale alle tensioni che portano a rottura il componente. Per ogni prova sono stati confrontati il Kurtosis e altri parametri statistici dell’eccitazione e della risposta. I risultati ottenuti mostrano che solo le sollecitazioni non stazionarie non-Gaussiane forniscono una risposta con distribuzione di probabilità non-Gaussiana. Per gli altri profili vale invece il Teorema del Limite Centrale. Tale per cui i picchi presenti nell'eccitazione non vengono trasmessi alla risposta. Sono stati inoltre monitorati i tempi di rottura di ogni componente. L’indagine sperimentale è stata effettuata con l'obiettivo di indagare sulle caratteristiche che deve possedere l’eccitazione affinchè sia significativa per le strategie alla base del "controllo del Kurtosis".
Resumo:
Analizzeremo dati di metilazione di diversi gruppi di pazienti, mettendoli in relazione con le loro età, intesa in senso anagrafico e biologico. Adatteremo metodi di regressione che sono già stati usati in altri studi, in particolare di tipo statistico, cercando di migliorarli e proveremo ad applicare a questi dati anche dei metodi nuovi, non solo di tipo statistico. La nostra analisi vuole essere innovativa soprattutto perché, oltre a guardare i dati in maniera locale attraverso lo studio della metilazione di particolari sequenze genetiche più o meno note per essere collegate all’invecchiamento, andremo a considerare i dati anche in maniera globale, analizzando le proprietà della distribuzione di tutti i valori di metilazione di un paziente attraverso la trasformata di Fourier.
Resumo:
La prova informatica richiede l’adozione di precauzioni come in un qualsiasi altro accertamento scientifico. Si fornisce una panoramica sugli aspetti metodologici e applicativi dell’informatica forense alla luce del recente standard ISO/IEC 27037:2012 in tema di trattamento del reperto informatico nelle fasi di identificazione, raccolta, acquisizione e conservazione del dato digitale. Tali metodologie si attengono scrupolosamente alle esigenze di integrità e autenticità richieste dalle norme in materia di informatica forense, in particolare della Legge 48/2008 di ratifica della Convenzione di Budapest sul Cybercrime. In merito al reato di pedopornografia si offre una rassegna della normativa comunitaria e nazionale, ponendo l’enfasi sugli aspetti rilevanti ai fini dell’analisi forense. Rilevato che il file sharing su reti peer-to-peer è il canale sul quale maggiormente si concentra lo scambio di materiale illecito, si fornisce una panoramica dei protocolli e dei sistemi maggiormente diffusi, ponendo enfasi sulla rete eDonkey e il software eMule che trovano ampia diffusione tra gli utenti italiani. Si accenna alle problematiche che si incontrano nelle attività di indagine e di repressione del fenomeno, di competenza delle forze di polizia, per poi concentrarsi e fornire il contributo rilevante in tema di analisi forensi di sistemi informatici sequestrati a soggetti indagati (o imputati) di reato di pedopornografia: la progettazione e l’implementazione di eMuleForensic consente di svolgere in maniera estremamente precisa e rapida le operazioni di analisi degli eventi che si verificano utilizzando il software di file sharing eMule; il software è disponibile sia in rete all’url http://www.emuleforensic.com, sia come tool all’interno della distribuzione forense DEFT. Infine si fornisce una proposta di protocollo operativo per l’analisi forense di sistemi informatici coinvolti in indagini forensi di pedopornografia.
Resumo:
Questa tesi di dottorato verte sull'individuazione di politiche industriali atte ad implementare il mercato dei prodotti a denominazione di origine. Inevitabilmente, l’analisi economica dei prodotti agroalimentari tipici di qualità implica anche l’approfondimento e l’individuazione, delle problematiche connesse con la creazione di un valore addizionale per il consumatore, rispetto a quello dei prodotti standardizzati. Questo approccio richiama l’attenzione, da una parte, sulle caratteristiche della domanda e sulla disponibilità del consumatore a riconoscere e apprezzare questo plus-valore, dall’altra sulle strategie che l’offerta può attivare per conseguire un premium price rispetto al prodotto standardizzato. Le certificazioni comunitarie Dop, Igp e Stg oltre che il marchio di prodotto biologico racchiudono, solitamente, tali dinamiche valoriali ma sono tutt’oggi poco conosciute dai consumatori. Diversi studi internazionali dimostrano, infatti, che la maggioranza dei cittadini comunitari ignorano il significato delle certificazioni di qualità. L’ipotesi di fondo di questo studio si basa sulla possibilità di fidelizzare questi marchi con i brand della grande distribuzione già affermati, come quello di Coop. Analizzare gli effetti dell’introduzione di prodotti private label a denominazione di origine nel mercato della grande distribuzione organizzata italiana ci permetterebbe di comprendere se questo segmento di mercato può aiutare il settore delle Dop/Igp. Questo studio ha cercato di verificare se il prodotto private label a denominazione di origine, riesca a sfruttare il doppio binario di fiducia rappresentato dal marchio comunitario unito a quello dell’impresa di distribuzione. Per comprendere la propensione del consumatore a spendere di più per questi prodotti, abbiamo utilizzato l’analisi dell’elasticità della domanda sul prezzo dei dati scanner fornitici da Coop Adriatica. Siamo riusciti a dimostrare tale positivo connubio confermato anche da una indagine demoscopica effettuata ad hoc sui consumatori.
Resumo:
La termografia è un metodo d’indagine ampiamente utilizzato nei test diagnostici non distruttivi, in quanto risulta una tecnica d’indagine completamente non invasiva, ripetibile nel tempo e applicabile in diversi settori. Attraverso tale tecnica è possibile individuare difetti superficiali e sub–superficiali, o possibili anomalie, mediante la rappresentazione della distribuzione superficiale di temperatura dell’oggetto o dell’impianto indagato. Vengono presentati i risultati di una campagna sperimentale di rilevamenti termici, volta a stabilire i miglioramenti introdotti da tecniche innovative di acquisizione termografica, quali ad esempio la super-risoluzione, valutando un caso di studio di tipo industriale. Si è effettuato un confronto tra gli scatti registrati, per riuscire a individuare e apprezzare le eventuali differenze tra le diverse modalità di acquisizione adottate. L’analisi dei risultati mostra inoltre come l’utilizzo dei dispositivi di acquisizione termografica in modalità super-resolution sia possibile anche su cavalletto.
Resumo:
Al fine di migliorare le tecniche di coltura cellulare in vitro, sistemi a bioreattore sono sempre maggiormente utilizzati, e.g. ingegnerizzazione del tessuto osseo. Spinner Flasks, bioreattori rotanti e sistemi a perfusione di flusso sono oggi utilizzati e ogni sistema ha vantaggi e svantaggi. Questo lavoro descrive lo sviluppo di un semplice bioreattore a perfusione ed i risultati della metodologia di valutazione impiegata, basata su analisi μCT a raggi-X e tecniche di modellizzazione 3D. Un semplice bioreattore con generatore di flusso ad elica è stato progettato e costruito con l'obiettivo di migliorare la differenziazione di cellule staminali mesenchimali, provenienti da embrioni umani (HES-MP); le cellule sono state seminate su scaffold porosi di titanio che garantiscono una migliore adesione della matrice mineralizzata. Attraverso un microcontrollore e un'interfaccia grafica, il bioreattore genera tre tipi di flusso: in avanti (senso orario), indietro (senso antiorario) e una modalità a impulsi (avanti e indietro). Un semplice modello è stato realizzato per stimare la pressione generata dal flusso negli scaffolds (3•10-2 Pa). Sono stati comparati tre scaffolds in coltura statica e tre all’interno del bioreattore. Questi sono stati incubati per 21 giorni, fissati in paraformaldehyde (4% w/v) e sono stati soggetti ad acquisizione attraverso μCT a raggi-X. Le immagini ottenute sono state poi elaborate mediante un software di imaging 3D; è stato effettuato un sezionamento “virtuale” degli scaffolds, al fine di ottenere la distribuzione del gradiente dei valori di grigio di campioni estratti dalla superficie e dall’interno di essi. Tale distribuzione serve per distinguere le varie componenti presenti nelle immagini; in questo caso gli scaffolds dall’ipotetica matrice cellulare. I risultati mostrano che sia sulla superficie che internamente agli scaffolds, mantenuti nel bioreattore, è presente una maggiore densità dei gradienti dei valori di grigio ciò suggerisce un migliore deposito della matrice mineralizzata. Gli insegnamenti provenienti dalla realizzazione di questo bioreattore saranno utilizzati per progettare una nuova versione che renderà possibile l’analisi di più di 20 scaffolds contemporaneamente, permettendo un’ulteriore analisi della qualità della differenziazione usando metodologie molecolari ed istochimiche.
Resumo:
Il metodo agli elementi finiti è stato utilizzato per valutare la distribuzione dei carichi e delle deformazioni in numerose componenti del corpo umano. L'applicazione di questo metodo ha avuto particolare successo nelle articolazioni con geometria semplice e condizioni di carico ben definite, mentre ha avuto un impatto minore sulla conoscenza della biomeccanica delle articolazioni multi-osso come il polso. Lo scopo di questo lavoro è quello di valutare gli aspetti clinici e biomeccanici dell’articolazione distale radio-ulnare, attraverso l’utilizzo di metodi di modellazione e di analisi agli elementi finiti. Sono stati progettati due modelli 3D a partire da immagini CT, in formato DICOM. Le immagini appartenevano ad un paziente con articolazione sana e ad un paziente con articolazione patologica, in particolare si trattava di una dislocazione ulnare traumatica. Le componenti principali dei modelli presi in considerazione sono stati: radio, ulna, cartilagine, legamento interosso, palmare e distale. Per la realizzazione del radio e dell’ulna sono stati utilizzati i metodi di segmentazione “Thresholding” e “RegionGrowing” sulle immagini e grazie ad operatori morfologici, è stato possibile distinguere l’osso corticale dall’osso spongioso. Successivamente è stata creata la cartilagine presente tra le due ossa, attraverso operazioni di tipo booleano. Invece, i legamenti sono stati realizzati prendendo i punti-nodo del radio e dell’ulna e formando le superfici tra di essi. Per ciascuna di queste componenti, sono state assegnate le corrispondenti proprietà dei materiali. Per migliorare la qualità dei modelli, sono state necessarie operazioni di “Smoothing” e “Autoremesh”. In seguito, è stata eseguita un’analisi agli elementi finiti attraverso l’uso di vincoli e forze, così da simulare il comportamento delle articolazioni. In particolare, sono stati simulati lo stress e la deformazione. Infine, grazie ai risultati ottenuti dalle simulazioni, è stato possibile verificare l’eventuale rischio di frattura in differenti punti anatomici del radio e dell’ulna nell’articolazione sana e patologica.
Resumo:
La costituzione dell’Unione Europea nel 1993 pose la questione del dover aiutare le regioni svantaggiate in essa contenute, allo scopo di promuovere i principi di eguaglianza appena stipulati. Allo stesso tempo si dovette cercare uno strumento per facilitare la collaborazione fra le regioni appartenenti all’Unione stessa. Tale strumento sono i Fondi Strutturali Europei, un sistema di autofinanziamento utilizzato per promuovere progetti lavorativi, di cultura o di ricerca in tutta Europa. La distribuzione dei fondi avviene secondo delle regole specifiche e spesso i temi verso cui i fondi vengono rivolti sono scelti di comune accordo tra i Paesi membri. Le amministrazioni regionali hanno quindi la possibilità di usufruire di una notevole quantità di denaro, giustificando in modo appropriato la destinazione d’uso dei fondi e stilando dei piani che ne descrivano la loro suddivisione nei vari progetti. In seguito all’evoluzione tecnologica degli anni ’60 e ’70 nacquero nuovi strumenti a favore delle aziende: i DSS (Decision Support System), descritti come “sistemi informatici a supporto del processo decisionale”. L’uso di questa nuova tecnologia permise una facilitazione dei compiti decisionali, oltre ad un miglioramento delle prestazioni negli ambiti di applicazione. Da tali premesse nascono diversi progetti che puntano ad utilizzare strumenti di supporto alle decisioni nei campi più diversi: amministrativo, medico, politico, culturale. In particolare, l’area d’applicazione politica vive un grande fermento negli ultimi anni, grazie a strumenti in grado di aiutare la classe politica in decisioni su più livelli di scelta e su una grosse mole di dati. Un esempio fra gli altri è la redazione del Programma Operativo Regionale, il quale fa affidamento sui finanziamenti dei Fondi Strutturali Europei per potersi sostentare. Negli ultimi anni la Regione Emilia-Romagna ha puntato molto sull’uso di strumenti informatici e automatizzati come aiuto nella compilazione di progetti, piani operativi e preventivi di spesa, sviluppando delle collaborazioni con diversi Enti ed Università, tra le quali l’Università degli Studi di Bologna. L’ultimo progetto realizzato in collaborazione con la Regione, e qui esposto, riguarda la realizzazione di uno strumento di supporto alle decisioni politiche per la ripartizione dei Fondi Europei, in particolare quelli destinati al Programma Operativo Regionale (POR).
Resumo:
In this work, the well-known MC code FLUKA was used to simulate the GE PETrace cyclotron (16.5 MeV) installed at “S. Orsola-Malpighi” University Hospital (Bologna, IT) and routinely used in the production of positron emitting radionuclides. Simulations yielded estimates of various quantities of interest, including: the effective dose distribution around the equipment; the effective number of neutron produced per incident proton and their spectral distribution; the activation of the structure of the cyclotron and the vault walls; the activation of the ambient air, in particular the production of 41Ar, the assessment of the saturation yield of radionuclides used in nuclear medicine. The simulations were validated against experimental measurements in terms of physical and transport parameters to be used at the energy range of interest in the medical field. The validated model was also extensively used in several practical applications uncluding the direct cyclotron production of non-standard radionuclides such as 99mTc, the production of medical radionuclides at TRIUMF (Vancouver, CA) TR13 cyclotron (13 MeV), the complete design of the new PET facility of “Sacro Cuore – Don Calabria” Hospital (Negrar, IT), including the ACSI TR19 (19 MeV) cyclotron, the dose field around the energy selection system (degrader) of a proton therapy cyclotron, the design of plug-doors for a new cyclotron facility, in which a 70 MeV cyclotron will be installed, and the partial decommissioning of a PET facility, including the replacement of a Scanditronix MC17 cyclotron with a new TR19 cyclotron.
Resumo:
Internet e turismo sono due settori che si intersecano profondamente e che da sempre risultano interconnessi. Grazie al progresso delle nuove tecnologie l’ambito turistico ha mutato profondamente i suoi connotati, sia da un punto di vista strutturale sia nella gestione e nella distribuzione delle informazioni. Con l’ingresso nell’era digitale, lo sviluppo delle ICT (Information and Communication Technologies) e l’avvento del web 2.0, la comunicazione turistica si è modificata in modo sostanziale: si è passati da una comunicazione monologica e unidirezionale da esperti a pubblico, a un dialogo tra le varie parti coinvolte, dove la centralità dell’utente/consumatore, che ha acquisito un ruolo proattivo e guadagnato il diritto di parola, si fa sempre più evidente. In particolare la comparsa del web sociale, che si contraddistingue per la sua forte dinamicità e un carattere collaborativo e comunitario, ha permesso lo sviluppo di modelli comunicativi originali, che sono riusciti ad apportare elementi innovativi e peculiari anche nel linguaggio del turismo, varietà linguistica già di per sé piuttosto particolare ed eterogenea. Tramite l’analisi della versione spagnola del portale di viaggi più famoso al mondo (Tripadvisor.es), si è cercato di evidenziare quali caratteristiche mostrate nei testi pubblicati in questo spazio fossero riconducibili all’influenza del linguaggio del turismo dei generi più tradizionali (guide, dépliant, cataloghi) e quali invece fossero gli elementi attribuibili al mezzo computer e quindi appartenessero alla sfera della comunicazione mediata dal computer.
Resumo:
The uncertainties in the determination of the stratigraphic profile of natural soils is one of the main problems in geotechnics, in particular for landslide characterization and modeling. The study deals with a new approach in geotechnical modeling which relays on a stochastic generation of different soil layers distributions, following a boolean logic – the method has been thus called BoSG (Boolean Stochastic Generation). In this way, it is possible to randomize the presence of a specific material interdigitated in a uniform matrix. In the building of a geotechnical model it is generally common to discard some stratigraphic data in order to simplify the model itself, assuming that the significance of the results of the modeling procedure would not be affected. With the proposed technique it is possible to quantify the error associated with this simplification. Moreover, it could be used to determine the most significant zones where eventual further investigations and surveys would be more effective to build the geotechnical model of the slope. The commercial software FLAC was used for the 2D and 3D geotechnical model. The distribution of the materials was randomized through a specifically coded MatLab program that automatically generates text files, each of them representing a specific soil configuration. Besides, a routine was designed to automate the computation of FLAC with the different data files in order to maximize the sample number. The methodology is applied with reference to a simplified slope in 2D, a simplified slope in 3D and an actual landslide, namely the Mortisa mudslide (Cortina d’Ampezzo, BL, Italy). However, it could be extended to numerous different cases, especially for hydrogeological analysis and landslide stability assessment, in different geological and geomorphological contexts.